WO2007099681A1 - 生体観察装置 - Google Patents

生体観察装置 Download PDF

Info

Publication number
WO2007099681A1
WO2007099681A1 PCT/JP2006/324681 JP2006324681W WO2007099681A1 WO 2007099681 A1 WO2007099681 A1 WO 2007099681A1 JP 2006324681 W JP2006324681 W JP 2006324681W WO 2007099681 A1 WO2007099681 A1 WO 2007099681A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
circuit
living body
output
input
Prior art date
Application number
PCT/JP2006/324681
Other languages
English (en)
French (fr)
Inventor
Kenji Yamazaki
Kazuhiro Gono
Original Assignee
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp. filed Critical Olympus Medical Systems Corp.
Priority to CN2006800523633A priority Critical patent/CN101336087B/zh
Priority to EP06834436A priority patent/EP1992270B1/en
Priority to BRPI0621380-4A priority patent/BRPI0621380A2/pt
Publication of WO2007099681A1 publication Critical patent/WO2007099681A1/ja
Priority to US12/192,507 priority patent/US20080306338A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a living body observation apparatus such as an endoscope apparatus that observes a living body mucous membrane or the like in a body cavity or the like.
  • An endoscope apparatus having an endoscope, a light source device, and the like has been widely used in the medical field and the like.
  • an endoscope apparatus in the medical field for example, in normal observation, in addition to normal observation in which white light is irradiated to a subject such as a mucous membrane in a living body and an image of the subject is captured in substantially the same manner as observation with the naked eye.
  • narrowband light which has a narrower band than the irradiated light
  • NBI band light observation
  • the narrow-band light used in the above-described narrow-band light observation needs to narrow the illumination light. For this reason, it is necessary to use a filter for broadband illumination light normally used for observation.
  • Japanese Patent Laid-Open No. 2003-93336 as a second conventional example performs signal processing on an image signal obtained by normal illumination light to generate a discrete spectral image, and A narrow-band optical endoscope apparatus that obtains tissue information at a desired depth is disclosed.
  • the present invention has been made in view of the above points, and a living body observation apparatus that generates an image signal of an image that makes it easy to identify the structure of a living body, such as a surface layer-side and a deep layer-side mucosal structure, with a simple configuration.
  • the purpose is to provide. Disclosure of the invention
  • the present invention performs signal processing on an output signal of an image sensor that performs imaging under a wide-band illumination light irradiated on a living body, and enables a generated image signal to be output to the display device side.
  • the biological observation apparatus provided with the processing means,
  • the signal processing means includes separation means for separating the output signal into spatial frequency components corresponding to the structure of the living body.
  • FIG. 1 is a block diagram showing an overall configuration of an endoscope apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a configuration of a rotary filter.
  • FIG. 3 is a characteristic diagram showing spectral characteristics of R, G, and B filters provided in the rotary filter.
  • FIG. 4 is a block diagram showing the configuration of the periphery of the filter circuit.
  • FIG. 5 is a characteristic diagram showing the frequency characteristics of the BPF that constitutes the filter circuit.
  • FIG. 6 is a characteristic diagram showing the frequency characteristics of the HPF that constitutes the filter circuit.
  • FIG. 7 is a characteristic diagram showing input / output characteristics of the ⁇ correction circuit set in the second observation mode.
  • FIG. 8 is a diagram for explaining the operation when the BPF of FIG. 5 is used.
  • FIG. 9 is an explanatory diagram of the action when the HPF of FIG. 6 is used.
  • FIG. 10 is a block diagram showing an overall configuration of an endoscope apparatus according to Embodiment 2 of the present invention.
  • FIG. 11 is a block diagram showing a configuration of a wavelet transform unit in Embodiment 3 of the present invention.
  • FIG. 12 is a diagram showing a configuration example of a decomposition level 2 transform coefficient group by a two-dimensional discrete wavelet transform.
  • FIG. 13 is a block diagram showing a configuration of a wavelet transform unit in a modified example.
  • FIG. 1 is a diagram illustrating an overall configuration of the endoscope apparatus according to the first embodiment of the present invention.
  • Figure 2 shows the configuration of the rotary filter. is there.
  • FIG. 3 is a diagram showing the spectral characteristics of the R, G, and B filters provided in the rotary filter.
  • FIG. 4 is a diagram showing the configuration of the periphery of the filter circuit.
  • FIG. 5 is a diagram showing the frequency characteristics of the BPF that constitutes the filter circuit.
  • Fig. 6 shows the frequency characteristics of the HPFs that make up the filter circuit.
  • FIG. 7 is a diagram showing input / output characteristics of the ⁇ correction circuit set in the second observation mode.
  • FIG. 8 is a diagram illustrating an operation when the BPF of FIG. 5 is used.
  • FIG. 9 is a diagram illustrating the operation when the HPF of FIG. 6 is used.
  • an endoscope apparatus 1 as a first embodiment of a living body observation apparatus of the present invention is inserted into a body cavity and images an object such as a living tissue in the body cavity.
  • the electronic endoscope 2 Built-in in the electronic endoscope 2 that outputs as an imaging signal, the light source device 3 that emits broadband illumination light for illuminating the subject side to the electronic endoscope 2, and the electronic endoscope 2
  • a signal processing means for driving the image pickup means and performing signal processing on the image pickup signal output from the electronic endoscope 2 to generate a video signal as an image signal (also called a biological signal).
  • a video processor 4 and a monitor 5 as a display device for displaying an image of a subject based on a video signal output from the video processor 4 are provided.
  • the electronic endoscope 2 has an elongated insertion portion 7 that is inserted into a body cavity, and an operation portion 8 is provided at the rear end of the insertion portion 7.
  • a light guide 9 that transmits illumination light is inserted into the insertion portion 7, and a rear end (base end) of the light guide 9 is detachably connected to the light source device 3.
  • the light source device 3 cuts off the heat rays in the illumination light from the lamp 11 such as a xenon lamp that generates broadband illumination light covering the visible region by supplying lighting power from the lamp lighting circuit 10.
  • the aperture filter 13 that controls the amount of illumination light that has passed through the heat ray cut filter 12, the rotary filter 14 that converts the illumination light into frame sequential light, and the electronic endoscope 2
  • a condensing lens 15 that collects and supplies surface-sequential light via the rotary filter 14 to the incident surface of the light guide 9 and a control circuit 16 that controls the rotation of the rotary filter 14 are provided.
  • the rotary filter 14 is configured to transmit light of red (R), green (G), and blue ( ⁇ ) wavelengths in the circumferential direction of the disc in a wide band.
  • Three filters, 14G and B filter 14B, are provided in a fan shape.
  • FIG. 3 shows spectral transmission characteristics of the R filter 14R, the G filter 14G, and the B filter 14B.
  • the R filter 14R, the G filter 14G, and the B filter 14B exhibit characteristics of transmitting light in the R, G, and B wavelength bands in a wide band, respectively.
  • the rotary filter 14 is rotated at a predetermined rotation speed by a motor 17 that is driven and controlled by a control circuit 16.
  • a control circuit 16 By this rotation, an R filter 14R, a G filter 14G,
  • B filter 14B is arranged sequentially, and R, G, B light is focused on the entrance surface of the light guide 9
  • the light is collected at 15 and incident sequentially.
  • the light is transmitted by the light guide 9 and irradiated to the tissue in the body cavity as illumination light through the illumination lens 23 attached to the illumination window of the distal end portion 22 of the insertion portion 7.
  • An objective lens 24 is attached to an observation window provided adjacent to the illumination window, and a charge coupled device (abbreviated as CCD) 25 is disposed as an imaging device at the imaging position.
  • CCD 25 photoelectrically converts the formed optical image.
  • the CCD 25 is connected to a CCD driver 29 in the video processor 4 and a preamplifier 30 via a signal line 26.
  • the signal line 26 is actually detachably connected to the video processor 4 via a connector (not shown).
  • the imaging signal photoelectrically converted by the CCD25 by applying the CCD drive signal from the CCD driver 29 is amplified by the preamplifier 30, and then passed through the process circuit 31 that performs correlated double sampling (CDS) and noise removal, etc. Input to circuit 32
  • the analog signal power is also converted into digital image data by the AZD conversion circuit 32, and then input to the white balance circuit 34.
  • the auto gain control circuit AGC circuit and (Abbreviation) Input to 35 and amplified to a predetermined level.
  • the AGC circuit 35 preferentially performs the dimming operation with the amount of illumination light by the aperture device 13 of the light source device 3, and after the aperture of the aperture device 13 reaches the open state, Based on the information, the AGC circuit 35 performs an operation to amplify the signal level to be insufficient.
  • the dimming circuit 33 uses the output signal of the process circuit 31 to determine the aperture device 13 of the light source device 3. A dimming signal for adjusting the amount of illumination to be controlled to an appropriate amount of illumination light is generated.
  • the output data of the AGC circuit 35 is input to the filter circuit 36 that forms the separating means in the present embodiment, and is also input to the ⁇ correction circuit 41 via the switching switch 40.
  • the electronic endoscope 2 includes, for example, a first observation mode that is a normal observation mode and a biological mucous membrane emphasized observation mode that emphasizes the structure of the biological mucosa by an operation of an operator or the like.
  • a mode switching switch 20 is provided so that two observation modes, the second observation mode and the second observation mode, can be selected and observed.
  • the observation mode switching instruction given by the mode switching switch 20 is input to the mode switching circuit 21 of the video processor 4, and the mode switching circuit 21 switches the switching switch 40 in response to the mode switching instruction. And a mode switching signal is sent to the timing generator 49.
  • the mode switching switch 20 is not limited to the one provided in the electronic endoscope 2, and may be provided, for example, on the front panel (not shown) of the video processor 4, or the video processor 4 It may be configured as a predetermined key on a keyboard (not shown) that can be connected to the keyboard.
  • the contact a is selected in the first observation mode corresponding to the normal observation via the mode switching circuit 21 by the operation of the mode switching switch 20, and the contact b is switched in the second observation mode. Selected.
  • the output signal of the AGC circuit 35 is the main structure of the living body to be observed, specifically, the spatial frequency components of the fine mucosa structure and the coarse mucosa structure.
  • the filter circuit 36 forming the separation means for separating and extracting the signal
  • the processing is further performed by the simultaneous signal circuit 37, the color conversion circuit 38, and the frame sequential circuit 39, and then the ⁇ correction through the switching switch 40. Input to circuit 41.
  • the filter circuit 36 has a selector 51 that is switched by a timing signal from the timing generator 49, and a frequency that enables separation and extraction of spatial frequency components corresponding to the main mucosal structure of the living body.
  • the bandpass filter (abbreviated as BPF) 52 and the high-pass filter (abbreviated as HPF) 53 and the force are set.
  • the selector 51 is switched by the timing generator 49 at the timing when the broadband R, G, and B signals are input to the filter circuit 36 in the frame order.
  • the R signal is passed through and stored in the R memory 37a of the synchronization circuit 37, the G signal is stored in the G memory 37b via BP F52, and the B signal is stored in the B memory 37c via HPF53.
  • the R signal is stored in the R memory 37a as it is, the G signal is filtered by the BPF 52 and stored in the G memory 37b, and the B signal is filtered by the HPF 53 and stored in the B memory 37c.
  • the BPF 52 enhances the frequency component of the middle or mid-low range Fa so that its amplitude is greater than 1, and suppresses the high range Fb. Frequency characteristics).
  • the HPF 53 is set to have a filter characteristic that enhances the frequency component of the high frequency band Fc so that the amplitude becomes larger than 1.
  • the DC component is set to have an amplitude of 1 so that its value does not change.
  • the filter circuit 36 constituting the separating means in the present embodiment separates the fine mucous membrane structure and the rough mucous membrane structure in the living body, and further to the ⁇ correction circuit 41 in order to make the structure easier to identify. Then, perform the contrast conversion process described later!
  • the R, G, and B signal data stored in the R, G, and memo U37a, 37b, and 37c of the simultaneous circuit 37 are read out simultaneously and synchronized.
  • the B signal is input to the color conversion circuit 38 as the color adjusting means, and color conversion is performed.
  • the G and B signals are filtered by the filters BPF52 and HPF53, respectively, and are indicated by BPF (G) and HPF (B)!
  • the color conversion circuit 38 performs color conversion on the synchronized R, BPF (G), and HPF (B) image information using a 3 X 3 matrix. As a result, the color conversion processing is performed so that the fine structure portion on the surface layer side of the mucous membrane and the rough V-shaped structure portion on the deep layer side are displayed in different colors. By performing the color conversion process in this manner, the separated mucosal structure is displayed in a different color tone, thereby making it easier to identify.
  • the matrix K has, for example, three real number components ml to m3 (other components are 0), and R, BPF (G), HPF (The weight (ratio) of the color signals of BPF (G) and HPF (B) in the color signal of B) is increased.
  • the R color signal which has a long wavelength, is suppressed.
  • the frame sequential circuit 39 is composed of a frame memory, and is converted into frame sequential image data by sequentially reading out the R, G, and B image data stored at the same time as color component images.
  • the frame-sequential R, G, and B image data are input to the ⁇ correction circuit 41 through the switching switch 40 and are ⁇ corrected.
  • This ⁇ correction circuit 41 has, for example, a ⁇ table storing therein ⁇ correction input / output characteristics, and the timing generator 49 switches the ⁇ correction input / output characteristics.
  • the ⁇ correction circuit 41 is set to input / output characteristics for performing common ⁇ correction on the R, G, and B signals input in sequence, but in the second observation mode.
  • the input / output characteristics of ⁇ correction can be switched for each R, G, B signal that is input sequentially.
  • the y correction circuit 41 sets the gammal input / output characteristics indicated by the solid line in FIG. 7 for the R signal, whereas the mucosal surface layer is finer than the R signal.
  • the G and B signals that reproduce the structural information are set to the gamma2 input / output characteristics indicated by the dotted line in Fig. 7, and the contrast conversion process is performed.
  • the input / output characteristics of gamma2 are such that the output is smaller in the small input range than in the case of gammal's input / output characteristics, and the output is larger in the large input area than in the case of gammal's input / output characteristics.
  • the contrast of fine mucosal structure information reproduced in the image signal can be increased.
  • the ⁇ correction circuit 41 After being subjected to ⁇ correction by the ⁇ correction circuit 41, it is inputted to the enlargement circuit 42, subjected to enlargement interpolation processing, and then inputted to the enhancement circuit 43.
  • the simultaneous circuit 45 is formed by three memories 45a, 45b and 45c.
  • the R, G, B image data simultaneously input by the simultaneous input circuit 45 is input to the image processing circuit 46, and after image processing such as color shift correction of the moving image is performed, the DZA conversion circuit Input to 47a, 47b, 47c. Then, after being converted into an analog video signal or image signal (biological signal in a broad sense) by the D / A conversion circuits 47a, 47b, 47c, it is input to the monitor 5 as a display device.
  • the monitor 5 displays an endoscopic image corresponding to the input video signal.
  • a timing generator 49 is provided in the video processor 4, and a synchronization signal synchronized with the rotation of the rotary filter 14 is input from the control circuit 16 of the light source device 3, and various timings synchronized with the synchronization signal are input. The signal is output to each circuit.
  • the light control circuit 33 controls the diaphragm device 13 of the light source device 3 to control the amount of illumination light so as to obtain an image with appropriate brightness suitable for observation.
  • the surgeon or the like connects the electronic endoscope 2 to the light source device 3 or the video processor 4 as shown in FIG.
  • the surgeon inserts the electronic endoscope 2 into the body cavity and The biological tissue of the site to be observed in the cavity is observed.
  • each part of the endoscope apparatus 1 is set to the state of the first observation mode for normal observation, for example.
  • the rotary filter 14 rotates at a constant speed on the optical path of the illumination light, and the R, G, and B illumination lights are condensed by the condenser lens 15 and incident on the light guide 9. As shown in FIG. 3, broadband R, G, and B illumination lights are sequentially irradiated onto the living tissue from the distal end surface of the light guide 9 via the illumination lens 23.
  • the CCD output signal imaged by the CCD 25 under the broad-band R, G, and B illumination lights and photoelectrically converted by the CCD 25 is amplified by the preamplifier 30 in the video processor 4.
  • the signal component is extracted by the CDS circuit in the process circuit 31.
  • the output signal of the process circuit 31 is converted into a digital signal by the AZD conversion circuit 32 (when in the first observation mode as described above), from the switching switch 40 to the ⁇ correction circuit 41 via the white balance circuit 34 and the AGC circuit 35. Entered.
  • the y correction circuit 41 After y correction by the y correction circuit 41, it is input to the enlargement circuit 42 and subjected to enlargement interpolation processing, and then input to the enhancement circuit 43.
  • the enhancement circuit 43 performs structure enhancement or contour enhancement. Then, the signal is input to the simultaneous signal circuit 45 through the selector 44.
  • the image data simultaneously synchronized by the synchronization circuit 45 is input to the image processing circuit 46, subjected to image processing such as color shift correction of the moving image, and then analogized by the DZA conversion circuits 47a, 47b, 47c. It is output to the monitor 5 after being converted into a video signal.
  • the monitor 5 displays an endoscopic image corresponding to the input video signal.
  • the mode switching switch 20 of the electronic endoscope 2 is operated to instruct the switching to the second observation mode, the signal is input to the mode switching circuit 21 of the video processor 4.
  • the mode switching circuit 21 sends a mode switching signal instructed to switch to the second observation mode to the timing generator 49, and switches the contact b of the switching switch 40 to be ON.
  • the timing generator 49 includes a broadband R, G, B filter circuit 36.
  • the selector 51 is sequentially switched at the timing when each signal is input.
  • the R signal passes through the filter circuit 36 without being filtered and is stored in the R memory 37a of the synchronization circuit 37.
  • the G signal has a low-frequency region Fa by a BPF 52 set to a frequency characteristic that suppresses the high-frequency region Fb and enhances the middle-low frequency region Fa. Are extracted (separated).
  • the frequency component of the high-frequency part Fc is extracted (separated) from the B signal by the HPF 53 set to a characteristic that enhances the high-frequency part Fc.
  • the structure of the surface of the living mucous membrane and the structure on the deeper side than the surface layer specifically, the frequency separation characteristic that separates and extracts the spatial frequency components corresponding to the structure of the blood vessel running, are identified and identified.
  • the BPF 52 and the HPF 53 of the filter circuit 36 set to the characteristics that facilitate the generation of signals that facilitate the visual recognition of their structures as described below.
  • FIG. 8 is an explanatory diagram showing that the G signal component similar to the G signal imaged under the narrow-band G illumination light is separated and extracted by using the BPF 52 of FIG. .
  • the trapezoid in Fig. 8 shows broadband G illumination light.
  • This G illumination light is band-limited near the center and has a wavelength range GO suitable for obtaining a rough mucous membrane structure, a short wavelength range Ga on the shorter wavelength side, and a longer wavelength side length than the wavelength range GO.
  • the short wavelength range Ga since the absorbance of hemoglobin is low, the contrast of blood vessels and other images is lower in the G signal imaged by the CCD25 than in the wavelength range GO, but the shallow (surface) fine mucous membrane structure Contribute to the image.
  • the characteristic of BPF52 is set to a characteristic in which the high frequency side is suppressed to suppress its reproduction.
  • the long wavelength region Gb has a deeper blood vessel structure that reproduces deeper information than the wavelength region GO, and it is considered that there is no significant difference from the reproduction information of the adjacent wavelength region GO. On the contrary, since the absorbance of hemoglobin is lower, it is superimposed and averaged with the image information in the wavelength range GO where the contrast is low, and the contrast is reduced as a whole.
  • the frequency characteristics of BPF52 are By setting the frequency characteristics to enhance contrast, it is possible to enhance and extract the signal of the frequency component in the low to middle range, so that the G signal component corresponding to the image of the rough mucous membrane structure on the deep layer side can be obtained.
  • FIG. 9 is an explanatory diagram showing that the B signal component similar to the B signal imaged under the narrow-band B illumination light is extracted by using the HPF 53 of FIG. is there.
  • the trapezoid shown in Fig. 9 shows broadband B illumination light.
  • This illumination light of B is band-limited to a narrow band and includes a wavelength range BO suitable for obtaining a fine mucosa structure and a long wavelength range Ba on the longer wavelength side. Since the long wavelength region Ba has a longer wavelength than the wavelength region BO, it contributes to reproducing mucosal information slightly deeper than the wavelength region BO.
  • the B image data obtained in the long wavelength region Ba becomes a frequency component in the middle region, and is a suppression target. Therefore, the frequency characteristic of HPF53 is set to a characteristic that suppresses the band as shown in FIG.
  • the long wavelength region Ba contributes to reproduction of the same mucosal information as the wavelength region BO, but the contrast is lowered because the absorbance of hemoglobin is low. Since this information is an image averaged with the wavelength region BO having a high contrast, the contrast of the image is made lower than when only the wavelength region BO is irradiated.
  • the high frequency contrast is enhanced with respect to the imaged signal by using the frequency characteristics with the high frequency enhanced by HPF53. In this way, it is possible to generate a B image that makes it easy to visually recognize the fine mucosal structure on the surface layer side.
  • the G signal and B signal reflecting the mucosal structure similar to the narrowband G signal and B signal are synchronized with the R signal, and then color-converted by the color conversion circuit 38.
  • the mucous membrane structure is converted into a color that is easier to identify.
  • the ⁇ correction circuit 41 is small with respect to the G signal and the ⁇ signal, and the difference between the output and the input range is increased. Since the contrast conversion processing is performed, the mucosal structure on the surface layer side is displayed on the monitor 5 in an easy-to-view image.
  • the fine mucosal structure portion and the 3 ⁇ 4 ⁇ mucosal structure portion in the living body are separated by frequency characteristics corresponding to their spatial frequencies, and are further distinguished by different color tones. Displayed as an easy-to-use image. [0063] Therefore, according to the present embodiment, it is possible to observe a fine mucosal structure portion and a rough mucosal structure portion in a living body as an easily distinguishable image with a simple configuration. Therefore, there is an effect that diagnosis can be easily performed and images can be provided.
  • FIG. 10 shows an endoscope apparatus 1B according to the second embodiment of the present invention.
  • the endoscope apparatus 1 of the first embodiment is a frame sequential endoscope apparatus, but in the present embodiment, it is a simultaneous endoscope apparatus 1 B.
  • the endoscope apparatus 1B includes an electronic endoscope 2B, a light source apparatus 3B, a video processor 4B, and a motor 5.
  • a complementary color system filter is attached to each pixel unit as the color separation filter 60 that optically separates colors on the imaging surface of the CCD 25. is there.
  • this complementary color filter has four color chips of magenta (Mg), dark (G), cyan (Cy), and yellow (Ye) in front of each pixel.
  • Mg, Cy, Mg, Ye and G, Ye, G, and Cy are alternately arranged, and in the vertical direction, Mg, Cy, Mg, Ye and G, Ye, G, and Cy are arranged in the order of arrangement.
  • an ID generation circuit 61 is provided in the operation unit 8 of the electronic endoscope 2B, for example.
  • the HD information of this ID generation circuit 61 for example, by changing the characteristics at the time of signal processing according to the type and variation of the color separation filter 60 of the CCD 25 of the electronic endoscope 2B, Enable more appropriate signal processing.
  • the light source device 3B has a configuration in which the rotary filter 14, the motor 17, and the control circuit 16 are removed from the light source device 3 of FIG.
  • the white illumination light is collected by the condenser lens 15 and is incident on the base end face of the light guide 9. Then, the illumination light is applied to the living mucous membrane of the site to be observed in the body cavity through the illumination lens 23 as well as the tip surface force of the light guide 9. And illuminated The optical image of the living mucous membrane is separated into a complementary color system by the color separation filter 60 and captured by the CCD 25 c
  • the output signal of the CCD 25 is input to the CDS circuit 62 in the video processor 4B.
  • the output signal of the CCD 25 is extracted from the output signal by the CDS circuit 62 and converted into a baseband signal, which is then input to the AZD conversion circuit 63 to be converted into a digital signal. Then, it is input to the brightness detection circuit 64, and the brightness (average luminance of the signal) is detected.
  • the brightness signal detected by the brightness detection circuit 64 is input to the dimming circuit 33, and a dimming signal for dimming is generated based on a difference from the reference brightness (dimming target value). Is done.
  • the dimming signal from the dimming circuit 33 controls the diaphragm device 13 of the light source device 3B to dimm the illumination light amount suitable for observation.
  • the luminance signal Y is input to the selector 67 via the ⁇ circuit 66 (this luminance signal is denoted as Yh) and also input to the LPF 71 that limits the signal pass band.
  • the LPF 71 is set to have a wide pass band corresponding to the luminance signal Y. Then, the luminance signal Y 1 in the band set by the pass band characteristic of the LPF 71 is input to the first matrix circuit 72.
  • the color difference signals Cr and Cb are input to the simultaneous signal circuit 74 (line-sequentially) via the second LPF 73 that limits the signal pass band.
  • the passband characteristic of the second LPF 73 is changed by the control circuit 68 according to the observation mode. Specifically, in the first observation mode corresponding to the normal observation, the second LPF 73 is set to a lower pass band (low band) than the first LPF 71.
  • the second LPF 73 is changed to a wider band than the low band in the first observation mode for normal observation.
  • the second LPF 73 is set (changed) in a wide band in substantially the same manner as the first LPF 41.
  • the second LP F73 changes the passband for the color difference signals Cr and Cb in conjunction with the switching of the observation mode. To do. Note that the characteristics of the second LPF 73 are changed in accordance with the switching of the observation mode under the control of the control circuit 68.
  • the simultaneous keying circuit 74 generates the color difference signals Cr and Cb that are simultaneously keyed, and the color difference signals Cr and Cb are input to the first matrix circuit 72.
  • the first matrix circuit 72 converts the luminance signal Y and the color difference signals Cr, Cb into color signals Rl, Gl, B1.
  • This first matrix circuit 72 is controlled by the control circuit 68 and changes the value of the matrix coefficient (determining the conversion characteristics) according to the characteristics of the color separation filter 60 of the CCD 25 so that there is no color mixing or Converts to Rl, Gl, B1 color signal with almost no color mixing.
  • the characteristics of the color separation filter 60 of the CCD 25 mounted on the electronic endoscope 2B may differ depending on the electronic endoscope 2B actually connected to the video processor 4B.
  • the coefficient of the first matrix circuit 72 is changed according to the characteristics of the color separation filter 60 of the CCD 25 actually used.
  • the color signals Rl, Gl, and B1 generated by the first matrix circuit 72 are output to the white balance circuit 86 through the filter circuit 36B corresponding to the filter circuit 36 in the first embodiment.
  • the filter circuit 36 has a configuration in which R, G, and B signals are input in the order of frames. Therefore, the force using the selector 51 as shown in FIG. Since the Gl and Bl color signals are input simultaneously, the selector 51 in FIG. 4 is not required.
  • the R1 signal passes through the filter circuit 36B and is input to the white balance circuit 86.
  • the G1 signal and the B1 signal pass through the BPF 52 and the HPF 53, respectively, to become the Gl signal and the Bl ′ signal, and are input to the white balance circuit 86, respectively.
  • the filter circuit 36B performs substantially the same signal processing as in the first embodiment. Further, the R1 signal, G signal, and B signal that have passed through the filter circuit 36B are input. The white balance circuit 86 and the output signal thereof are input. ⁇ circuit 7 5 is controlled by the control circuit 68.
  • the white balance circuit 86 performs white balance adjustment on the input R1 signal, G signal, and B signal, and the white balance adjusted R1 signal, G1 'signal, and B1' signal are sent to the ⁇ circuit 75. Output.
  • the force is ⁇ corrected with common input / output characteristics.
  • ⁇ correction is performed with different input / output characteristics for each of Rl, Gl, and B1.
  • the ⁇ correction circuit 41 performs ⁇ correction after color conversion first, whereas in the present embodiment, after the ⁇ correction is performed in the second matrix circuit 76 described later.
  • the configuration is changed to perform color conversion.
  • the Rl and Gl signals have the gammmal input / output characteristics of FIG. 7, and the B1 signal has the gamma2 input / output characteristics of FIG. Be sure to ⁇ -correct the characteristics (in this case at the same time)!
  • the ⁇ circuit 75 in the present embodiment changes the ⁇ characteristic in the second observation mode to a ⁇ characteristic that emphasizes the ⁇ correction characteristic than in the first observation mode, and performs the contrast conversion process. As a result, the contrast is enhanced and the display becomes easier to identify.
  • the R2, G2, and B2 color signals that have been ⁇ -corrected by the ⁇ circuit 75 are converted by the second matrix circuit 76 into a luminance signal Y and color difference signals R ⁇ Y and ⁇ .
  • control circuit 68 in the first observation mode, the control circuit 68 generates a luminance signal from the R2, G2, and ⁇ ⁇ 2 signals.
  • the matrix coefficient of the second matrix circuit 76 is set so that it is simply converted into ⁇ and the color difference signal R— ⁇ and ⁇ — ⁇ .
  • control circuit 68 converts the matrix coefficient of the second matrix circuit 76 into the matrix coefficient that also serves as the color conversion by the color conversion circuit 38 of the first embodiment, that is, the function of the color adjustment means. change.
  • the luminance signal ⁇ output from the second matrix circuit 76 is input to the selector 67. Switching of the selector 67 is controlled by a control circuit 68. That is, the luminance signal Yh is selected in the first observation mode, and the luminance signal Yn is selected in the second observation mode.
  • the color difference signals R—Y and B—Y output from the second matrix circuit 76 are input to the enlargement circuit 77 together with the luminance signal Yh or Yn (indicated as YhZYn) that has passed through the selector 67.
  • the luminance signal YhZYn enlarged by the enlargement circuit 77 is subjected to outline enhancement by the enhancement circuit 78 and then input to the third matrix circuit 79. Further, the color difference signals R—Y and B—Y that have been enlarged by the enlargement circuit 77 are input to the third matrix circuit 79 without passing through the enhancement circuit 78.
  • the luminance signal YhZYn, the color difference signal R—Y, and the color difference signal B—Y are converted into R, G, and B primary color signals by the third matrix circuit 79, and then further converted to analog by the DZA conversion circuit 80. Is output to the video signal output force monitor 5.
  • edge enhancement by the enhancement circuit 78 may also be changed depending on the type of the CCD 25, the color separation filter 60, etc. (whether the enhancement band is set to the middle to low band or the middle to high band). good.
  • a signal imaged by the CCD 25 with a spatial frequency component is separated from a signal imaged by the frame sequential in the first embodiment. This is the action applied to the case.
  • the filter circuit 36 performs processing such as separation on the spatial frequency components for the R, G, and B signals that are imaged in the frame sequential order and sequentially input.
  • the R, G, B signals input simultaneously are subjected to processing such as separation by a spatial frequency component by the filter circuit 36B.
  • the filter circuit 36, 36B separates the frequency and also performs the contrast conversion process in consideration of the reflection characteristics (absorption characteristics) of the biological mucous membrane. Includes those that are separated (extracted) simply by the spatial frequency of the biological structure. [0098] For example, the surface layer side fine! / ⁇ mucosal structure and the rough! ⁇ mucosal structure corresponding to both of the spatial frequency components corresponding to each of the spatial frequency components are cut off using HPF or LPF, etc. It includes one that separates into biological signals corresponding to at least one mucosal structure.
  • FIG. 11 shows a wavelet transform unit 36C as a separating means in Embodiment 3 of the present invention.
  • the endoscope apparatus of the present embodiment has a configuration in which, for example, in the endoscope apparatus 1B of FIG. 10, a wavelet transform unit 36C shown in FIG. 11 is used instead of the filter circuit 36B.
  • the wavelet transform unit 36C includes a wavelet transform circuit (hereinafter abbreviated as DWT) 81 that performs two-dimensional discrete wavelet transform on the G1 signal and B1 signal shown in FIG.
  • a coefficient transform circuit 82 that performs a predetermined weighting process on the wavelet transform coefficients output from the DWT 81, and an inverse wavelet transform circuit (abbreviated as IDWT) that performs a two-dimensional inverse discrete wavelet transform on the output of the coefficient transform circuit 82.
  • IDWT inverse wavelet transform circuit
  • the R signal passes through the wavelet transform unit 36 C and is input to the first matrix circuit 72.
  • two-dimensional discrete wavelet transform is performed using Haar basis.
  • This two-dimensional discrete wavelet transform uses a separate two-dimensional filter that also has two one-dimensional filter forces respectively applied in the horizontal direction and the vertical direction.
  • Fig. 12 shows a configuration example of transform coefficient groups at decomposition level 2 in the two-dimensional discrete wavelet transform by DWT81.
  • the transform coefficients (image components) divided into subbands by discrete wavelet transform are shown as HH1, LH1, HL1, HH2, LH2, HL2, and LL2.
  • HH1 indicates an image component obtained by applying a high-pass filter in both the horizontal and vertical directions
  • X of HHx indicates a decomposition level with respect to the original image
  • LH, HL, and LL are image components that apply a low-pass filter in the horizontal direction, a high-pass filter in the vertical direction, a high-pass filter in the horizontal direction, and a low-pass filter in the vertical direction, respectively.
  • the image component to which the filter is applied, the image component to which the low-pass filter is applied in the horizontal direction, and the low-pass filter is applied in the vertical direction are shown.
  • LL2, HL2, LH2, and LL2 are derived by decomposing LLl into subbands. In the case of decomposition level 1, the image before decomposition is decomposed into four conversion coefficients HH1, LH1, HL1, and LLl.
  • the DWT81 makes the decomposition level of the input (original signal) G signal smaller than that of the B signal. For example, assuming that the decomposition level is 1, it decomposes into HH1, LH1, HL1, and LLl. On the other hand, with respect to the input B signal, the decomposition level is raised compared to the case of the G signal, for example, decomposition level 4 is set, and HH1, LH1, HL1, HH2, LH2, HL2, HH3, LH3, HL3, Decomposes into HH4, LH4, H L4, and LL4.
  • the transform coefficient generated by the DWT 81 in this manner is input to the coefficient transform circuit 82.
  • the weighting in the coefficient conversion circuit 82 is multiplied by a weighting coefficient so that the conversion coefficients of HH1, LH1, and HL1 become smaller for the G signal.
  • LL1 has a weighting factor of 1
  • the B signal is multiplied by a weighting coefficient so that the conversion coefficients of HH2, LH2, HL2, HH3, LH3, HL3, HH4, LH4, and HL4 become smaller.
  • the weighting factor is uniformly zero. This suppresses frequency components in the mid-low range.
  • HH1, LH1, HL1, and LL4 are multiplied by a weighting factor of 1.
  • the coefficient weighted by the coefficient conversion circuit 82 and output is input to the ID WT 83, and two-dimensional inverse discrete wavelet conversion is performed.
  • the inverse discrete wavelet transform is performed on the G signal using HH1, LH1, HL1, and LL1 after weighting.
  • G signal synthesized image signal
  • the R. G. B signal processed in this way is input to the ⁇ circuit 75 shown in FIG. 10, and the same processing is performed as described in the second embodiment.
  • an image that reproduces the mucosal structure in a state with better image quality can be obtained by using the separation type two-dimensional filter.
  • a weighting factor of 1 or more using 1 as a weighting factor may be set to enhance contrast.
  • LL1 is multiplied by a weighting factor of 1 or more to enhance the contrast of the image component consisting of the middle and low frequency components, and for the H signal, HH1, LH1, and HL1 are less than 1. Multiply the above weighting factor to enhance the contrast of the delicate mucosal information
  • FIG. 13 shows a wavelet transform unit 36D in a modified example.
  • This wavelet transform unit 36D is based on the brightness average image generation circuit 84 for calculating the brightness average value of the B signal, the output signal of the brightness average image generation circuit 84 and the ID WT83 in the wavelet transform unit 36C of FIG.
  • An adder 85 for adding the output B signal is provided.
  • the R signal is output to the ⁇ circuit 75 through this wavelet transform unit 36D, and the G signal and the ⁇ signal are DWT81, the coefficient transform circuit 82 and the IDWT83.
  • the B signal is input to the brightness average image generation circuit 84, and the output signal of the brightness average image generation circuit 84 and the output signal of the IDWT 83 are added and output to the ⁇ circuit 75.
  • both the G signal and the ⁇ signal are decomposed into subbands having the same decomposition level, for example, decomposition level 1.
  • the coefficient conversion circuit 82 multiplies the weight coefficient so that the conversion coefficients of HH1, LH1, and HL1 become smaller (for example, multiply by zero weight coefficient uniformly), and Multiplies by 1.
  • the coefficient conversion circuit 82 multiplies the coefficient of LL1 in the B signal by a weight coefficient of zero, and multiplies the coefficients of HH1, LH1, and HL1 by one.
  • the coefficients weighted by the coefficient conversion circuit 82 are subjected to two-dimensional inverse discrete wavelet transform in IDWT83.
  • the B signal generates a composite image based on the weighted LL1 and HH1, LH1, and HL1.
  • the G signal also generates a composite image based on the weighted LL1 and HH1, LH1, and HL1.
  • the brightness average image generation circuit 84 calculates the brightness average of the B signal and outputs an image signal of the brightness average pixel value to all the pixels.
  • the image signal from which the brightness average image generation circuit 84 is also output is input to the adder 85, and the B2 signal added to the B signal output from the IDWT 83 is output from the wavelet transform unit 36D.
  • the decomposition level is made common to the G and B signals, thereby simplifying the configuration and providing a brightness average image generation means to further suppress low frequency components in the B signal. It is possible to easily generate an image signal.
  • the same effects as in Example 3 are obtained.
  • the living body observation apparatus may be configured by only the video processor 4 or 4B having a function as a signal processing means!
  • broadband illumination light generated by the light source device 3 or 3B is transmitted by the light guide 9, and the tip surface force of the light guide 9 is also transmitted through the illumination lens 23. It was set as the structure which irradiates illumination light to a biological mucous membrane.
  • a light emitting element such as a light emitting diode (abbreviated as LED) is disposed at the front end 22 of the electronic endoscope 2 or 2B to form an illumination means.
  • this light emitting element force may also be used, or a subject such as a biological mucous membrane may be illuminated via the illumination lens 23.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

 ランプ11からの白色光は、回転フィルタ14のR,G,Bフィルタを経て広帯域のR,G,Bの面順次照明光となり、電子内視鏡2を経て体腔内の生体粘膜に照射され、CCD25により順次撮像される。CCD25の出力信号は、フィルタ回路36内においてセレクタで順次切り替えられ、R信号に対してはスルー、G信号に対してはBPF、B信号に対してはHPFにより生体粘膜の構造の空間周波数成分に対応した信号成分に分離される。この分離により生体粘膜の構造を識別し易くする画像の画像信号が生成される。

Description

明 細 書
生体観察装置
技術分野
[0001] 本発明は、体腔内等の生体粘膜等を観察する内視鏡装置等の生体観察装置に関 する。
背景技術
[0002] 内視鏡及び光源装置等を有する内視鏡装置は、従来より、医療分野等において広 く用いられている。
医療分野における内視鏡装置においては、例えば、白色光を生体内粘膜等の被 写体に照射し、肉眼による観察と略同様の該被写体の像を撮像する通常観察の他 に、通常観察における照射光よりも狭い帯域を有する光である狭帯域光を該被写体 に照射して観察を行うことにより、通常観察に比べ、生体における粘膜表層の血管等 をコントラスト良く撮像することが可能である狭帯域光観察 (NBI : Narrow Band I maging)がある。この狭帯域光観察を行う装置の第 1の従来例として、例えば特開 2 002— 095635号公報力ある。
[0003] 前述した狭帯域光観察において用いられる狭帯域光は、照明光を狭帯域化する必 要がある。このため、通常観察に用いられる広帯域の照明光に対してフィルタを介揷 する等の必要がある。
これに対して、第 2の従来例としての特開 2003— 93336号公報には、通常の照明 光により得られる画像信号に対して信号処理し離散的な分光画像を生成し、生体組 織の所望の深部の組織情報を得る狭帯域光内視鏡装置が開示されている。
上記第 2の従来例では、分光画像を得るための推定処理の他に、例えば撮像され た信号が飽和しないように光量制御を行うことが必要になる等、構成が複雑になる欠 点がある。
[0004] 本発明は上述した点に鑑みてなされたもので、簡単な構成で表層側と深層側の粘 膜構造等、生体の構造を識別し易くする画像の画像信号を生成する生体観察装置 を提供することを目的とする。 発明の開示
課題を解決するための手段
[0005] 本発明は、生体に照射される広帯域の照明光のもとで撮像を行う撮像素子の出力 信号に対して信号処理を行い、生成した画像信号を表示装置側に出力可能とする 信号処理手段を具備する生体観察装置において、
前記信号処理手段は、前記出力信号に対して、前記生体の構造に対応した空間 周波数成分に分離する分離手段を具備することを特徴とする。
図面の簡単な説明
[0006] [図 1]本発明の実施例 1の内視鏡装置の全体構成を示すブロック図。
[図 2]回転フィルタの構成を示す図。
[図 3]回転フィルタに設けられた R、 G、 Bフィルタの分光特性を示す特性図。
[図 4]フィルタ回路周辺部の構成を示すブロック図。
[図 5]フィルタ回路を構成する BPFの周波数特性を示す特性図。
[図 6]フィルタ回路を構成する HPFの周波数特性を示す特性図。
[図 7]第 2観察モード時に設定される γ補正回路の入出力特性を示す特性図。
[図 8]図 5の BPFを用いた場合の作用説明図。
[図 9]図 6の HPFを用いた場合の作用説明図。
[図 10]本発明の実施例 2の内視鏡装置の全体構成を示すブロック図。
[図 11]本発明の実施例 3におけるウェーブレット変換部の構成を示すブロック図。
[図 12]2次元の離散ウェーブレット変換による分解レベル 2の変換係数群の構成例を 示す図。
[図 13]変形例におけるウェーブレット変換部の構成を示すブロック図。
発明を実施するための最良の形態
[0007] 以下、図面を参照して本発明の実施例を説明する。
(実施例 1)
図 1ないし図 9は、本発明の実施例 1に係るものである。図 1は、本発明の実施例 1 の内視鏡装置の全体構成を示す図である。図 2は、回転フィルタの構成を示す図で ある。図 3は、回転フィルタに設けられた R、 G、 Bフィルタの分光特性を示す図である 。図 4は、フィルタ回路周辺部の構成を示す図である。
[0008] 図 5は、フィルタ回路を構成する BPFの周波数特性を示す図である。図 6は、フィル タ回路を構成する HPFの周波数特性を示す図である。図 7は、第 2観察モード時に 設定される γ補正回路の入出力特性を示す図である。図 8は、図 5の BPFを用いた 場合の作用説明図を示す図である。図 9は、図 6の HPFを用いた場合の作用説明図 を示す図である。
[0009] 図 1に示すように本発明の生体観察装置の実施例 1としての内視鏡装置 1は、体腔 内に挿入され、該体腔内において、生体組織等の被写体の像を撮像して撮像信号と して出力する電子内視鏡 2と、この電子内視鏡 2に対し、被写体側を照明するための 広帯域の照明光を出射する光源装置 3と、電子内視鏡 2に内蔵された撮像手段を駆 動すると共に、電子内視鏡 2から出力された撮像信号に対して信号処理を行い、画 像信号 (生体信号とも 、う)としての映像信号を生成する信号処理手段としてのビデ ォプロセッサ 4と、ビデオプロセッサ 4から出力される映像信号に基づき、被写体の画 像を表示する表示装置としてのモニタ 5とを有する。
[0010] 電子内視鏡 2は、体腔内に挿入される細長の挿入部 7を有し、この挿入部 7の後端 には操作部 8が設けてある。また、挿入部 7内には照明光を伝送するライトガイド 9が 挿通され、このライトガイド 9の後端 (基端)は、光源装置 3に着脱自在に接続される。
[0011] 光源装置 3は、ランプ点灯回路 10からの点灯電力の供給により、可視領域をカバ 一する広帯域の照明光を発生する例えばキセノンランプ等のランプ 11と、照明光に おける熱線を遮断する熱線カットフィルタ 12と、熱線カットフィルタ 12を経た照明光の 光量を制御する絞り装置 13と、照明光を面順次光に変換する回転フィルタ 14と、電 子内視鏡 2内に配設されたライトガイド 9の入射面に回転フィルタ 14を介した面順次 光を集光して供給する集光レンズ 15と、回転フィルタ 14の回転を制御する制御回路 16とを備えている。
[0012] 回転フィルタ 14は、図 2に示すように、円板の周方向に赤 (R)、緑 (G)、青(Β)の波 長の光を広帯域で透過する Rフィルタ 14R、 Gフィルタ 14G、 Bフィルタ 14Bの 3つが 扇状に設けてある。 [0013] 図 3は Rフィルタ 14R、 Gフィルタ 14G、 Bフィルタ 14Bの分光透過特性を示す。 Rフ ィルタ 14R、 Gフィルタ 14G、 Bフィルタ 14Bは、それぞれ R、 G、 Bの波長域の光を広 帯域で透過する特性を示す。
この回転フィルタ 14は、制御回路 16により駆動制御されるモータ 17により所定の回 転速度で回転され、この回転により、照明光路中に Rフィルタ 14R、 Gフィルタ 14G、
Bフィルタ 14Bが順次配置され、ライトガイド 9の入射面に R, G, Bの光が集光レンズ
15で集光されて順次入射される。
[0014] そして、このライトガイド 9により伝送され、挿入部 7の先端部 22の照明窓に取り付け られた照明レンズ 23を経て、体腔内組織側に照明光として照射される。
[0015] この照明窓に隣接して設けられた観察窓には対物レンズ 24が取り付けてあり、その 結像位置には、撮像素子として電荷結合素子 (CCDと略記) 25が配置されており、こ の CCD25は、結像された光学像を光電変換する。
[0016] この CCD25は信号線 26を介してビデオプロセッサ 4内の CCDドライバ 29と、プリ アンプ 30に接続される。なお、信号線 26は、実際には、図示しないコネクタを介して ビデオプロセッサ 4と着脱自在に接続される。
CCDドライバ 29からの CCDドライブ信号の印加により CCD25により光電変換され た撮像信号は、プリアンプ 30により増幅された後、相関二重サンプリング (CDS)及 びノイズ除去等を行うプロセス回路 31を経て AZD変換回路 32に入力されると共に
、調光回路 33に入力される。
[0017] この AZD変換回路 32によりアナログ信号力もデジタル信号の画像データに変換さ れた後、ホワイトバランス回路 34に入力され、ホワイトバランスの処理が行われた後、 オートゲインコントロール回路 (AGC回路と略記) 35に入力され、所定レベルまで増 幅される。
[0018] なお、 AGC回路 35は、光源装置 3の絞り装置 13による照明光量での調光動作が 優先して行われ、この絞り装置 13の開口が開放状態に達した後、その開放状態の情 報に基づいて、 AGC回路 35により不足する信号レベルが増大するように増幅する動 作を行う。
また、調光回路 33は、プロセス回路 31の出力信号から、光源装置 3の絞り装置 13 の開口量を調整して適正な照明光量に制御する調光信号を生成する。
[0019] 上記 AGC回路 35の出力データは、本実施例における分離手段を形成するフィル タ回路 36に入力されると共に、切替スィッチ 40を介して γ補正回路 41に入力される
[0020] また、電子内視鏡 2には、術者等の操作により、例えば、通常観察モードとなる第 1 観察モードと、生体粘膜の構造を強調して観察モードする生体粘膜強調観察モード としての第 2観察モードとの 2つの観察モードを選択して観察できるように、モード切 替スィッチ 20が設けてある。
[0021] そして、モード切替スィッチ 20によりなされた観察モード切替の指示は、ビデオプロ セッサ 4のモード切替回路 21に入力され、モード切替回路 21はモード切替指示に対 応して切替スィッチ 40の切替を行うと共に、タイミングジェネレータ 49にモード切替信 号を送る。
[0022] なお、モード切替スィッチ 20は、電子内視鏡 2に設けられているものに限らず、例え ば、ビデオプロセッサ 4の図示しないフロントパネルに設けられていても良いし、ビデ ォプロセッサ 4に接続可能な図示しないキーボードにおける所定のキーとして構成さ れていても良い。
[0023] 切替スィッチ 40は、モード切替スィッチ 20の操作により、モード切替回路 21を介し て通常観察に対応する第 1観察モード時には、接点 aが選択され、第 2観察モード時 には接点 bが選択される。
[0024] 従って、第 2観察モードが選択された場合には、 AGC回路 35の出力信号は、観察 対象の生体が持つ主要な構造、具体的には細かい粘膜構造及び粗い粘膜構造の 空間周波数成分を分離抽出する分離手段を形成するフィルタ回路 36を経て、さら〖こ 同時ィ匕回路 37、色変換回路 38及び面順次回路 39での処理が行われた後、切替ス イッチ 40を経て γ補正回路 41に入力される。
[0025] フィルタ回路 36は、図 4に示すようにタイミングジェネレータ 49からのタイミング信号 により切り替えられるセレクタ 51と、生体の主要な粘膜構造に対応する空間周波数成 分を分離抽出できるようにする、周波数特性が設定されたバンドパスフィルタ (BPFと 略記) 52及びハイパスフィルタ (HPFと略記) 53と力も構成される。 [0026] 図 4に示すようにフィルタ回路 36に、広帯域の R、 G、 B信号が面順次で入力される タイミングでセレクタ 51がタイミングジェネレータ 49により切り替えられる。
そして、 R信号はスルーして同時化回路 37の Rメモリ 37aに格納され、 G信号は BP F52を経て Gメモリ 37bに格納され、 B信号は HPF53を経て Bメモリ 37cに格納され る。
[0027] つまり、 R信号はそのまま Rメモリ 37aに格納され、 G信号は BPF52によりフィルタ処 理されて Gメモリ 37bに格納され、 B信号は HPF53でフィルタ処理されて Bメモリ 37c に格納される。
この場合、 BPF52は、図 5に示すように中ないしは中低域部 Faの周波数成分に対 しては、その振幅が 1より大きくなるように増強し、高域部 Fbを抑圧するフィルタ特性( 周波数特性)に設定されている。また、 HPF53は、図 6に示すように高域部 Fcの周 波数成分に対しては、振幅が 1より大きくなるように増強するフィルタ特性に設定され ている。なお、 BPF52、 HPF53のいずれも DC成分は、その値が変化しないようにそ の振幅が 1となるように設定されて 、る。
[0028] 本実施例における分離手段を構成するフィルタ回路 36は、生体における細かい粘 膜構造と粗い粘膜構造とを分離すると共に、さらにそれらの構造を識別し易くするた めに γ補正回路 41にお ヽて後述するコントラスト変換処理を施すようにして!/、る。
[0029] 上記同時ィ匕回路 37の R, G, Βメモ U37a、 37b、 37cにそれぞれ格糸内された R, G, B信号データは、同時に読み出されて同時化された R, G, B信号となり、色調整手段 としての色変換回路 38に入力されて色変換される。なお、図 4に示すように G, Bの 信号は、それぞれフィルタ BPF52, HPF53によるフィルタ処理がされているので、 B PF (G)、 HPF (B)で示して!/、る。
[0030] 色変換回路 38は、同時化された R、 BPF (G)、 HPF (B)の画像情報を 3 X 3のマト リクスにより色変換する。これにより、粘膜の表層側の細かい構造部分と深層側の粗 Vヽ構造部分とをそれぞれ異なる色調で表示するように色変換処理する。このように色 変換処理を行うことにより、分離された粘膜構造を表示される色調が異なることにより 、より識別し易い画像にしている。
[0031] この場合における R、BPF (G)、 HPF (B)から 、 G' 、 B' に色変換する変換式 は、 3行 3列のマトリクス Kを用いて、以下の式(1)としている。
[数 1]
Figure imgf000009_0002
Figure imgf000009_0001
[0032] ここで、マトリクス Kは、例えば 3個の実数成分 ml〜m3 (その他の成分は 0)力もな り、この式(1)ような変換式により、 R、 BPF (G)、HPF (B)のカラー信号における BP F (G)及び HPF (B)の色信号の重み付け (比率)を大きくしている。ここでは、長波長 となる Rの色信号を抑圧して 、る。
[0033] この色変換回路 38の出力信号 (R' 、G' 、 B' に変換されたものとなるが、以下で は紛らわしくなる場合を除き、簡単化のため R、 G、 Bを用いて説明する)は、面順次 回路 39に入力される。
[0034] 面順次回路 39は、フレームメモリにより構成され、同時に格納された R、 G、 Bの画 像データを色成分画像として順次読み出すことにより面順次の画像データに変換さ れる。この面順次の R, G, Bの画像データは、切替スィッチ 40を経て γ補正回路 41 に入力され、 γ補正される。
[0035] この γ補正回路 41は、例えばその内部に γ補正の入出力特性を格納した γテー ブルを有し、タイミングジェネレータ 49により、 γ補正の入出力特性が切り替えられる
[0036] 第 1観察モードでは、この γ補正回路 41は、面順次に入力される R、 G、 B信号に 対して共通の γ補正を行う入出力特性に設定されるが、第 2観察モードにおいては、 面順次に入力される R、 G、 B信号毎に γ補正の入出力特性が切り替えられる。
[0037] 具体的には、 y補正回路 41は、 R信号に対しては、図 7の実線で示す gammalの 入出力特性に設定するのに対して、この R信号よりも粘膜表層の微細な構造情報を 再現する G及び B信号に対しては、図 7の点線で示す gamma2の入出力特性に設 定して、コントラスト変換処理を行うようにしている。
[0038] gamma2の入出力特性は、小さい入力域においては、 gammalの入出力特性の 場合よりも小さな出力となり、大きな入力域においては、 gammalの入出力特性の場 合よりも大きな出力となるように設定されている。
[0039] このような入出力特性で G及び B信号に対して γ補正を行うことにより、画像信号に 再現される微細な粘膜構造情報のコントラストを高めることができるようにして 、る。 この γ補正回路 41により γ補正された後、拡大回路 42に入力されて拡大補間処 理された後、強調回路 43に入力される。
この強調回路 43により、構造強調或いは輪郭強調が行われた後、セレクタ 44を経 て同時ィ匕回路 45に入力される。この同時ィ匕回路 45は、 3つのメモリ 45a、 45b、 45c により形成されている。
[0040] 同時ィ匕回路 45により同時ィ匕された R, G, Bの画像データは、画像処理回路 46に 入力され、動画の色ずれ補正等の画像処理が施された後、 DZA変換回路 47a、 47 b、 47cに入力される。そして、 D/A変換回路 47a、 47b、 47cによりアナログの映像 信号若しくは画像信号 (広義の生体信号)に変換された後、表示装置としてのモニタ 5に入力される。モニタ 5は、入力される映像信号に対応した内視鏡画像を表示する 。 また、ビデオプロセッサ 4内には、タイミングジェネレータ 49が設けてあり、光源装 置 3の制御回路 16からの回転フィルタ 14の回転に同期した同期信号が入力され、こ の同期信号と同期した各種タイミング信号を上記各回路に出力する。
また、調光回路 33は、光源装置 3の絞り装置 13を制御し、観察に適した適正な明 るさの画像となるように照明光量を制御する。
[0041] 次にこのような構成の本実施例の内視鏡装置 1による作用を説明する。
[0042] まず、術者等は、図 1に示すように電子内視鏡 2を光源装置 3やビデオプロセッサ 4 に接続して、電源を投入する。また、術者等は、電子内視鏡 2を体腔内に挿入して体 腔内の観察対象部位の生体組織を観察する。内視鏡装置 1の各部は、初期状態で は、例えば通常観察としての第 1観察モードの状態に設定されている。
[0043] 照明光の光路上で回転フィルタ 14が一定速度で回転し、 R、 G、 Bの照明光が集光 レンズ 15により集光されてライトガイド 9に入射される。図 3に示したように広帯域の R 、 G、 Bの各照明光は、ライトガイド 9の先端面からさらに照明レンズ 23を経て、生体 組織に順次照射される。
[0044] そして、広帯域の R、 G、 Bの各照明光のもとで CCD25により撮像され、 CCD25に より光電変換された CCD出力信号は、ビデオプロセッサ 4内のプリアンプ 30で増幅さ れた後、プロセス回路 31内の CDS回路により信号成分が抽出される。プロセス回路 31の出力信号は、 AZD変換回路 32によりデジタル信号に変換され、(上記のように 第 1観察モードの時には)ホワイトバランス回路 34、 AGC回路 35を経て切替スィッチ 40から γ補正回路 41に入力される。
[0045] y補正回路 41により γ補正された後、拡大回路 42に入力されて拡大補間処理さ れた後、強調回路 43に入力され、この強調回路 43により、構造強調或いは輪郭強 調が行われた後、セレクタ 44を経て同時ィ匕回路 45に入力される。この同時化回路 4 5により同時ィ匕された画像データは、画像処理回路 46に入力され、動画の色ずれ補 正等の画像処理が施された後、 DZA変換回路 47a、 47b、 47cによりアナログの映 像信号に変換された後、モニタ 5に出力される。そして、モニタ 5は、入力される映像 信号に対応した内視鏡画像を表示する。
[0046] この第 1観察モードにおいては、可視領域の照明光による通常のカラー画像がモ- タ 5に表示される。
[0047] 一方、電子内視鏡 2のモード切替スィッチ 20が操作されて第 2観察モードへの切替 指示が行われると、その信号がビデオプロセッサ 4のモード切替回路 21に入力される
[0048] モード切替回路 21は、タイミングジェネレータ 49に対して第 2観察モードへの切替 指示が行われたモード切替信号を送ると共に、切替スィッチ 40の接点 bが ONするよ うに切り替える。
[0049] タイミングジェネレータ 49は、図 4に示すようにフィルタ回路 36に広帯域の R, G, B の各信号が入力されるタイミングでセレクタ 51を順次切り替える。この場合、 R信号は 、フィルタ処理が行われないでフィルタ回路 36をスルーして同時化回路 37の Rメモリ 37aに格納される。
[0050] これに対して、 G信号は、図 5に示すように、高域部 Fbを抑圧し、中低域部 Faを増 強する周波数特性に設定された BPF52により、中低域部 Faの周波数成分が抽出( 分離)される。
[0051] また、 B信号は、図 6に示すように高域部 Fcを増強する特性に設定された HPF53 により、高域部 Fcの周波数成分が抽出 (分離)される。
[0052] このように生体粘膜の表層側及びこの表層よりも深層側の構造、具体的には血管 走行の構造に対応する空間周波数成分をそれぞれ分離抽出する周波数分離特性と 共に、それらを識別し易くする特性に設定されたフィルタ回路 36の BPF52及び HPF 53により、以下に説明するようにそれらの構造を視認し易くする信号を生成する。
[0053] 図 8は、図 5の BPF52を用いることにより、狭帯域の Gの照明光のもとで撮像した G 信号と類似の G信号成分を分離抽出することを示すための説明図である。
図 8の台形は、広帯域の Gの照明光を示すものである。この Gの照明光は、中央付 近の帯域制限され、粗い粘膜構造を得るのに適した波長域 GOと共に、これより短波 長側の短波長域 Gaと、波長域 GOより長波長側の長波長域 Gbとを含む。短波長域 G aは、ヘモグロビンの吸光度が低いため、 CCD25により撮像された G信号中におい て、波長域 GOよりは血管像などのコントラストが低くなるが、浅層(表層)の細かい粘 膜構造の画像に寄与する。
[0054] この細かい粘膜構造は、高周波成分として現れるため、 BPF52の特性として、高域 側を抑圧した特性にして、その再現を抑制して 、る。
[0055] 長波長域 Gbは、波長域 GOよりも深層の情報を再現する力 その多くは深層の太い 血管の構造であり、隣接する波長域 GOの再現情報と大きな差がないと考えられる。 寧ろ、ヘモグロビンの吸光度がより低くなるため、コントラストが低ぐ波長域 GOによる ノ、イコントラストの画像情報と重ね合わされ、平均化されるため、全体としてはコントラ ストが低下する。
[0056] このため、図 5に示すように、 BPF52の周波数特性を低〜中域の周波数成分に対 してコントラスト増強する周波数特性に設定すると、低〜中域の周波数成分の信号を 増強して抽出できるため、深層側の粗い粘膜構造の画像に対応する G信号成分が 得られる。
[0057] また、図 9は、図 6の HPF53を用いることにより、狭帯域の Bの照明光のもとで撮像 した B信号と類似の B信号成分を抽出することを示すための説明図である。
図 9に示す台形は、広帯域の Bの照明光を示すものである。この Bの照明光は、狭 帯域に帯域制限され、細かい粘膜構造を得るのに適した波長域 BOと、これより長波 長側の長波長域 Baを含む。長波長域 Baは、波長域 BOよりも波長が長いため、波長 域 BOよりも若干深層の粘膜情報も再現するのに寄与する。
[0058] そして、この長波長域 Baで得られる Bの画像データは、中域の周波数成分となり、 抑制対象となる。そのため、 HPF53の周波数特性は、図 6に示すようにその帯域を 抑圧した特性に設定されて!ヽる。
[0059] また、この長波長域 Baは、波長域 BOと同じ粘膜情報の再現に寄与するが、へモグ ロビンの吸光度が低いため、コントラストが低くなる。この情報は、コントラストが高い波 長域 BOと平均化された画像になるため、波長域 BOのみを照射した場合よりも画像の コントラストを低くする。
[0060] このため、本実施例では撮像された信号に対して、 HPF53により高域を増強した 周波数特性にして、高域でのコントラストを増強する。このようにして、表層側の細か い粘膜構造が視認し易くなるような B画像を生成することができる。
[0061] このようにして、狭帯域の G信号及び B信号に類似の粘膜構造を反映する G信号及 び B信号は、 R信号と共に同時化された後、色変換回路 38により色変換されて、粘膜 構造をより識別し易い色調に変換される。さらに面順次の信号に変換された後、 γ補 正回路 41にお 、て、 G信号及び Β信号に対して小さ 、入力域と大き!/、入力域におけ る夫々の出力の差を増大するコントラスト変換処理を施すようにしているので、表層側 における粘膜構造を視認し易い状態の画像でモニタ 5に表示される。
[0062] このようにしてモニタ 5に表示される画像は、生体における細かい粘膜構造部分と ¾ ヽ粘膜構造部分とはそれらの空間周波数に対応した周波数特性で分離され、か つ異なる色調でより識別し易い画像として表示される。 [0063] このため、本実施例によれば、簡単な構成により、生体における細かい粘膜構造部 分と粗い粘膜構造部分とを識別し易い画像として観察することができる。従って、診 断を行 ヽ易 、画像を提供できる効果もある。
[0064] (実施例 2)
次に図 10を参照して、本発明の実施例 2を説明する。図 10は本発明の実施例 2の 内視鏡装置 1Bを示す。実施例 1の内視鏡装置 1は、面順次式内視鏡装置であった が、本実施例では同時式の内視鏡装置 1 Bとなつて 、る。
この内視鏡装置 1Bは、電子内視鏡 2Bと光源装置 3Bと、ビデオプロセッサ 4Bとモ ユタ 5とから構成される。
[0065] 電子内視鏡 2Bは、図 1に示す電子内視鏡 2において、 CCD25の撮像面に光学的 に色分離する色分離フィルタ 60として例えば補色系フィルタが各画素単位で取り付 けてある。図示しないがこの補色系フィルタは、各画素の前に、マゼンタ(Mg)、ダリ ーン(G)、シアン(Cy)、イエロ(Ye)の 4色のカラーチップが、水平方向には、 Mgと G とが交互に配置され、縦方向には、 Mg、 Cy、 Mg、 Yeと G、 Ye、 G、 Cyとの配列順で 、それぞれ配置されている。
[0066] そして、この補色系フィルタを用いた CCD25の場合、縦方向に隣接する 2列の画 素を加算して順次読み出すが、このとき奇数フィールドと偶数フィールドで画素の列 をずらして読み出すようにする。そして、後段側での色分離回路により、公知のように 輝度信号と色差信号とを生成できることになる。
[0067] また、電子内視鏡 2Bにおける例えば操作部 8内には、 ID発生回路 61が設けてあ る。この ID発生回路 61の HD情報を利用することにより、例えば電子内視鏡 2Bの CC D25の色分離フィルタ 60の種類、バラツキ等に応じて、信号処理する際の特性を変 更することにより、より適切な信号処理を行えるようにして 、る。
[0068] また、光源装置 3Bは、図 1の光源装置 3において回転フィルタ 14、モータ 17及び 制御回路 16を除去した構成である。
[0069] つまり、この光源装置 3Bは、白色の照明光を集光レンズ 15により集光してライトガ イド 9の基端面に入射する。そして、この照明光はライトガイド 9の先端面力もさらに照 明レンズ 23を経て体腔内の観察対象部位の生体粘膜に照射される。そして、照明さ れた生体粘膜の光学像が色分離フィルタ 60により補色系に分離され、 CCD25によ り撮像される c
[0070] CCD25の出力信号は、ビデオプロセッサ 4B内の CDS回路 62に入力される。そし て、 CCD25の出力信号は、この CDS回路 62により、出力信号から信号成分が抽出 されてベースバンドの信号に変換された後、 AZD変換回路 63に入力され、デジタ ル信号に変換されると共に、明るさ検波回路 64に入力され、明るさ (信号の平均輝度 )が検出される。
[0071] 明るさ検波回路 64により検出された明るさ信号は、調光回路 33に入力され、基準 の明るさ (調光の目標値)との差分により調光するための調光信号が生成される。この 調光回路 33からの調光信号は、光源装置 3Bの絞り装置 13を制御し、観察に適した 照明光量となるように調光する。
[0072] AZD変換回路 64から出力されるデジタル信号は、 YZC分離回路 65に入力され 、輝度信号 Yと (広義の色信号 Cとしての)線順次の色差信号 Cr ( = 2R— G) , Cb ( = 2B— G)が生成される。輝度信号 Yは、 γ回路 66を介してセレクタ 67に入力される( この輝度信号を Yhと記す)と共に、信号の通過帯域を制限する LPF71に入力される
[0073] この LPF71は、輝度信号 Yに対応して広い通過帯域に設定されている。そして、こ の LPF71の通過帯域特性により設定された帯域の輝度信号 Y1が、第 1マトリクス回 路 72に入力される。
[0074] また、色差信号 Cr, Cbは、信号の通過帯域を制限する第 2の LPF73を介して (線 順次)同時ィ匕回路 74に入力される。
[0075] この場合、第 2の LPF73は、制御回路 68により、観察モードに応じてその通過帯域 特性が変更される。具体的には、通常観察に対応する第 1の観察モード時には、第 2 の LPF73は、第 1の LPF71より低い通過帯域 (低帯域)に設定される。
一方、粘膜強調観察を行う第 2観察モード時には、第 2の LPF73は、通常観察用 の第 1観察モード時における低帯域よりも広い帯域に変更される。例えば第 2の LPF 73は、第 1の LPF41とほぼ同様に広帯域に設定 (変更)される。このように第 2の LP F73は、観察モードの切替に連動して、色差信号 Cr, Cbに対する通過帯域を変更 する。なお、この観察モードの切替に連動した第 2の LPF73の特性の変更は、制御 回路 68の制御で行われる。
[0076] 同時ィ匕回路 74は、同時ィ匕された色差信号 Cr, Cbを生成し、この色差信号 Cr, Cb は、第 1マトリクス回路 72に入力される。
[0077] 第 1マトリクス回路 72は、輝度信号 Y及び色差信号 Cr, Cbから Rl、 Gl、 B1の色信 号に変換する。
[0078] この第 1マトリクス回路 72は、制御回路 68によって制御され、 CCD25の色分離フィ ルタ 60の特性に応じて (変換特性を決定する)マトリクス係数の値を変更して、混色 の無い或いは混色を殆ど解消した Rl, Gl, B1の色信号に変換する。
例えば、ビデオプロセッサ 4Bに実際に接続される電子内視鏡 2Bにより、その電子 内視鏡 2Bに搭載されている CCD25の色分離フィルタ 60の特性が異なる場合があり 、制御回路 68は、 HD情報により実際に使用されている CCD25の色分離フィルタ 60 の特性に応じて第 1マトリクス回路 72の係数を変更する。
[0079] このようにすることにより、実際に使用される撮像手段の種類が異なる場合にも適切 に対応でき、偽色の発生を防止したり、混色の無い Rl, Gl, B1の 3原色信号に変 換することができる。
この第 1マトリクス回路 72により生成された Rl、 Gl、 B1の色信号は、実施例 1にお けるフィルタ回路 36に対応するフィルタ回路 36Bを経て、ホワイトバランス回路 86に 出力される。
[0080] 実施例 1では、フィルタ回路 36には面順次で R、 G、 Bの信号が入力される構成で あつたため図 4に示すようにセレクタ 51を用いていた力 本実施例では Rl、 Gl、 Bl の色信号が同時に入力される構成であるため、図 4のセレクタ 51を不要にしている。
[0081] そして、 R1信号は、フィルタ回路 36Bをスルーして、ホワイトバランス回路 86に入力 される。また、 G1信号及び B1信号は、それぞれ BPF52及び HPF53を経て、 Gl 信号及び Bl' 信号になり、それぞれ、ホワイトバランス回路 86に入力される。
[0082] 本実施例においては、このフィルタ回路 36Bにより実質的に実施例 1と同様の信号 処理が施される。また、このフィルタ回路 36Bを通した R1信号、 G 信号及び B 信号が入力される、ホワイトバランス回路 86及びその出力信号が入力される γ回路 7 5は、制御回路 68により制御される。
[0083] ホワイトバランス回路 86は、入力され R1信号、 G 信号、 B 信号に対してホヮ イトバランス調整を行い、ホワイトバランス調整された R1信号、 G1' 信号、 B1' 信号 を γ回路 75に出力する。
[0084] 本実施例においても、撮像された信号に対して γ回路 75により、実施例 1の γ補 正回路 41と基本的に同様のコントラスト変換処理を施す。つまり、第 1観察モードで は、共通の入出力特性で γ補正される力 第 2観察モード時には Rl、 Gl, B1毎に 異なる入出力特性で γ補正される。
[0085] この場合、実施例 1では先に色変換された後に γ補正回路 41で γ補正していたの に対して、本実施例では γ補正された後、後述する第 2マトリクス回路 76において色 変換を行う構成に変更されて 、る。
[0086] このため、本実施例では、第 2観察モード時には、 Rl、 Gl信号に対しては、図 7の gammmalの入出力特性で、そして B1信号に対しては図 7の gamma2の入出力特 性で (この場合には同時に) γ補正するようにして!/、る。
[0087] このように本実施例における γ回路 75によって、第 2観察モード時には、第 1観察 モード時よりも γ補正の特性を強調した γ特性に変更されて、コントラスト変換処理が 施され、これにより、コントラストが強調され、より識別し易い表示になる。
γ回路 75により γ補正された R2、 G2、 B2の色信号は第 2マトリクス回路 76により、 輝度信号 Yと、色差信号 R— Y、 Β— Υに変換される。
[0088] この場合、制御回路 68は、第 1観察モード時には、 R2, G2, Β2信号から輝度信号
Υと、色差信号 R— Υ、 Β—Υに単に変換するように第 2マトリクス回路 76のマトリクス 係数を設定する。
[0089] また、制御回路 68は、第 2観察モード時には、第 2マトリクス回路 76のマトリクス係 数を実施例 1の色変換回路 38による色変換、つまり色調整手段の機能も兼ねるマトリ タス係数に変更する。
[0090] 第 2マトリクス回路 76により出力される輝度信号 Υηは、セレクタ 67に入力される。こ のセレクタ 67は、制御回路 68により切替が制御される。つまり、第 1観察モード時に は輝度信号 Yhが選択され、第 2観察モード時には、輝度信号 Ynが選択される。 [0091] 第 2マトリクス回路 76から出力される色差信号 R—Y、 B— Yは、セレクタ 67を通った 輝度信号 Yh又は Yn (YhZYnと表記)と共に、拡大回路 77に入力される。
[0092] この拡大回路 77により拡大処理された輝度信号 YhZYnは、強調回路 78により輪 郭強調された後、第 3マトリクス回路 79に入力される。また、拡大回路 77により拡大 処理された色差信号 R—Y, B— Yは、強調回路 78を通さないで第 3マトリクス回路 7 9に入力される。
[0093] そして、輝度信号 YhZYn、色差信号 R— Y及び色差信号 B— Yは、第 3マトリクス 回路 79により R, G, Bの 3原色信号に変換された後、さらに DZA変換回路 80により アナログの 3原色信号に変換されて映像信号出力端力 モニタ 5に出力される。
[0094] なお、強調回路 78による輪郭強調も CCD25及び色分離フィルタ 60等の種類に応 じてその強調特性 (強調帯域が中低帯域にするか中高帯域にするか)等を変更して も良い。
[0095] このような構成による本実施例は、基本的に実施例 1の面順次により撮像された信 号に対して空間周波数成分で CCD25で撮像された信号を分離することを、同時式 の場合に適用した作用となる。
[0096] つまり、実施例 1では、面順次で撮像されて順次入力される R, G, Bの信号に対し てフィルタ回路 36により、空間周波数成分で分離等する処理を行っていたが、本実 施例では同時に入力される R, G, Bの信号に対してフィルタ回路 36Bにより、空間周 波数成分で分離等する処理を行って ヽる。
[0097] 従って、本実施例によれば、同時式の場合においても順次式の場合の実施例 1と ほぼ同様の効果を有する。
つまり、通常観察時と同じ照明状態において、狭帯域光の下で撮像した場合と類 似の生体粘膜の表層側の細か!/、粘膜構造ど深層側の粗!、粘膜構造とを識別し易 ヽ 画像として観察することができる。
なお、上述した実施例 1及び 2においては、フィルタ回路 36、 36Bにより、周波数で 分離すると共に、生体粘膜の反射特性 (吸光特性)を考慮してコントラスト変換処理も 行うようにしている力 本発明は、単に生体の構造における分離しょうとする空間周波 数で分離 (抽出)するものも含む。 [0098] 例えば表層側の細か!/ヽ粘膜構造と粗!ヽ粘膜構造にそれぞれ対応する両空間周波 数成分の間の空間周波数をカットオフ周波数とした HPF或いは LPF等を用いて両 粘膜構造の少なくとも一方の粘膜構造に対応する生体信号に分離するものを含む。
[0099] (実施例 3)
次に図 11から図 13を参照して、本発明の実施例 3を説明する。図 11は本発明の 実施例 3における分離手段としてのウェーブレット変換部 36Cを示す。本実施例の内 視鏡装置は、例えば図 10の内視鏡装置 1Bにおいて、フィルタ回路 36Bの代わりに 図 11に示すウェーブレット変換部 36Cを用いた構成である。
[0100] 図 11に示すようにこのウェーブレット変換部 36Cは、図 10に示す G1信号と B1信号 に対して 2次元の離散ウェーブレット変換を行うウェーブレット変換回路(以下、 DWT と略記) 81と、この DWT81から出力されるウェーブレット変換係数に所定の重み付 け処理を行う係数変換回路 82と、この係数変換回路 82の出力に対して 2次元の逆 離散ウェーブレット変換を行う逆ウェーブレット変換回路(IDWTと略記) 83と力らなる
[0101] なお、 R信号はウェーブレット変換部 36Cをスルーして第 1マトリクス回路 72に入力 される。
DWT81では、 Haar基底を用いて 2次元の離散ウェーブレット変換を行う。この 2次 元の離散ウェーブレット変換は、水平方向と垂直方向とにそれぞれ適用する 2つの 1 次元フィルタ力もなる分離型 2次元フィルタを用いるものであり、公知であるのでその 説明を省略する。
[0102] 図 12は DWT81による 2次元の離散ウェーブレット変換において、分解レベル 2の 変換係数群の構成例である。ここで、離散ウェーブレット変換によりサブバンドに分割 された変換係数(画像成分)を HH1、 LH1、 HL1、 HH2、 LH2、 HL2、 LL2で示し ている。
[0103] ここで、例えば HH1は、水平、垂直方向共に、高域通過フィルタを適用して得られ る画像成分を示し、 HHxの Xは原画像に対する分解レベルを示す。また、 LH、 HL、 LLは、それぞれ水平方向に低域通過型フィルタ、垂直方向に高域通過型フィルタを 適用した画像成分、水平方向に高域通過型フィルタ、垂直方向に低域通過型フィル タを適用した画像成分、水平方向に低域通過型フィルタ、垂直方向に低域通過型フ ィルタを適用した画像成分を示す。また、 LL2、 HL2、 LH2、 LL2は、 LLlをサブバ ンドに分解することで導出される。なお、分解レベル 1の場合には、分解前の画像は 4つの変換係数 HH1、 LH1、 HL1、 LLlに分解されることになる。
[0104] DWT81は、入力される (原信号の) G信号に対する分解レベルを、 B信号よりも少 なくし、例えば分解レベルを 1として、 HH1、 LH1、 HL1、 LLlに分解する。一方、入 力される B信号に対しては、 G信号の場合よりも分解レベルを上げて、例えば分解レ ベノレ 4とし、 HH1,LH1,HL1、 HH2,LH2,HL2、 HH3,LH3,HL3、 HH4,LH4,H L4,LL4に分解する。
[0105] このようにして DWT81により生成された変換係数は、係数変換回路 82に入力され る。
[0106] この係数変換回路 82における重み付けは、 G信号に対しては HH1,LH1,HL1の 変換係数がより小さくなるように重み係数が乗算される。
[0107] 例えば、重み係数として一律にゼロが設定される。これにより、水平方向、垂直方向
、対角方向の高周波成分を抑制することができる。また、 LL1には、重み係数 1として
1が乗算される。
[0108] 一方、 B信号に対しては、 HH2,LH2,HL2、 HH3,LH3,HL3、 HH4,LH4,HL4 の変換係数がより小さくなるように重み係数が乗算される。例えば、重み係数は、一 律にゼロとされる。これにより、中低域の周波数成分を抑制する。また、 HH1,LH1, HL1及び LL4〖こは、重み係数 1が乗算される。
[0109] このようにして、係数変換回路 82により重み付け処理されて出力される係数は、 ID WT83に入力され、 2次元の逆離散ウェーブレット変換が行われる。
[0110] この場合、 G信号に対しては、重み付け処理された後の HH1,LH1,HL1と、 LL1 を用いて逆離散ウェーブレット変換が行われる。その結果、合成される画像信号 (G 信号)には、細力な粘膜構造情報が抑制される。
[0111] 一方、 B信号に対しては、重み付け後の HH2,LH2,HL2、 HH3,LH3,HL3、 HH 4,LH4,HL4と、 HH1,LH1,HL1及び LL4を用いて逆離散ウェーブレット変換が行 われる。その結果、合成される画像信号 (B信号)には、主に細かな粘膜情報が再現 される。
このように処理された R. G. Bの信号は、図 10に示す γ回路 75に入力され、実施 例 2で説明したように同様の処理が行われる。
[0112] 本実施例によれば、分離型の 2次元フィルタを用いることにより、より画質の良い状 態の粘膜構造を再現する画像が得られる。その他、実施例 2と同様の作用効果が得 られる。 なお、上記の説明にお 、ては、重み付けを行わな 、場合の重み係数として 1を用いた力 1以上の重み係数を設定して、コントラストを増強するようにしても良い 。すなわち、 G信号の場合、 LL1に 1以上の重み係数を乗算して、中低域成分からな る画像成分のコントラストを増強し、また Β信号に対しては、 HH1,LH1,HL1に 1以 上の重み係数を乗算して、細力な粘膜情報のコントラストを増強するようにしても良い
[0113] (変形例)
図 13は変形例におけるウェーブレット変換部 36Dを示す。このウェーブレット変換 部 36Dは、図 11のウェーブレット変換部 36Cにおいて、 B信号の明るさ平均値を算 出する明るさ平均画像生成回路 84と、明るさ平均画像生成回路 84の出力信号と ID WT83から出力される B信号とを加算する加算器 85とを設けたものである。
[0114] そして、図 11の構成の場合と同様に、 R信号はこのウェーブレット変換部 36Dをス ルーして γ回路 75に出力され、 G信号と Β信号とは DWT81、係数変換回路 82及び IDWT83へと順次入力される。さらに B信号は、明るさ平均画像生成回路 84に入力 され、この明るさ平均画像生成回路 84の出力信号と IDWT83の出力信号とが加算 されて、 γ回路 75に出力される。
[0115] この変形例においては、 DWT81では、 G信号及び Β信号共に、同じ分解レベル、 例えば分解レベル 1のサブバンドに分解されるようにしている。
[0116] 係数変換回路 82は、 G信号に対しては、 HH1,LH1,HL1の変換係数がより小さく なるように重み係数を乗算し (例えば一律にゼロの重み係数を乗算し)、 LL1には 1を 乗算する。
一方、係数変換回路 82は、 B信号における LL1の係数には、重み係数ゼロを乗算 し、 HH1,LH1,HL1の係数には、 1を乗算する。 [0117] この係数変換回路 82に重み付け処理された係数は、 IDWT83において、 2次元の 逆離散ウェーブレット変換される。 B信号は、重み付け後の LL1と HH1,LH1,HL1を 基に合成画像を生成する。 G信号も、重み付け後の LL1と HH1,LH1,HL1を基に 合成画像を生成する。
[0118] また、明るさ平均画像生成回路 84は、 B信号の明るさ平均を算出し、全画素に対し てこの明るさ平均の画素値の画像信号を出力する。この明るさ平均画像生成回路 84 力も出力される画像信号は加算器 85に入力され、 IDWT83から出力される B信号と 加算された B2信号がこのウェーブレット変換部 36Dから出力される。
[0119] 本変形例では、分解レベルを G、 B信号で共通とする事により、構成を簡略化すると 共に、明るさ平均画像生成手段を設ける事で、 B信号における低域成分をより抑制し た画像信号を簡便に生成することが可能となる。その他、実施例 3と同様の効果を有 する。
[0120] なお、実施例 3及びその変形例として、実施例 2の場合に適用した場合で説明した 力 面順次方式にも同様に適用することができる。
[0121] 上述した各実施例等において、生体観察装置を信号処理手段としての機能を持つ ビデオプロセッサ 4若しくは 4Bのみで構成しても良!、。
[0122] また、上述した各実施例等においては、光源装置 3若しくは 3Bで発生した広帯域 の照明光をライトガイド 9により伝送し、このライトガイド 9の先端面力も照明レンズ 23 を介して伝送した照明光を生体粘膜等に照射する構成にしていた。
[0123] 本発明は、この構成に限定されるものでなぐ例えば電子内視鏡 2若しくは 2Bの先 端部 22に、発光ダイオード (LEDと略記)等の発光素子を配置して照明手段を形成 し、この発光素子力も若しくは照明レンズ 23を介して生体粘膜等の被写体を照明す る構成にしても良い。
[0124] なお、上述した各実施例等を部分的に組み合わせる等して構成される実施例等も 本発明に属する。
[0125] また、本発明は、上述した各実施形態に限定されるものではなぐ発明の趣旨を逸 脱しな 、範囲内にお 、て種々の変更や応用が可能であることは勿論である。
[0126] 本出願は、 2006年 3月 3日に日本国に出願された特願 2006— 058711号を優先 権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の 範囲、図面に引用されたものとする。

Claims

請求の範囲
[1] 生体に照射される広帯域の照明光のもとで撮像を行う撮像素子の出力信号に対し て信号処理を行い、生成した画像信号を表示装置側に出力可能とする信号処理手 段を具備する生体観察装置において、
前記信号処理手段は、前記出力信号に対して、前記生体の構造に対応した空間 周波数成分に分離する分離手段を具備することを特徴とする生体観察装置。
[2] 前記分離手段は、前記生体における細力な粘膜構造および粗 、粘膜構造の少な くとも一方を反映した信号に分離することを特徴とする請求項 1記載の生体観察装置
[3] 前記信号処理手段は、前記分離手段から出力される分離手段出力信号に対して、 色調を調整する色調整手段を有することを特徴とする請求項 1又は 2記載の生体観 察装置。
[4] 前記信号処理手段は、前記分離手段から出力される分離手段出力信号に対して、 コントラスト変換処理を施すコントラスト変換処理手段を有することを特徴とする請求 項 1から 3のいずれか 1つに記載の生体観察装置。
[5] 前記分離手段は、前記出力信号に対して、前記生体の構造に対応した周波数通 過特性が異なるフィルタを用いて構成される請求項 1から 4のいずれ力 1つに記載の 生体観察装置。
[6] 前記分離手段は、前記出力信号に対して、ウェーブレット変換手段により構成され る請求項 1から 4のいずれか 1つに記載の生体観察装置。
[7] 前記分離手段は、前記出力信号として出力される緑色信号が有する帯域のうち、 低域部及び中域部の振幅を増強し、かつ、高域部の振幅を抑圧する周波数特性とし て設定されたバンドパスフィルタを有することを特徴とする請求項 1から 4のいずれか
1つに記載の生体観察装置。
[8] 前記分離手段は、前記出力信号として出力される青色信号が有する帯域のうち、 高域部の振幅を増強する周波数特性として設定されたハイパスフィルタを有すること を特徴とする請求項 7に記載の生体観察装置。
PCT/JP2006/324681 2006-03-03 2006-12-11 生体観察装置 WO2007099681A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2006800523633A CN101336087B (zh) 2006-03-03 2006-12-11 活体观察装置
EP06834436A EP1992270B1 (en) 2006-03-03 2006-12-11 Living body observation apparatus
BRPI0621380-4A BRPI0621380A2 (pt) 2006-03-03 2006-12-11 aparelho de observação de corpo vivo
US12/192,507 US20080306338A1 (en) 2006-03-03 2008-08-15 Living body observation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006058711A JP5057675B2 (ja) 2006-03-03 2006-03-03 生体観察装置
JP2006-058711 2006-03-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/192,507 Continuation US20080306338A1 (en) 2006-03-03 2008-08-15 Living body observation apparatus

Publications (1)

Publication Number Publication Date
WO2007099681A1 true WO2007099681A1 (ja) 2007-09-07

Family

ID=38458805

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/324681 WO2007099681A1 (ja) 2006-03-03 2006-12-11 生体観察装置

Country Status (7)

Country Link
US (1) US20080306338A1 (ja)
EP (1) EP1992270B1 (ja)
JP (1) JP5057675B2 (ja)
KR (1) KR101009559B1 (ja)
CN (1) CN101336087B (ja)
BR (1) BRPI0621380A2 (ja)
WO (1) WO2007099681A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071012A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡装置
JP2012071007A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡装置
JP2013099595A (ja) * 2013-02-04 2013-05-23 Fujifilm Corp 電子内視鏡システム
US9107603B2 (en) 2011-01-27 2015-08-18 Fujifilm Corporation Electronic endoscope system including a suppression section
JPWO2017104056A1 (ja) * 2015-12-17 2018-10-04 オリンパス株式会社 生体情報計測装置、生体情報計測方法および生体情報計測プログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5006759B2 (ja) * 2007-10-29 2012-08-22 Hoya株式会社 電子内視鏡用信号処理装置および電子内視鏡装置
JP5120084B2 (ja) * 2008-06-13 2013-01-16 セイコーエプソン株式会社 画像処理装置、集積回路装置及び電子機器
JP5460507B2 (ja) * 2009-09-24 2014-04-02 富士フイルム株式会社 内視鏡装置の作動方法及び内視鏡装置
JP5460506B2 (ja) * 2009-09-24 2014-04-02 富士フイルム株式会社 内視鏡装置の作動方法及び内視鏡装置
JP5591570B2 (ja) 2010-03-23 2014-09-17 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP5606120B2 (ja) * 2010-03-29 2014-10-15 富士フイルム株式会社 内視鏡装置
JP5501210B2 (ja) * 2010-12-16 2014-05-21 富士フイルム株式会社 画像処理装置
JP5334952B2 (ja) 2010-12-16 2013-11-06 富士フイルム株式会社 画像処理装置
JP5568489B2 (ja) * 2011-01-25 2014-08-06 富士フイルム株式会社 内視鏡システム及びその光源制御方法
JP5550574B2 (ja) * 2011-01-27 2014-07-16 富士フイルム株式会社 電子内視鏡システム
JP5335017B2 (ja) * 2011-02-24 2013-11-06 富士フイルム株式会社 内視鏡装置
KR20120097828A (ko) 2011-02-25 2012-09-05 삼성전자주식회사 협대역 영상을 제공할 수 있는 내시경 장치 및 상기 내시경 장치의 영상 처리 방법
JP5789232B2 (ja) * 2011-10-12 2015-10-07 富士フイルム株式会社 内視鏡システム及びその作動方法
KR101704662B1 (ko) * 2012-02-29 2017-02-08 고쿠리츠켄큐카이하츠호진 카가쿠기쥬츠신코키코 화상처리용 디지털 필터 및 문자열 경사 착시 생성 장치
JP6017669B2 (ja) 2013-02-27 2016-11-02 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
JP6008812B2 (ja) * 2013-09-27 2016-10-19 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6151372B2 (ja) * 2013-10-28 2017-06-21 富士フイルム株式会社 画像処理装置及びその作動方法
JP5877614B2 (ja) * 2014-06-16 2016-03-08 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
JP6566395B2 (ja) * 2015-08-04 2019-08-28 国立大学法人佐賀大学 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム
WO2019035175A1 (ja) 2017-08-15 2019-02-21 オリンパス株式会社 血管認識方法および血管認識装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105483A (ja) * 1989-09-19 1991-05-02 Olympus Optical Co Ltd 内視鏡装置
JPH04183430A (ja) 1990-11-19 1992-06-30 Olympus Optical Co Ltd 内視鏡画像処理装置および内視鏡画像処理方法
JPH08313823A (ja) * 1995-05-15 1996-11-29 Olympus Optical Co Ltd 内視鏡画像処理装置
JP2000148987A (ja) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd 画像処理装置
JP2002034908A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2003093336A (ja) * 2001-09-26 2003-04-02 Toshiba Corp 電子内視鏡装置
US20030139650A1 (en) 2002-01-18 2003-07-24 Hiroyuki Homma Endoscope
JP2004202217A (ja) * 2002-12-12 2004-07-22 Olympus Corp イメージング装置
JP2005141659A (ja) * 2003-11-10 2005-06-02 Sharp Corp 画像処理装置、画像形成装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録した記録媒体
JP2005293214A (ja) 2004-03-31 2005-10-20 Kao Corp 肌のシミュレーション画像形成方法
JP2006058711A (ja) 2004-08-20 2006-03-02 Seiko Epson Corp カラーフィルタ基板、カラーフィルタ基板の製造方法、電気光学装置および電子機器

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3432393C2 (de) * 1983-09-05 1986-06-19 Olympus Optical Co., Ltd., Tokio/Tokyo Automatische Abblendvorrichtung für ein Endoskop
US4913297A (en) * 1988-09-09 1990-04-03 Tyee Trading Corporation Display unit
US6184922B1 (en) * 1997-07-31 2001-02-06 Olympus Optical Co., Ltd. Endoscopic imaging system in which still image-specific or motion picture-specific expansion unit can be coupled to digital video output terminal in freely uncoupled manner
JP2000197050A (ja) * 1998-12-25 2000-07-14 Canon Inc 画像処理装置及び方法
EP1099405B1 (en) * 1999-05-18 2005-08-03 Olympus Corporation Endoscope
EP2319390B1 (en) * 2000-07-21 2016-04-20 Olympus Corporation Endoscope apparatus
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices
US7133063B2 (en) * 2002-07-16 2006-11-07 Fujinon Corporation Electronic endoscope apparatus which superimposes signals on power supply
JP4025621B2 (ja) * 2002-10-29 2007-12-26 オリンパス株式会社 画像処理装置及び内視鏡画像処理装置
US7474767B2 (en) * 2003-09-24 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Motion detection using multi-resolution image processing
US20060045381A1 (en) * 2004-08-31 2006-03-02 Sanyo Electric Co., Ltd. Image processing apparatus, shooting apparatus and image display apparatus
JP3926363B2 (ja) * 2004-11-04 2007-06-06 三菱電機株式会社 画素信号処理装置及び画素信号処理方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105483A (ja) * 1989-09-19 1991-05-02 Olympus Optical Co Ltd 内視鏡装置
JPH04183430A (ja) 1990-11-19 1992-06-30 Olympus Optical Co Ltd 内視鏡画像処理装置および内視鏡画像処理方法
JPH08313823A (ja) * 1995-05-15 1996-11-29 Olympus Optical Co Ltd 内視鏡画像処理装置
JP2000148987A (ja) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd 画像処理装置
JP2002034908A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2003093336A (ja) * 2001-09-26 2003-04-02 Toshiba Corp 電子内視鏡装置
US20030139650A1 (en) 2002-01-18 2003-07-24 Hiroyuki Homma Endoscope
JP2004202217A (ja) * 2002-12-12 2004-07-22 Olympus Corp イメージング装置
EP1576920A1 (en) 2002-12-12 2005-09-21 Olympus Corporation Imaging device
JP2005141659A (ja) * 2003-11-10 2005-06-02 Sharp Corp 画像処理装置、画像形成装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録した記録媒体
JP2005293214A (ja) 2004-03-31 2005-10-20 Kao Corp 肌のシミュレーション画像形成方法
JP2006058711A (ja) 2004-08-20 2006-03-02 Seiko Epson Corp カラーフィルタ基板、カラーフィルタ基板の製造方法、電気光学装置および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1992270A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071012A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡装置
JP2012071007A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡装置
US9107603B2 (en) 2011-01-27 2015-08-18 Fujifilm Corporation Electronic endoscope system including a suppression section
JP2013099595A (ja) * 2013-02-04 2013-05-23 Fujifilm Corp 電子内視鏡システム
JPWO2017104056A1 (ja) * 2015-12-17 2018-10-04 オリンパス株式会社 生体情報計測装置、生体情報計測方法および生体情報計測プログラム

Also Published As

Publication number Publication date
JP5057675B2 (ja) 2012-10-24
US20080306338A1 (en) 2008-12-11
EP1992270A1 (en) 2008-11-19
KR20080102241A (ko) 2008-11-24
EP1992270A4 (en) 2011-02-23
CN101336087B (zh) 2011-04-13
CN101336087A (zh) 2008-12-31
BRPI0621380A2 (pt) 2011-12-06
JP2007236415A (ja) 2007-09-20
KR101009559B1 (ko) 2011-01-18
EP1992270B1 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP5057675B2 (ja) 生体観察装置
JP4868976B2 (ja) 内視鏡装置
JP4009626B2 (ja) 内視鏡用映像信号処理装置
JP5191090B2 (ja) 内視鏡装置
JP4554944B2 (ja) 内視鏡装置
JP4996773B2 (ja) 内視鏡装置
JP5308815B2 (ja) 生体観測システム
US20070153542A1 (en) Endoscope apparatus
JP5501210B2 (ja) 画像処理装置
JP5808031B2 (ja) 内視鏡システム
JP5143293B2 (ja) 内視鏡装置
JP5757891B2 (ja) 電子内視鏡システム、画像処理装置、画像処理装置の作動方法及び画像処理プログラム
JP2006218283A (ja) 内視鏡装置
JP5041936B2 (ja) 生体観測装置
US9554693B2 (en) Image processing device
JP2010200883A (ja) 内視鏡画像処理装置および方法ならびにプログラム
JP3315188B2 (ja) 内視鏡装置
JP2011200364A (ja) 内視鏡装置
JP5856943B2 (ja) 撮像システム
JP5331863B2 (ja) 内視鏡装置
JPH0236835A (ja) 電子内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200680052363.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2006834436

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 4531/CHENP/2008

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020087023423

Country of ref document: KR

ENP Entry into the national phase

Ref document number: PI0621380

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20080903