WO2016084608A1 - 内視鏡システム、および内視鏡システムの動作方法、並びにプログラム - Google Patents

内視鏡システム、および内視鏡システムの動作方法、並びにプログラム Download PDF

Info

Publication number
WO2016084608A1
WO2016084608A1 PCT/JP2015/081823 JP2015081823W WO2016084608A1 WO 2016084608 A1 WO2016084608 A1 WO 2016084608A1 JP 2015081823 W JP2015081823 W JP 2015081823W WO 2016084608 A1 WO2016084608 A1 WO 2016084608A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
low
unit
frequency
imaging
Prior art date
Application number
PCT/JP2015/081823
Other languages
English (en)
French (fr)
Inventor
岳志 宮井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016537591A priority Critical patent/JP6020950B1/ja
Priority to CN201580004855.4A priority patent/CN105916430B/zh
Priority to US15/112,234 priority patent/US9986890B2/en
Publication of WO2016084608A1 publication Critical patent/WO2016084608A1/ja
Priority to US15/985,322 priority patent/US10799087B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present technology relates to an endoscope system, an operation method of the endoscope system, and a program, and in particular, in an image quality improvement process of an image captured by an endoscope apparatus constituting the endoscope system, Accordingly, the present invention relates to an endoscope system, an operation method of the endoscope system, and a program capable of adjusting processing load reduction and resolution improvement in a balanced manner.
  • imaging with an endoscope system in addition to general white light, special light such as narrowband light and near infrared light is used for IR (infrared light) observation and PDD (photodynamic diagnosis) observation. There is imaging used.
  • imaging in this endoscope system includes normal imaging using white light as illumination light and special light imaging using special light such as narrow band light or near infrared light. Even though any illumination light is used, the image processing is the same regardless of the nature of the input signal due to the difference in the amount of light, so it is not necessarily suitable for the characteristics of each image signal. In some cases, processing was wasted.
  • the present technology has been made in view of such a situation, and in particular, according to the imaging conditions related to brightness such as the type of illumination light and the lens aperture, the processing load related to image processing is reduced, and the image quality is high. This makes it possible to adjust the contradictory effects such as conversion in a balanced manner.
  • An endoscope system includes an endoscope apparatus in which an objective lens is provided at a distal end of a rigid insertion portion that is inserted into a body cavity, and the objective lens that is input from the endoscope apparatus
  • An image pickup unit that picks up an optical image condensed by the image signal and outputs it as an image signal
  • a low-frequency component extraction unit that extracts a low-frequency image that is a low-frequency component from the image signal, and a high-frequency component from the image signal
  • a high-frequency component extracting unit that extracts a high-frequency image, an image-quality improving unit that performs high-quality image processing on the low-frequency image, and at least the low-frequency image that has been improved in image quality by the image quality improving processing unit
  • the condition information may be information indicating whether or not the condition for increasing the ratio of the noise component of the image signal captured by the imaging unit is high.
  • the information indicating whether the ratio of the noise component of the image signal captured by the image capturing unit is high is determined by a light source device that emits illumination light when the image capturing unit captures an image.
  • Information indicating the type of light emitted, information on the aperture of the objective lens in the endoscope apparatus, and information on the aperture of a relay lens provided between the imaging unit and the objective lens are included. can do.
  • a reduction unit that reduces the low-frequency image at a predetermined reduction rate and an enlargement unit that enlarges the image at an enlargement rate corresponding to the reduction rate can be further included. Can be made to perform high image quality processing on the reduced low-frequency image.
  • the reduction unit reduces the low-frequency image at a reduction rate according to the condition information, and the enlargement unit increases the image quality at a reduction rate corresponding to the reduction rate according to the condition information.
  • the reduced image of the low-frequency image being processed can be enlarged.
  • the image quality enhancement processing unit can include spatial direction noise removal, temporal direction noise removal, color correction, and band enhancement processing.
  • the high-frequency component extraction unit has a condition in which a ratio of a noise component of the image signal imaged in the imaging unit is high. The extraction of the high frequency image can be stopped.
  • the operation method of the endoscope system is focused by the objective lens that is input from an endoscope apparatus in which an objective lens is provided at a distal end of a rigid insertion portion that is inserted into a body cavity.
  • An optical image is captured and output as an image signal, a low-frequency image that is a low-frequency component is extracted from the image signal, a high-frequency image that is a high-frequency component is extracted from the image signal, and the low-frequency image is extracted.
  • High-quality processing is performed, and at least the low-frequency image that has been improved in image quality by the high-quality image processing unit is output as an output image.
  • An image signal having a pixel value obtained by adding the pixel value of each pixel of the high-frequency image to the pixel value of each pixel of the image is output as the output image.
  • a program includes an endoscope device in which an objective lens is provided at a distal end of a rigid insertion portion that is inserted into a body cavity, and the objective lens that is input from the endoscope device
  • An image pickup unit that picks up an optical image condensed by the image signal and outputs it as an image signal, a low-frequency component extraction unit that extracts a low-frequency image that is a low-frequency component from the image signal, and a high-frequency component from the image signal
  • a high-frequency component extracting unit that extracts a high-frequency image, an image-quality improving unit that performs high-quality image processing on the low-frequency image, and at least the low-frequency image that has been improved in image quality by the image quality improving processing unit
  • the output unit outputs the high value to the pixel value of each pixel of the low-frequency image that has been improved in image quality according to the condition information at the time of imaging in the imaging unit.
  • Add pixel values of each pixel of the area image An image signal comprising a low-
  • an optical image collected by the objective lens which is input from an endoscope apparatus in which an objective lens is provided at a distal end of a rigid insertion portion that is inserted into a body cavity, is captured. It is output as an image signal, a low-frequency image that is a low-frequency component is extracted from the image signal, a high-frequency image that is a high-frequency component is extracted from the image signal, and a high-quality image processing is performed on the low-frequency image At least the low-frequency image with high image quality is output as an output image, and the high-frequency image is set to the pixel value of each pixel of the low-frequency image with high image quality according to the condition information at the time of imaging. An image signal having a pixel value obtained by adding the pixel values of the respective pixels is output as the output image.
  • Each component of the endoscope system may be an independent device, or may be a block that functions as each component of the endoscope system.
  • the conflicting effects of reducing the processing load related to the image quality enhancement processing and increasing the resolution are balanced. It becomes possible to adjust well.
  • FIG. 10 It is a figure explaining the structural example of 2nd Embodiment of the image processing apparatus of FIG. 10 is a flowchart illustrating image processing by the image processing apparatus in FIG. 9.
  • FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.
  • FIG. 1 is a diagram illustrating an outline of an endoscope system to which the present technology is applied.
  • This endoscope system is used in laparoscopic surgery performed in place of conventional laparotomy in the medical field in recent years.
  • an opening device called a trocar 2 is used instead of cutting the abdominal wall 1 that has been conventionally performed to open the abdominal wall.
  • a laparoscope (hereinafter also referred to as an endoscopic device or an endoscope) 11 and a treatment instrument 3 are inserted into a body through holes provided in the trocar 2. Then, a treatment such as excising the affected part 4 with the treatment tool 3 is performed while viewing the image of the affected part (tumor or the like) 4 imaged by the endoscope apparatus 11 in real time.
  • an operator, an assistant, a scoop, a robot, or the like holds the head portion 24.
  • the endoscope system 10 includes an endoscope device 11, an image processing device 12, and a display device 13.
  • the endoscope apparatus 11 and the image processing apparatus 12 may be connected wirelessly in addition to being connected via a cable. Further, the image processing apparatus 12 may be arranged at a location away from the operating room and connected via a network such as a local LAN or the Internet. The same applies to the connection between the image processing device 12 and the display device 13.
  • the endoscope apparatus 11 includes a straight bar-shaped lens barrel portion 21 and a head portion 24.
  • the lens barrel portion 21 is also referred to as an optical viewing tube or a rigid tube, and has a length of about several tens of centimeters.
  • An objective lens 22 is provided at one end inserted into the body, and the other end is a head. Connected to the unit 24.
  • An optical lens portion 23 of a relay optical system is provided inside the lens barrel portion 21. Note that the shape of the lens barrel 21 is not limited to a straight bar shape.
  • the lens barrel portion 21 is roughly classified into a direct-view mirror having the same lens barrel axis and optical axis as shown in FIG. 2, and a perspective mirror having a predetermined angle between the lens barrel axis and the optical axis. 2 is an example of a direct-view mirror.
  • the head unit 24 incorporates an imaging unit 25.
  • the imaging unit 25 has an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and converts an optical image of the affected part input from the lens barrel part 21 into an image signal at a predetermined frame rate.
  • CMOS Complementary Metal Oxide Semiconductor
  • a light source device 14 is connected to the endoscope apparatus 11, and the affected part 4 is irradiated with the supply of a light source required for imaging. At this time, the light source device 14 can emit light having various wavelengths, and can emit special light that can particularly identify the affected part 4 in addition to the normal light. Therefore, the image picked up by the image pickup unit 25 can pick up an image signal based on special light as well as an image signal based on normal light.
  • an optical image of the affected part 4 collected by the objective lens 22 is incident on the imaging unit 25 of the head unit 24 via the optical lens unit 23, and an image with a predetermined frame rate is input by the imaging unit 25.
  • the signal is converted into a signal and output to the subsequent image processing apparatus 12.
  • the head unit 24 is configured to supply information such as the type of light emitted from the light source device 14, the aperture of the objective lens 22, and the aperture of the optical lens unit 23 to the image processing apparatus 12 as condition information. To do. About this condition information, the structure which a user inputs previously in the site
  • the condition information may be configured to be recognized by the image processing apparatus 12 by analyzing the image signal to be captured in the image processing apparatus 12.
  • the description will be made on the assumption that condition information is input to the image processing apparatus 12 by any method.
  • the information on the type of light supplied from the light source device 14 to the image processing device 12 may be directly supplied from the light source device 14 to the image processing device 12.
  • FIG. 3 shows another configuration example of the endoscope apparatus 11.
  • an imaging unit 25 may be disposed immediately after the objective lens 22, and the optical lens unit 23 inside the lens barrel unit 21 may be omitted.
  • the image processing apparatus 12 includes a low-frequency extraction unit 51, a high-frequency extraction unit 52, a reduction unit 53, a noise removal unit 54, a color correction unit 55, an enlargement unit 56, a low-high frequency synthesis unit 57, a structure enhancement unit 58, and an electronic A zoom unit 59 is provided.
  • the low frequency extraction unit 51 extracts a low frequency component in the input image and outputs the low frequency component to the high frequency extraction unit 52 and the reduction unit 53. More specifically, the low-frequency extraction unit 51 includes, for example, an LPF (Low (Pass Filter), extracts a low-frequency component in the input image, and forms a high-frequency extraction unit 52 and a reduction unit 53 as a low-frequency image. Output to.
  • LPF Low (Pass Filter
  • the high frequency extraction unit 52 extracts a high frequency component for each pixel of the input image and outputs the high frequency component to the low high frequency synthesis unit 57. More specifically, the high frequency extraction unit 52 extracts, for example, a high frequency component by subtracting the low frequency component supplied from the low frequency extraction unit 51 for each pixel of the input image. This is output to the area synthesis unit 57.
  • the high frequency extraction unit 52 Stop extracting.
  • the reduction unit 53 reduces the image signal composed of the low frequency components to a low resolution image and outputs the reduced image to the noise removal unit 54 as a reduced image. More specifically, the reduction unit 53 reduces the pixel resolution by reducing the pixel signal of the image signal composed of low-frequency components, for example, at a predetermined interval.
  • the noise removal unit 54 performs noise removal processing on the reduced image. More specifically, the noise removing unit 54 performs, for example, 2D ⁇ NR (2Dimension Noise Reduction) processing (two-dimensional noise removal processing) and 3D NR (3Dimension Noise Reduction) processing (three-dimensional noise removal processing) on the reduced image. ), Noise is removed and output to the enlargement unit 56.
  • the two-dimensional noise removal process here is a so-called spatial direction noise removal process using a signal in the image in the reduced image, and the three-dimensional noise removal process uses a plurality of images in the time direction. This is so-called time direction noise removal processing.
  • the color correction unit 55 performs color correction on the reduced image subjected to the noise removal process, and outputs the reduced image to the enlargement unit 56.
  • the enlargement unit 56 enlarges the reduced image subjected to the band emphasis at an enlargement rate corresponding to the reduction rate when the reduction process is performed by the reduction unit 53, converts the reduced image into the same image size as the size of the input image,
  • the low-frequency image composed of the component image signals is output to the low-high frequency combining unit 57.
  • the low and high frequency synthesizer 57 is based on condition information for specifying brightness related to imaging such as the type of light source from the light source device 14, the optical lens unit 23 in the endoscope device 11, and the aperture size of the optical lens unit 23. Then, by controlling the built-in adder 57a (FIG. 6), either the image signal obtained by adding the image signal of the high frequency component and the image signal of the low frequency component, or the image signal of only the low frequency component is obtained. The image signal is output to the structure enhancement unit 58 as a high-quality image signal.
  • condition information information indicating that the light emitted from the light source device 14 is special light, information indicating that the aperture size of the objective lens 22 is smaller than a predetermined size, and the aperture size of the optical lens unit 23 are predetermined. If any of the information that is smaller than the image size is included, it indicates that the brightness related to imaging is relatively dark. In such a case, a high frequency component in the input image contains a lot of noise components. Therefore, in the case of such condition information, the low / high frequency synthesizer 57 stops the operation of the adder 57a (FIG. 6) to generate a low frequency image consisting of only the low frequency components with high image quality. Output as image quality processing result.
  • the high frequency component contains a lot of noise components, so by outputting only the low frequency image, an image with an excellent signal-to-noise ratio (S / N) can be output with low resolution. It becomes possible to do.
  • condition information information indicating that the light emitted from the light source device 14 is normal light made of white light, information that the aperture size of the objective lens 22 is larger than a predetermined size, and the aperture size of the optical lens unit 23 If all the information that the image is larger than the predetermined size is available, it indicates that the brightness related to the imaging is relatively bright. In such a case, the noise component is relatively small even in the high frequency component. Therefore, the low / high frequency combining unit 57 controls the adding unit 57a (FIG. 6) to output the result of adding the high frequency component to the low frequency component with high image quality for each pixel as the high image quality processing result. .
  • the structure enhancement unit 58 performs structure enhancement processing on the image signal with high image quality, and outputs the image signal to the electronic zoom unit 59.
  • the electronic zoom unit 59 electronically enlarges the structure-enhanced image signal supplied from the structure emphasizing unit 58 to an appropriate size and outputs it to the display device 13.
  • image processing by the image processing apparatus 12 of FIG. 4 will be described with reference to the flowchart of FIG.
  • the light source device 14 emits normal light from the light source device 14 to perform normal imaging, or special light is emitted and special light imaging is performed. It is assumed that condition information indicating whether or not there is supplied. Further, it is assumed that information related to the apertures of the objective lens 22 and the optical lens unit 23 in the endoscope apparatus 11 is also supplied as condition information to the image processing apparatus 12.
  • step S ⁇ b> 11 the low-frequency extraction unit 51 performs low-frequency component extraction processing by LPF on each pixel of the input image to extract a low-frequency component, and outputs the low-frequency component to the high-frequency extraction unit 52 and the reduction unit 53. .
  • step S12 the high-frequency extraction unit 52 is relatively bright such that the condition information from the light source device 14 is normal light imaging, or the objective lens 22 and the optical lens unit 23 having a diameter larger than a predetermined size are used. It is determined whether or not the condition information indicates an imaging state in normal light. In step S12, for example, when the condition information indicates an imaging state in a relatively bright state, the process proceeds to step S13.
  • step S13 the high frequency extraction unit 52 subtracts the low frequency component for each pixel of the input image to extract the high frequency component, and outputs the high frequency component to the low high frequency synthesis unit 57.
  • step S12 when the condition information indicates an imaging state in a relatively dark state, the process in step S13 is skipped. That is, in this case, as will be described later, since a high frequency component is not required in the subsequent stage, an image signal composed of the high frequency component is not extracted. As a result, it is possible to reduce the processing load for extracting the high frequency component.
  • step S14 the reduction unit 53 reduces the image size of the image signal composed of the low frequency component of the input image, and outputs it to the noise removal unit 54 as a reduced image composed of the low frequency component.
  • step S ⁇ b> 15 the noise removal unit 54 performs noise removal processing on the reduced image composed of the low frequency components and outputs the reduced image to the color correction unit 55.
  • step S ⁇ b> 16 the color correction unit 55 performs color correction on the reduced image that has been subjected to noise removal processing and includes the low-frequency component, and outputs the reduced image to the enlargement unit 56.
  • step S ⁇ b> 17 the enlargement unit 56 enlarges the noise-reduced reduced image at an enlargement rate corresponding to the reduction rate when reduced by the reduction unit 53, returns the image to the same image size as the input image, The data is output to the combining unit 57.
  • step S18 the low and high frequency combining unit 57 determines whether or not the imaging state is in a relatively bright state based on the condition information, and indicates that the imaging state is in a relatively bright state. If yes, the process proceeds to step S19.
  • step S ⁇ b> 19 the low and high frequency synthesizer 57 receives the low frequency component image signal (low frequency image) subjected to the noise removal process supplied from the enlargement unit 56 and the high frequency supplied from the high frequency extractor 52.
  • the component image signals (high-frequency images) are added and synthesized, and output to the structure enhancement unit 58 as an image with high image quality (output image). That is, as shown in the upper part of FIG. 6, the low and high frequency synthesizer 57 controls the adder 57 a inside the image signal of the low frequency component subjected to the noise removal process supplied from the enlargement unit 56. (Low-frequency image) and a high-frequency component image signal (high-frequency image) supplied from the high-frequency extraction unit 52 are added. Then, the low and high frequency synthesizer 57 outputs the image signal as the addition result to the structure enhancing unit 58 as an image signal (output image) with high resolution and high image quality.
  • step S18 if it is determined in step S18 that the imaging state is relatively dark based on the condition information, the process proceeds to step S20.
  • step S20 the low and high frequency synthesizer 57 enhances the structure of only the image signal (low frequency image) composed of the low frequency components supplied from the enlargement unit 56 as an image signal (output image) subjected to noise removal processing as it is.
  • the unit 58 To the unit 58. That is, as shown in the lower part of FIG. 6, the low and high frequency synthesizer 57 stops the operation of the built-in adder 57 a, and the noise signal processed low frequency component image signal supplied from the enlarger 56. Only the (low-frequency image) is output to the structure enhancement unit 58 as an image signal (output image) with high image quality.
  • step S ⁇ b> 21 the structure enhancement unit 58 performs structure enhancement processing on the image signal supplied from the low and high frequency synthesis unit 57 and outputs the image signal to the electronic zoom unit 59.
  • step S22 the electronic zoom unit 59 converts the image signal on which the structure enhancement processing has been performed into a resolution suitable for the display device 13, and outputs the display signal to the display device 13 for display.
  • the high-frequency component of the image signal to be captured has a low-frequency component and a high-frequency component because the ratio of the noise signal is low.
  • the image signal is high. Since the ratio of the noise signal is high in the band component, the high band component is not added to the low band component, and the image of the low band component with high image quality is output as it is as the output image.
  • FIG. 7 the resolution and S / N ratio in the image with the high frequency component added are shown on the left side, and the resolution and S / N ratio in the image with no high frequency component added on the right side. It is shown.
  • the resolution can be higher than that of the upper right image of FIG. 8, and a clearer image can be provided. Is possible. Also, for special light imaging with high noise in high frequency components, as shown in the lower right image of FIG. 8, by improving the S / N ratio than the lower left image of FIG. It is possible to improve the sensitivity and provide an image that is easier to recognize.
  • FIG. 8 an image with a high frequency component added is shown on the left side, and an image with no high frequency component added is shown on the right side. Further, in FIG. 8, the upper row is an image in normal imaging, and the lower row is an image in special light imaging.
  • the image is reduced, noise-removed and color-corrected, then enlarged and returned to the size of the input image, so each process of noise-removing and color-correcting It is possible to reduce the processing load in
  • FIG. 9 shows a configuration example of the second embodiment of the image processing apparatus 12 in which the reduction size is changed according to the imaging conditions such as the input image and the brightness at the time of imaging.
  • the image processing apparatus 12 in FIG. 9 differs from the image processing apparatus 12 in FIG. 4 in that a reduction unit 81 and an enlargement unit 82 are provided instead of the reduction unit 53 and the enlargement unit 56.
  • the reduction unit 81 has the same basic configuration as the reduction unit 53, but further reduces the input image by changing the reduction rate in accordance with the imaging conditions, and outputs the reduced input image. That is, a darker image with a high noise component and a low S / N ratio is set to a higher reduction ratio according to the imaging conditions, and the reduction ratio is reduced as the brighter conditions are closer to normal imaging.
  • the enlargement unit 82 enlarges the image signal at an enlargement rate corresponding to the reduction rate of the reduction unit 81 according to the imaging conditions, and outputs the image signal to the low / high frequency synthesis unit 57.
  • an image reduced at a reduction rate according to the imaging condition is subjected to noise removal and color correction, and then enlarged and output to the low and high frequency synthesis unit 57.
  • Appropriate processing according to the noise level of the image can be performed, and the processing load can be appropriately reduced.
  • the reduction unit 81 has a condition closer to normal imaging based on the condition information.
  • the reduction rate is reduced, the image is reduced to a size closer to that of the original image, and an image in which a high frequency component such as special imaging includes a lot of noise components is reduced to a smaller size.
  • step S47 the enlargement unit 82 enlarges the image at an enlargement rate corresponding to the reduction rate in the reduction unit 81 based on the condition information.
  • the data is output to the low / high frequency synthesis unit 57.
  • steps S48 to S52 high / low range synthesis, structure enhancement, and electronic zoom processing are performed.
  • the resolution and S / N ratio are adjusted in a well-balanced manner according to the imaging conditions, and the processing load can be appropriately reduced according to the imaging conditions, as in the above-described processing. It becomes.
  • ⁇ Example executed by software> By the way, the series of processes described above can be executed by hardware, but can also be executed by software.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
  • FIG. 11 shows a configuration example of a general-purpose personal computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 1001.
  • An input / output interface 1005 is connected to the CPU 1001 via a bus 1004.
  • a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.
  • the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, programs, and various types.
  • a storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 1009 that executes communication processing via a network represented by the Internet.
  • magnetic disks including flexible disks
  • optical disks including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors
  • a drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.
  • the CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 1001) can be provided by being recorded on the removable medium 1011 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1011 to the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • an endoscope apparatus in which an objective lens is provided at a distal end of a rigid insertion portion to be inserted into a body cavity;
  • An imaging unit that captures an optical image collected from the objective lens and is input from the endoscope device, and outputs the image as an image signal;
  • a low-frequency component extraction unit that extracts a low-frequency image that is a low-frequency component from the image signal;
  • a high-frequency component extraction unit that extracts a high-frequency image that is a high-frequency component from the image signal;
  • An image quality improvement processing unit that applies an image quality improvement process to the low-frequency image;
  • At least an output unit that outputs the low-frequency image that has been improved in image quality by the image quality improving processing unit as an output image,
  • the output unit is a pixel obtained by adding the pixel value of each pixel of the high-frequency image to the pixel value of each pixel of the low-frequency image that has been improved in image quality according to the condition information
  • condition information is information indicating whether the ratio of a noise component of the image signal captured by the imaging unit is high.
  • the information indicating whether or not the condition information is a condition in which a ratio of a noise component of the image signal captured by the imaging unit is high is a light source that emits illumination light when the imaging unit captures an image.
  • the endoscope system according to any one of (1) to (3), wherein the image quality improvement processing unit performs image quality improvement processing on the reduced low-frequency image.
  • the reduction unit reduces the low-frequency image at a reduction rate according to the condition information,
  • the image quality improvement processing unit includes a spatial direction noise removal, a time direction noise removal, a color correction, and a band enhancement process.
  • the high-frequency component extraction unit is a condition in which a ratio of a noise component of the image signal captured in the imaging unit is high.
  • an image signal composed of a pixel value obtained by adding the pixel value of each pixel of the high-frequency image to the pixel value of each pixel of the low-frequency image with the high image quality is output image
  • the output method of the endoscope system is a pixel value obtained by adding the pixel value of each pixel of the high-frequency image to the pixel value of each pixel of the low-frequency image with the high image quality.

Abstract

 本技術は、撮像条件に応じて、解像度と、S/N比とがバランスよく調整されるとともに、さらに、撮像条件に応じて、処理負荷を変化させることができる内視鏡システム、および内視鏡システムの動作方法、並びにプログラムに関する。 内視鏡装置により撮像された体腔内の画像信号より低域成分からなる低域画像と、高域成分からなる高域画像が抽出される。低域画像は、所定の縮小率で縮小されて、高画質化処理がなされると、縮小率に対応する拡大率で拡大される。このとき、撮像状態を示す条件情報に基づいて、撮像時の明るさが十分であって、高域成分にノイズ成分が多く含まれない場合、低域画像と高域画像とが加算されて出力画像として出力される。また、条件情報に基づいて、撮像時の明るさが十分ではなく、高域成分にノイズ成分が多く含まれる場合、低域画像のみを出力画像として出力する。本技術は、内視鏡システムに適用することができる。

Description

内視鏡システム、および内視鏡システムの動作方法、並びにプログラム
 本技術は、内視鏡システム、および内視鏡システムの動作方法、並びにプログラムに関し、特に、内視鏡システムを構成する内視鏡装置により撮像された画像の高画質化処理において、撮像条件に応じて、処理負荷の低減と、解像度の向上とをバランスよく調整できるようにした内視鏡システム、および内視鏡システムの動作方法、並びにプログラムに関する。
 内視鏡システムによる撮像においては、一般的な白色光に加えて、IR(赤外光)観察や、PDD(光線力学的診断)観察のために狭帯域光や近赤外光といった特殊光を利用した撮像がある。
 このような特殊光を用いた撮像技術について、例えば、周波数分離を用いた処理により、特殊光を用いて撮像された入力画像を用いる技術が提案されている(特許文献1参照)。
特開2012-075545号公報
 ところで、内視鏡システムなどでは、全ての画像処理を撮像された入力画像のサイズのまま行うと、リアルタイムで処理可能な構成が必要となるため、処理コスト(処理時間や、処理を行うハードウェアの規模)が大きくなる。特に、近年撮像される画像サイズがHD(High Definition)や4K(水平4000×垂直2000前後)など、解像度が高くなることで、この傾向は顕著である。
 上述した様に、この内視鏡システムにおける撮像には、照明光として白色光を用いた通常撮像と、狭帯域光や近赤外光などの特殊光を用いた特殊光撮像とがある。これらは光量が異なるため入力される信号の性質が異なるにもかかわらず、いずれの照明光を用いた場合でも、その画像処理は同一であるため、それぞれの画像信号の特性には必ずしも適さないことがあり、処理に無駄が生じることがあった。
 本技術は、このような状況に鑑みてなされたものであり、特に、照明光の種別やレンズ口径などの明るさに係る撮像条件に応じて、画像処理に係る処理負荷の低減と、高画質化といった相反する効果をバランスよく調整できるようにするものである。
 本技術の一側面の内視鏡システムは、体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置と、前記内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、前記低域画像に高画質化処理を施す高画質化処理部と、少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部とを含み、前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する。
 前記条件情報は、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報とすることができる。
 前記条件情報における、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報には、前記撮像部が撮像する際の照明光を発する光源装置により発せられる光の種別を示す情報、並びに、前記内視鏡装置における前記対物レンズの口径、および前記撮像部と、前記対物レンズとの間に設けられたリレーレンズの口径の情報を含ませるようにすることができる。
 前記低域画像を所定の縮小率で縮小する縮小部と、前記縮小率に対応する拡大率で画像を拡大する拡大部とをさらに含ませるようにすることができ、前記高画質化処理部には、前記縮小された低域画像に高画質化処理を施すようにさせることができる。
 前記縮小部には、前記条件情報に応じた縮小率で前記低域画像を縮小させ、前記拡大部には、前記条件情報に応じた前記縮小率に対応する縮大率で、前記高画質化処理されている、前記低域画像の縮小画像を拡大させるようにすることができる。
 前記高画質化処理部には、空間方向ノイズ除去、時間方向ノイズ除去、色補正、および帯域強調の処理を含ませるようにすることができる。
 前記撮像部における撮像時の条件情報に応じて、前記高域成分抽出部には、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるとき、前記画像信号からの前記高域画像の抽出を停止させるようにすることができる。
 本技術の一側面の内視鏡システムの動作方法は、体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力し、前記画像信号より低域成分である低域画像を抽出し、前記画像信号より高域成分である高域画像を抽出し、前記低域画像に高画質化処理を施し、少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力し、撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する。
 本技術の一側面のプログラムは、コンピュータを、体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置と、前記内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、前記低域画像に高画質化処理を施す高画質化処理部と、少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部として機能させ、前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する。
 本技術の一側面においては、体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置から入力される、前記対物レンズによって集光された光学像が撮像され、画像信号として出力され、前記画像信号より低域成分である低域画像が抽出され、前記画像信号より高域成分である高域画像が抽出され、前記低域画像に高画質化処理が施され、少なくとも、高画質化された前記低域画像が出力画像として出力され、撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値が加算された画素値からなる画像信号が前記出力画像として出力される。
 本技術の一側面の内視鏡システムの各構成は、それぞれ独立した装置であっても良いし、内視鏡システムの各構成のそれぞれとして機能するブロックであっても良い。
 本技術の一側面によれば、内視鏡装置における撮像時の明るさに係る条件情報に応じて、画像の高画質化処理に係る処理負荷の低減と、高解像度化といった相反する効果をバランスよく調整することが可能となる。
腹腔鏡下手術の概要を示す図である。 本技術を適用した内視鏡システムの構成例を示すブロック図である。 図2の内視鏡装置の他の構成例を示すブロック図である。 図2の画像処理装置の第1の実施の形態の構成例を説明する図である。 図4の画像処理装置による画像処理を説明するフローチャートである。 低高域合成部の動作を説明する図である。 図2の画像処理装置における画像処理による効果を説明する図である。 図2の画像処理装置における画像処理による効果を説明する図である。 図2の画像処理装置の第2の実施の形態の構成例を説明する図である。 図9の画像処理装置による画像処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
 <内視鏡システムの概要>
 図1は、本技術を適用した内視鏡システムの概要を説明する図である。
 この内視鏡システムは、近年、医療現場において従来の開腹手術に代わって行われる腹腔鏡下手術において利用される。
 すなわち、図1で示されるように、腹腔鏡下手術では、例えば腹部の手術を行う場合、従来行われていた腹壁1を切って開腹する代わりに、トロッカ2と称される開孔器具が腹壁1に数か所取り付けられ、トロッカ2に設けられている孔から腹腔鏡(以下、内視鏡装置または内視鏡とも称する)11と処置具3が体内に挿入される。そして、内視鏡装置11によってビデオ撮像された患部(腫瘍等)4の画像をリアルタイムに見ながら、処置具3によって患部4を切除するなどの処置が行われる。
 図1に示されるような直線棒状の内視鏡装置11では、ヘッド部24を術者、助手、スコピスト、またはロボットなどが保持している。
 <内視鏡システムの構成例>
 ここで、図2を参照して、本技術の実施の形態である内視鏡システムの構成例について説明する。この内視鏡システム10は、内視鏡装置11、画像処理装置12、および表示装置13から構成される。
 内視鏡装置11と画像処理装置12は、ケーブルを介して接続する他、無線で接続してもよい。また、画像処理装置12を手術室から離れた場所に配置し、構内LANやインターネットなどのネットワークを介して接続するようにしてもよい。画像処理装置12と表示装置13の接続についても同様とする。
 内視鏡装置11は、直線棒状の鏡筒部21とヘッド部24から構成される。鏡筒部21は、光学視管または硬性管とも称され、その長さが数10センチ程度であり、体内に挿入される側の一端には対物レンズ22が設けられており、他端はヘッド部24に接続されている。鏡筒部21の内部にはリレー光学系の光学レンズ部23が設けられている。なお、鏡筒部21の形状は、直線棒状に限定されるものではない。
 鏡筒部21には、大きく分類して、図2の鏡筒軸と光軸が等しい直視鏡と、鏡筒軸と光軸とが所定の角度をなす斜視鏡がある。図2の鏡筒部21は、このうち直視鏡を例にしたものである。
 ヘッド部24には、撮像部25が内蔵されている。撮像部25は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、鏡筒部21から入力される患部の光学像を所定のフレームレートで画像信号に変換する。また、内視鏡装置11には、光源装置14が接続されており、撮像に必要とされる光源の供給を受けて、患部4を照射する。この際、光源装置14は、さまざまな波長の光を切り替えて発することができ、通常光に加えて、患部4を特に識別できるような特殊光を発することもできる。したがって、撮像部25により撮像される画像は、通常光による画像信号の他、特殊光による画像信号を撮像することも可能である。
 内視鏡装置11においては、対物レンズ22により集光される患部4の光学像が光学レンズ部23を介してヘッド部24の撮像部25に入射され、撮像部25によって所定のフレームレートの画像信号に変換されて後段の画像処理装置12に出力される。また、ヘッド部24は、光源装置14により発せられている光の種別、対物レンズ22の口径、光学レンズ部23の口径といった情報を条件情報として、画像処理装置12に供給する構成であるものとする。この条件情報については、ヘッド部24の図示せぬ部位にユーザが予め入力する構成を設けて、この部位から条件情報として画像処理装置12に供給するようにしても良い。また、条件情報は、画像処理装置12において、撮像される画像信号を解析することにより、画像処理装置12が、自ら認識する構成とするようにしてもよい。ここでは、いずれかの方法により画像処理装置12に、条件情報が入力されることを前提として説明を進めるものとする。尚、光源装置14から画像処理装置12に供給される光の種別の情報については、光源装置14から画像処理装置12に直接供給される構成にしてもよい。
 図3は、内視鏡装置11の他の構成例を示している。同図に示されるように、対物レンズ22の直後に撮像部25を配置し、鏡筒部21の内部の光学レンズ部23を省略するようにしてもよい。
 <画像処理装置の第1の実施の形態>
 次に、図4のブロック図を参照して、画像処理装置12の第1の実施の形態の構成例について説明する。
 画像処理装置12は、低域抽出部51、高域抽出部52、縮小部53、ノイズ除去部54、色補正部55、拡大部56、低高域合成部57、構造強調部58、および電子ズーム部59を備えている。
 低域抽出部51は、入力画像における低域成分を抽出し、高域抽出部52、および縮小部53に出力する。より詳細には、低域抽出部51は、例えば、LPF(Low Pass Filter)より構成されており、入力画像における低域成分を抽出し、低域画像として高域抽出部52、および縮小部53に出力する。
 高域抽出部52は、入力画像の各画素について、高域成分を抽出し、低高域合成部57に出力する。より詳細には、高域抽出部52は、例えば、入力画像の各画素について、低域抽出部51より供給されてくる低域成分を減算することで、高域成分を抽出して、低高域合成部57に出力する。高域抽出部52は、光源装置14において発せられる光源の種別、並びに対物レンズ22、および光学レンズ部23の口径などからなる条件情報に応じて、高域成分が不要となる場合、高域成分の抽出を停止する。
 縮小部53は、低域成分からなる画像信号を、低解像度の画像に縮小し、縮小画像としてノイズ除去部54に出力する。より詳細には、縮小部53は、例えば、低域成分からなる画像信号の画素信号を、所定の間隔で間引くなどにより画素解像度を低下させて縮小する。
 ノイズ除去部54は、縮小画像のノイズ除去処理を施す。より具体的には、ノイズ除去部54は、例えば、縮小画像に対して、2D NR(2Dimension Noise Reduction)処理(2次元ノイズ除去処理)および3D NR(3Dimension Noise Reduction)処理(3次元ノイズ除去処理)を施し、ノイズを除去して拡大部56に出力する。ここでいう2次元ノイズ除去処理とは、縮小画像内における画像内の信号を用いた、いわゆる空間方向ノイズ除去処理であり、3次元ノイズ除去処理とは、時間方向に複数の画像を用いた、いわゆる時間方向ノイズ除去処理である。
 色補正部55は、ノイズ除去処理が施された縮小画像に色補正を施し、拡大部56に出力する。
 拡大部56は、縮小部53により縮小処理したときの縮小率に対応した拡大率で、帯域強調が施された縮小画像を拡大し、入力画像のサイズと同一の画像サイズに変換して低域成分の画像信号からなる低域画像として低高域合成部57に出力する。
 低高域合成部57は、光源装置14からの光源の種別、内視鏡装置11における光学レンズ部23、および、光学レンズ部23の口径サイズといった撮像に係る明るさを特定する条件情報に基づいて、内蔵する加算部57a(図6)を制御して、高域成分の画像信号と、低域成分の画像信号とを加算した画像信号、または、低域成分のみの画像信号のいずれかを高画質化した画像信号として構造強調部58に出力する。
 すなわち、条件情報として、光源装置14の発する光が特殊光であることを示す情報、対物レンズ22の口径サイズが所定のサイズより小さいことを示す情報、および、光学レンズ部23の口径サイズが所定のサイズより小さいといった情報のいずれかが含まれているような場合、撮像に係る明るさが比較的暗い状態であることが示されることになる。このような場合、入力画像における、特に高域成分にはノイズ成分が多く含まれることになる。そこで、このような条件情報の場合について、低高域合成部57は、加算部57a(図6)の動作を停止させて、高画質化された低域成分のみからなる低域画像を、高画質化処理結果として出力する。すなわち、特殊光撮像の場合、高域成分にはノイズ成分が多く含まれることから、低域画像のみを出力することで、低解像度ながらS/N(信号対ノイズ比率)に優れた画像を出力することが可能となる。
 一方、条件情報として、光源装置14の発する光が白色光からなる通常光であることを示す情報、対物レンズ22の口径サイズが所定のサイズよりも大きいといった情報、および光学レンズ部23の口径サイズが所定のサイズより大きいといった情報がいずれも揃っているような場合、撮像に係る明るさが比較的明るい状態であることが示されることになる。このような場合、高域成分においてもノイズ成分が比較的少ない。そこで、低高域合成部57は、加算部57a(図6)を制御して、各画素について高画質化された低域成分に高域成分を加算した結果を高画質化処理結果として出力する。このように、撮像時の明るさに係る条件情報に基づいて処理を切り替えるようにすることで、適切に高画質化された画像を、適切な解像度で後段に出力する。すなわち、通常光撮像の場合、高域成分にはノイズ成分が比較的少ないので、高画質化された低域画像に、高域画像を加算することで、高解像度で、かつ、高画質の画像を出力することが可能となる。
 構造強調部58は、高画質化された画像信号に構造強調処理を施して、電子ズーム部59に出力する。
 電子ズーム部59は、構造強調部58より供給されてきた、構造強調処理された画像信号を、表示装置13に対して適切なサイズに電子的に拡大し、出力する。
 <図4の画像処理装置による画像処理>
 次に、図5のフローチャートを参照して、図4の画像処理装置12による画像処理について説明する。尚、ここでは画像処理装置12に対して光源装置14から、通常光である白色光を発して通常撮像している状態であるか、または、特殊光を発して特殊光撮像している状態であるかを示す条件情報が供給されることを前提とする。さらに、内視鏡装置11における対物レンズ22、および光学レンズ部23の口径に係る情報についても画像処理装置12に条件情報として供給されることを前提とする。
 ステップS11において、低域抽出部51は、入力画像の各画素に対して、LPFによる低域成分抽出処理を施して低域成分を抽出して高域抽出部52、および縮小部53に出力する。
 ステップS12において、高域抽出部52は、光源装置14からの条件情報が通常光撮像や、所定のサイズよりも口径の大きな対物レンズ22および光学レンズ部23が使用されているといった比較的明るい、通常光における撮像状態を示す条件情報であるか否かを判定する。ステップS12において、例えば、条件情報が比較的明るい状態での撮像状態であることを示すものである場合、処理は、ステップS13に進む。
 ステップS13において、高域抽出部52は、入力画像の各画素について、低域成分を減算することで、高域成分を抽出し、高域成分を低高域合成部57に出力する。尚、ステップS12において、条件情報が比較的暗い状態での撮像状態を示す場合、ステップS13の処理はスキップされる。すなわち、この場合、後述する様に、後段において高域成分は不要となるため、高域成分からなる画像信号の抽出がなされない。結果として、高域成分を抽出するための処理負荷を低減することが可能となる。
 ステップS14において、縮小部53は、入力画像の低域成分からなる画像信号の画像サイズを縮小し、低域成分からなる縮小画像としてノイズ除去部54に出力する。
 ステップS15において、ノイズ除去部54は、低域成分からなる縮小画像に対してノイズ除去処理を施して、色補正部55に出力する。
 ステップS16において、色補正部55は、ノイズ除去処理された、低域成分からなる縮小画像に対して、色補正を施して拡大部56に出力する。
 ステップS17において、拡大部56は、縮小部53において縮小されたときの縮小率に対応する拡大率で、ノイズ除去された縮小画像を拡大し、入力画像と同一の画像サイズに戻して低高域合成部57に出力する。
 ステップS18において、低高域合成部57は、条件情報に基づいて、比較的明るい状態での撮像状態であるか否かを判定し、比較的明るい状態での撮像状態であることが示されている場合、処理は、ステップS19に進む。
 ステップS19において、低高域合成部57は、拡大部56より供給されてくるノイズ除去処理された低域成分の画像信号(低域画像)と、高域抽出部52より供給されてくる高域成分の画像信号(高域画像)とを加算して合成し、高画質化された画像(出力画像)として構造強調部58に出力する。すなわち、低高域合成部57は、図6の上部で示されるように、その内部における加算部57aを制御して、拡大部56より供給されてくるノイズ除去処理された低域成分の画像信号(低域画像)と、高域抽出部52より供給されてくる高域成分の画像信号(高域画像)とを加算させる。そして、低高域合成部57は、加算結果となる画像信号を高解像度で、かつ、高画質化された画像信号(出力画像)として構造強調部58に出力する。
 一方、ステップS18において、条件情報に基づいて、比較的暗い状態による撮像状態であることを示す場合、処理は、ステップS20に進む。
 ステップS20において、低高域合成部57は、拡大部56より供給されてくる低域成分からなる画像信号(低域画像)のみを、そのままノイズ除去処理された画像信号(出力画像)として構造強調部58に出力する。すなわち、低高域合成部57は、図6の下部で示されるように、内蔵する加算部57aにおける動作を停止させ、拡大部56より供給されてくるノイズ除去処理された低域成分の画像信号(低域画像)のみを高画質化された画像信号(出力画像)として構造強調部58に出力する。
 ステップS21において、構造強調部58は、低高域合成部57より供給されてくる画像信号に構造強調処理を施して電子ズーム部59に出力する。
 ステップS22において、電子ズーム部59は、構造強調処理が施された画像信号を表示装置13において適合する、解像度に変換処理し、表示装置13に出力して表示させる。
 以上の処理により、条件情報に基づいて、白色光からなる通常光における撮像や、大口径の対物レンズ22、および光学レンズ部23からなる条件となる撮像などの明るさが十分な通常撮像の場合(鏡筒部(光学スコープ)21の直径が大きく、太い場合)、撮像される画像信号の高域成分には、ノイズ信号の割合が低いことから高域成分と高画質化された低域成分とを加算した画像をノイズ除去処理された画像として出力するようにした。
 一方、特殊光における撮像や、小口径の光学レンズ部23など明るさが不足しているような撮像の場合(鏡筒部(光学スコープ)21の直径が小さく、細い場合)、画像信号の高域成分には、ノイズ信号の割合が高いことから、低域成分に高域成分を加算せず、高画質化された低域成分の画像をそのまま出力画像として出力するようにした。
 これにより、図7の左側で示されるように、白色光撮像(通常撮像)においては、高域成分においてノイズ成分が少ないため、図中右側で示される特殊光撮像に対して、高画質で、かつ、高解像度の画像を出力することが可能となる。一方、図中右側で示されるように、特殊光撮像においては、高域成分においてノイズ成分が多いため、図中右側で示される白色光撮像(通常撮像)に対して、低解像度ながら、図中の矢印で示される分だけS/N比をより高い状態にすることが可能となる。
 尚、図7では、左部に高域成分が加算された画像における解像度とS/N比が示されており、右部に高域成分が加算されていない画像における解像度とS/N比が示されている。
 すなわち、高域成分にノイズが少ない通常撮像に対しては、図8の左上部の画像で示されるように、図8の右上部の画像より高解像度化でき、より鮮明な画像を提供することが可能となる。また、高域成分にノイズが多い特殊光撮像に対しては、図8の右下部の画像で示されるように、図8の左下部の画像よりも、S/N比を向上させることで、感度を向上させ、より認識し易い画像を提供することが可能となる。
 尚、図8では、左部に高域成分が加算された画像が示されており、右部には高域成分が加算されていない画像が示されている。さらに、図8においては、それぞれ上段が通常撮像における画像であり、下段が特殊光撮像における画像が示されている。
 また、低域成分については、画像を縮小して、ノイズ除去、および色補正がなされた後、拡大して、入力画像のサイズに戻すようにしているので、ノイズ除去、および色補正の各処理における処理負荷を低減させることが可能となる。
 結果として、撮像状態に応じて、適切に、高画質化、または、S/N比の改善を施した画像を表示することが可能となる。
 また、以上においては、撮像条件がノイズ成分を多く含む比較的暗い環境下の撮像状況の場合については、高域抽出部52における動作を停止させる例について説明してきたが、低高域合成部57において、低域成分と加算されないので、常に高域抽出部52が動作していても、同様の効果を奏することが可能である。
 <画像処理装置の第2の実施の形態>
 以上においては、入力画像の低域成分については、一律のサイズの画像に縮小された後、ノイズ除去、および色補正がなされた後、拡大する例について説明してきた。しかしながら、高域成分に含まれるノイズ成分の割合の高さ、すなわち、S/N比は、暗くなるほど低減し、ノイズの割合が高くなる。そこで、例えば、入力画像や撮像時の明るさといった撮像条件に応じて、縮小サイズを変更させるようにしてもよい。
 図9は、入力画像や撮像時の明るさといった撮像条件に応じて、縮小サイズを変更させるようにした画像処理装置12の第2の実施の形態の構成例を示している。尚、図9における画像処理装置12において、図4における画像処理装置12と異なるのは、縮小部53、および拡大部56に代えて、縮小部81、および拡大部82を設けた点である。
 縮小部81は、基本的な構成は、縮小部53と同様であるが、さらに、撮像条件に応じて、縮小率を変化させて入力画像を縮小して出力する。すなわち、撮像条件に応じて、より暗く、ノイズ成分が高いS/N比の低い画像については、より高い縮小率に設定し、通常撮像に近い、明るい条件であるほど、縮小率を小さくする。
 拡大部82は、撮像条件に応じて、縮小部81の縮小率に対応する拡大率で画像信号を拡大して低高域合成部57に出力する。
 すなわち、このような構成により、撮像条件に応じた縮小率で縮小された画像に対して、ノイズ除去、および色補正を施した後、拡大して低高域合成部57に出力するため、入力画像のノイズレベルに応じた適切な処理を施すことが可能となり、合わせて、適切に処理負荷を低減させることが可能となる。
 <図9の画像処理装置における画像処理>
 次に、図10のフローチャートを参照して、図9の画像処理装置12における画像処理について説明する。尚、図10のフローチャートにおけるステップS41乃至S43,S45,S46,S48乃至S52の処理は、図5におけるステップS11乃至S13,S15,S16,S18乃至S22における処理と同様であるので、その説明は省略する。
 すなわち、図10におけるステップS41乃至S43において、低域成分と高域成分の画像信号が抽出された後、ステップS44において、縮小部81は、条件情報に基づいて、通常撮像に近い条件であるほど、縮小率を小さくし、より元画像に近いサイズのままに縮小し、特殊撮像などの高域成分にノイズ成分が多く含まれるような画像については、より小さいサイズにまで縮小する。
 ステップS45,S46において、ノイズ除去、および色補正がなされると、ステップS47において、拡大部82は、条件情報に基づいて、縮小部81における縮小率に対応した拡大率で画像を拡大して、低高域合成部57に出力する。
 そして、ステップS48乃至S52において、高低域合成、構造強調、および電子ズーム処理がなされる。
 結果として、上述した処理と同様に、撮像条件に応じて、解像度と、S/N比とがバランスよく調整されるとともに、さらに、撮像条件に応じて、処理負荷を適切に低減させることが可能となる。
 <ソフトウェアにより実行させる例>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
 図11は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本技術は、以下のような構成も取ることができる。
(1) 体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置と、
 前記内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、
 前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、
 前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、
 前記低域画像に高画質化処理を施す高画質化処理部と、
 少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部とを含み、
 前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
 内視鏡システム。
(2) 前記条件情報は、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報である
 (1)に記載の内視鏡システム。
(3) 前記条件情報における、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報は、前記撮像部が撮像する際の照明光を発する光源装置により発せられる光の種別を示す情報、並びに、前記内視鏡装置における前記対物レンズの口径、および前記撮像部と、前記対物レンズとの間に設けられたリレーレンズの口径の情報を含む
 (2)に記載の内視鏡システム。
(4) 前記低域画像を所定の縮小率で縮小する縮小部と、
 前記縮小率に対応する拡大率で画像を拡大する拡大部とをさらに含み、
 前記高画質化処理部は、前記縮小された低域画像に高画質化処理を施す
 (1)乃至(3)のいずれかに記載の内視鏡システム。
(5) 前記縮小部は、前記条件情報に応じた縮小率で前記低域画像を縮小し、
 前記拡大部は、前記条件情報に応じた前記縮小率に対応する縮大率で、前記高画質化処理されている、前記低域画像の縮小画像を拡大する
 (4)に記載の内視鏡システム。
(6) 前記高画質化処理部は、空間方向ノイズ除去、時間方向ノイズ除去、色補正、および帯域強調の処理を含む
 (1)乃至(5)のいずれかに記載の内視鏡システム。
(7) 前記撮像部における撮像時の条件情報に応じて、前記高域成分抽出部は、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるとき、前記画像信号からの前記高域画像の抽出を停止する
 (1)乃至(6)のいずれかに記載の内視鏡システム。
(8) 体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力し、
 前記画像信号より低域成分である低域画像を抽出し、
 前記画像信号より高域成分である高域画像を抽出し、
 前記低域画像に高画質化処理を施し、
 少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力し、
 撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
 内視鏡システムの動作方法。
(9) コンピュータを、
 体腔に挿入される硬性の挿入部の先端に対物レンズが設けられている内視鏡装置と、
 前記内視鏡装置から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、
 前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、
 前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、
 前記低域画像に高画質化処理を施す高画質化処理部と、
 少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部として機能させ、
 前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
 プログラム。
 2 トロッカ, 10 内視鏡システム, 11 内視鏡装置, 12 画像処理装置, 13 表示装置, 14 光源装置, 21 鏡筒部, 22 対物レンズ, 23 光学レンズ部, 24 ヘッド部, 25 撮像部, 51 低域抽出部, 52 高域抽出部, 53 縮小部, 54 ノイズ除去部, 55 色補正部, 56 拡大部, 57 低高域合成部, 58 構造強調部, 59 電子ズーム, 81 縮小部, 82 拡大部

Claims (9)

  1.  体腔に挿入される挿入部の先端に対物レンズが設けられている内視鏡と、
     前記内視鏡から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、
     前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、
     前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、
     前記低域画像に高画質化処理を施す高画質化処理部と、
     少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部とを含み、
     前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
     内視鏡システム。
  2.  前記条件情報は、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報である
     請求項1に記載の内視鏡システム。
  3.  前記条件情報における、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるか否かを示す情報は、前記撮像部が撮像する際の照明光を発する光源装置により発せられる光の種別を示す情報、並びに、前記内視鏡装置における前記対物レンズの口径、および前記撮像部と、前記対物レンズとの間に設けられたリレーレンズの口径の情報を含む
     請求項2に記載の内視鏡システム。
  4.  前記低域画像を所定の縮小率で縮小する縮小部と、
     前記縮小率に対応する拡大率で画像を拡大する拡大部とをさらに含み、
     前記高画質化処理部は、前記縮小された低域画像に高画質化処理を施す
     請求項1に記載の内視鏡システム。
  5.  前記縮小部は、前記条件情報に応じた縮小率で前記低域画像を縮小し、
     前記拡大部は、前記条件情報に応じた前記縮小率に対応する縮大率で、前記高画質化処理されている、前記低域画像の縮小画像を拡大する
     請求項4に記載の内視鏡システム。
  6.  前記高画質化処理部は、空間方向ノイズ除去、時間方向ノイズ除去、色補正、および帯域強調の処理を含む
     請求項1に記載の内視鏡システム。
  7.  前記撮像部における撮像時の条件情報に応じて、前記高域成分抽出部は、前記撮像部において撮像される前記画像信号のノイズ成分の割合が高くなる条件であるとき、前記画像信号からの前記高域画像の抽出を停止する
     請求項1に記載の内視鏡システム。
  8.  体腔に挿入される挿入部の先端に対物レンズが設けられている内視鏡から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力し、
     前記画像信号より低域成分である低域画像を抽出し、
     前記画像信号より高域成分である高域画像を抽出し、
     前記低域画像に高画質化処理を施し、
     少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力し、
     撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
     内視鏡システムの動作方法。
  9.  コンピュータを、
     体腔に挿入される挿入部の先端に対物レンズが設けられている内視鏡と、
     前記内視鏡から入力される、前記対物レンズによって集光された光学像を撮像し、画像信号として出力する撮像部と、
     前記画像信号より低域成分である低域画像を抽出する低域成分抽出部と、
     前記画像信号より高域成分である高域画像を抽出する高域成分抽出部と、
     前記低域画像に高画質化処理を施す高画質化処理部と、
     少なくとも、前記高画質化処理部により高画質化された前記低域画像を出力画像として出力する出力部として機能させ、
     前記出力部は、前記撮像部における撮像時の条件情報に応じて、前記高画質化された前記低域画像の各画素の画素値に、前記高域画像の各画素の画素値を加算した画素値からなる画像信号を前記出力画像として出力する
     プログラム。
PCT/JP2015/081823 2014-11-25 2015-11-12 内視鏡システム、および内視鏡システムの動作方法、並びにプログラム WO2016084608A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016537591A JP6020950B1 (ja) 2014-11-25 2015-11-12 内視鏡システム、および内視鏡システムの作動方法、並びにプログラム
CN201580004855.4A CN105916430B (zh) 2014-11-25 2015-11-12 内窥镜系统以及内窥镜系统的操作方法
US15/112,234 US9986890B2 (en) 2014-11-25 2015-11-12 Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
US15/985,322 US10799087B2 (en) 2014-11-25 2018-05-21 Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-237702 2014-11-25
JP2014237702 2014-11-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/112,234 A-371-Of-International US9986890B2 (en) 2014-11-25 2015-11-12 Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
US15/985,322 Continuation US10799087B2 (en) 2014-11-25 2018-05-21 Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging

Publications (1)

Publication Number Publication Date
WO2016084608A1 true WO2016084608A1 (ja) 2016-06-02

Family

ID=56074177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/081823 WO2016084608A1 (ja) 2014-11-25 2015-11-12 内視鏡システム、および内視鏡システムの動作方法、並びにプログラム

Country Status (4)

Country Link
US (2) US9986890B2 (ja)
JP (2) JP6020950B1 (ja)
CN (1) CN105916430B (ja)
WO (1) WO2016084608A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148973A (ja) * 2017-03-10 2018-09-27 株式会社Jvcケンウッド 手術システム、手術器具、トロカール及び判定方法
JP2020166814A (ja) * 2019-03-11 2020-10-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
WO2021079723A1 (ja) * 2019-10-21 2021-04-29 ソニー株式会社 画像処理装置、画像処理方法および内視鏡システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6631331B2 (ja) * 2016-03-10 2020-01-15 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
WO2018003502A1 (ja) * 2016-06-28 2018-01-04 ソニー株式会社 撮像装置、撮像方法、プログラム
WO2018159461A1 (ja) * 2017-03-03 2018-09-07 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
CN112640443B (zh) * 2018-09-20 2023-05-19 奥林巴斯株式会社 图像处理装置、图像处理方法以及内窥镜系统
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
CN109949281A (zh) * 2019-03-11 2019-06-28 哈尔滨工业大学(威海) 一种胃镜图像质量检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100936A (ja) * 2007-10-23 2009-05-14 Fujinon Corp 画像処理装置
JP2011193983A (ja) * 2010-03-18 2011-10-06 Olympus Corp 内視鏡システム、撮像装置及び制御方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4888639A (en) * 1987-05-22 1989-12-19 Olympous Optical Co., Ltd. Endoscope apparatus having integrated disconnectable light transmitting and image signal transmitting cord
JP2643965B2 (ja) * 1988-01-19 1997-08-25 オリンパス光学工業株式会社 内視鏡装置
JP4370008B2 (ja) * 1998-11-17 2009-11-25 オリンパス株式会社 内視鏡画像処理装置
JP4534756B2 (ja) * 2004-12-22 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、プログラム、及び記録媒体
TWI286032B (en) * 2005-07-05 2007-08-21 Ali Corp Image enhancement system
JP5355846B2 (ja) * 2006-05-08 2013-11-27 オリンパスメディカルシステムズ株式会社 内視鏡用画像処理装置
JP2008015741A (ja) * 2006-07-05 2008-01-24 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びこれを用いた撮像装置
US7949182B2 (en) * 2007-01-25 2011-05-24 Hewlett-Packard Development Company, L.P. Combining differently exposed images of the same object
JP5076755B2 (ja) * 2007-09-07 2012-11-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2009253760A (ja) * 2008-04-08 2009-10-29 Olympus Imaging Corp 画像処理装置、画像処理方法及び電子機器
KR101493694B1 (ko) * 2008-08-01 2015-02-16 삼성전자주식회사 이미지 처리장치, 이미지 처리방법 및 처리방법을실행시키기 위한 프로그램을 저장한 기록매체
KR101538655B1 (ko) * 2008-11-21 2015-07-22 삼성전자주식회사 이미지 처리장치, 이미지 처리방법 및 처리방법을 실행시키기 위한 프로그램을 저장한 기록매체
JP5493760B2 (ja) * 2009-01-19 2014-05-14 株式会社ニコン 画像処理装置およびデジタルカメラ
US8456541B2 (en) * 2009-02-18 2013-06-04 Olympus Corporation Image processing apparatus and image processing program
US8724928B2 (en) * 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
KR101618298B1 (ko) * 2009-10-23 2016-05-09 삼성전자주식회사 고감도 영상 생성 장치 및 방법
JP4973719B2 (ja) * 2009-11-11 2012-07-11 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
JP5609080B2 (ja) * 2009-11-30 2014-10-22 富士通株式会社 画像処理装置、画像表示装置、画像処理プログラム及び画像処理方法
JP5640370B2 (ja) * 2009-12-18 2014-12-17 ソニー株式会社 画像処理装置,画像処理方法及び撮像装置
JP5541914B2 (ja) * 2009-12-28 2014-07-09 オリンパス株式会社 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
KR101422096B1 (ko) * 2010-02-12 2014-07-23 캐논 가부시끼가이샤 화상 처리장치 및 화상 처리방법
JP5366855B2 (ja) * 2010-02-16 2013-12-11 富士フイルム株式会社 画像処理方法及び装置並びにプログラム
JP2011234342A (ja) * 2010-04-08 2011-11-17 Canon Inc 画像処理装置及びその制御方法
JP2011218090A (ja) * 2010-04-14 2011-11-04 Olympus Corp 画像処理装置、内視鏡システム及びプログラム
JP4991907B2 (ja) * 2010-05-11 2012-08-08 キヤノン株式会社 画像処理装置、および、画像処理装置の制御方法
JP2012075545A (ja) 2010-09-30 2012-04-19 Fujifilm Corp 内視鏡システムおよび内視鏡の較正方法
JP5335017B2 (ja) * 2011-02-24 2013-11-06 富士フイルム株式会社 内視鏡装置
KR101828411B1 (ko) * 2011-09-21 2018-02-13 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
JP5816511B2 (ja) * 2011-10-04 2015-11-18 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP2014002635A (ja) * 2012-06-20 2014-01-09 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2014021928A (ja) * 2012-07-23 2014-02-03 Canon Inc 画像処理装置、画像処理方法およびプログラム
US9639915B2 (en) * 2012-08-08 2017-05-02 Samsung Electronics Co., Ltd. Image processing method and apparatus
US9106813B2 (en) * 2013-02-27 2015-08-11 Samsung Electronics Co., Ltd. Noise suppression devices and image capturing apparatuses having the same
CN104125442A (zh) * 2013-04-26 2014-10-29 索尼公司 图像处理方法、装置以及电子设备
JP2014230176A (ja) * 2013-05-23 2014-12-08 ソニー株式会社 画像信号処理装置、画像信号処理方法、撮像装置および画像表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100936A (ja) * 2007-10-23 2009-05-14 Fujinon Corp 画像処理装置
JP2011193983A (ja) * 2010-03-18 2011-10-06 Olympus Corp 内視鏡システム、撮像装置及び制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148973A (ja) * 2017-03-10 2018-09-27 株式会社Jvcケンウッド 手術システム、手術器具、トロカール及び判定方法
JP2020166814A (ja) * 2019-03-11 2020-10-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP7406892B2 (ja) 2019-03-11 2023-12-28 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
WO2021079723A1 (ja) * 2019-10-21 2021-04-29 ソニー株式会社 画像処理装置、画像処理方法および内視鏡システム

Also Published As

Publication number Publication date
CN105916430B (zh) 2019-04-23
JP2017000839A (ja) 2017-01-05
US9986890B2 (en) 2018-06-05
US10799087B2 (en) 2020-10-13
JP6020950B1 (ja) 2016-11-02
US20170251901A1 (en) 2017-09-07
CN105916430A (zh) 2016-08-31
US20180263462A1 (en) 2018-09-20
JPWO2016084608A1 (ja) 2017-04-27
JP6794747B2 (ja) 2020-12-02

Similar Documents

Publication Publication Date Title
JP6020950B1 (ja) 内視鏡システム、および内視鏡システムの作動方法、並びにプログラム
JP5870264B2 (ja) 撮像装置、撮像方法、プログラム、および集積回路
US9858666B2 (en) Medical skin examination device and method for processing and enhancing an image of a skin lesion
JP5562808B2 (ja) 内視鏡装置及びプログラム
JP2007124088A (ja) 画像撮影装置
JP2008165312A (ja) 画像処理装置及び画像処理方法
JP2009284001A (ja) 画像処理装置、撮像装置及び画像処理方法
KR101538655B1 (ko) 이미지 처리장치, 이미지 처리방법 및 처리방법을 실행시키기 위한 프로그램을 저장한 기록매체
JP2016519592A (ja) ノイズ認識のエッジ強調
JPWO2018003503A1 (ja) 画像処理装置および画像処理方法、並びに医療用撮像システム
JP5963990B2 (ja) 医療用システム、その画像処理設定方法、及び画像処理装置
WO2017175452A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP4089675B2 (ja) 撮像装置
US7822247B2 (en) Endoscope processor, computer program product, endoscope system, and endoscope image playback apparatus
JP2005182232A (ja) 輝度補正装置および輝度補正方法
WO2017082091A1 (ja) 手術システム、手術用制御方法、およびプログラム
WO2021079723A1 (ja) 画像処理装置、画像処理方法および内視鏡システム
JP6344608B2 (ja) 画像処理装置、画像処理方法、プログラム、及び、手術システム
WO2023090044A1 (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
JP7174064B2 (ja) 画像信号処理装置、画像信号処理方法、プログラム
JP2012000311A (ja) 動画像強調処理システムおよび方法
JP2009258284A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2019067267A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2009017037A (ja) 画像処理装置
JP2012019284A (ja) 画像処理装置、デジタルカメラおよび画像処理プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016537591

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15863817

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15112234

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15863817

Country of ref document: EP

Kind code of ref document: A1