WO2017183307A1 - 内視鏡システム、画像処理装置、及び画像処理装置の作動方法 - Google Patents

内視鏡システム、画像処理装置、及び画像処理装置の作動方法 Download PDF

Info

Publication number
WO2017183307A1
WO2017183307A1 PCT/JP2017/007665 JP2017007665W WO2017183307A1 WO 2017183307 A1 WO2017183307 A1 WO 2017183307A1 JP 2017007665 W JP2017007665 W JP 2017007665W WO 2017183307 A1 WO2017183307 A1 WO 2017183307A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
image
unit
image signal
light
Prior art date
Application number
PCT/JP2017/007665
Other languages
English (en)
French (fr)
Inventor
麻依子 遠藤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP17785652.3A priority Critical patent/EP3446617A4/en
Publication of WO2017183307A1 publication Critical patent/WO2017183307A1/ja
Priority to US16/153,835 priority patent/US20190038111A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Definitions

  • the present invention relates to an endoscope system, an image processing apparatus, and an operation method of the image processing apparatus, and more particularly to an image processing technique and a diagnosis support technique for acquiring information related to blood vessels from an image captured by an endoscope.
  • Patent Document 1 discloses that blood vessels present on the mucous membrane surface layer of a living tissue by weighting each of an image obtained using blue narrow-band light and an image obtained using green narrow-band light. And an endoscope system for extracting blood vessels existing in a deep layer of a living tissue.
  • Patent Document 2 a subject tissue is irradiated with a plurality of narrowband lights having different wavelength regions, and based on a luminance ratio between narrowband image data acquired via an image sensor for each irradiation of each narrowband light.
  • An endoscope system for calculating blood vessel depth and oxygen saturation concentration is disclosed.
  • Patent Literature 1 and Patent Literature 2 blood vessels existing at different depths from images for each of a plurality of wavelength bands acquired by multiframe imaging using a plurality of types of illumination light having different wavelength bands. Can be extracted.
  • the blood vessel depth grasped by the conventional method is relative to whether it is a surface layer or a middle depth layer based on the mucous membrane, and is not an absolute value indicating the actual depth.
  • the absolute blood vessel depth cannot be calculated.
  • the present invention has been made in view of such circumstances, and estimates the absolute blood vessel depth of the blood vessel depicted in the endoscopic image even when the scattering coefficient of the observation target is unknown. It is an object to provide an endoscope system, an image processing apparatus, and an operation method of the image processing apparatus.
  • An endoscope system includes a light source unit that generates a plurality of types of illumination light having different wavelength bands, and an observation target irradiated with any one of the plurality of types of illumination light And a blood vessel shape determination unit that determines a shape pattern of a target blood vessel that is a part or all of a blood vessel included in a captured image to be observed based on an image signal obtained from the image sensor And a blood vessel depth estimation unit that estimates the blood vessel depth of the target blood vessel based on the shape pattern.
  • the shape pattern of the target blood vessel is determined from the image captured by the image sensor, and the blood vessel depth is estimated from the determined shape pattern.
  • the shape of the blood vessel varies depending on the type of blood vessel, and the depth of the living tissue in which the blood vessel exists varies depending on the type of blood vessel.
  • the blood vessel depth of the target blood vessel can be estimated from the relationship between the shape pattern of the blood vessel and the depth.
  • the “image signal obtained from the imaging sensor” may be an image signal acquired in real time from the imaging sensor, or may be an image signal acquired via the imaging sensor and stored in a memory or other storage device. Good.
  • image signal includes the concept of both an analog image signal and a digital image signal. An image signal obtained by performing demosaic processing, color conversion processing, gradation conversion processing, and other various signal processing on the image signal obtained from the image sensor is included in the concept of “image signal obtained from the image sensor”.
  • a “captured image” is an image captured by an image sensor. An image represented by an image signal obtained from the image sensor is included in the concept of “captured image”.
  • the “target blood vessel” is a blood vessel for which the blood vessel depth is estimated.
  • the target blood vessel may be a specific blood vessel which is a part of blood vessels in the captured image, or may be all blood vessels in the captured image.
  • the blood vessel depth estimation unit estimates the blood vessel depth of the target blood vessel using correspondence information in which the blood vessel shape and the blood vessel depth are associated with each other It can be.
  • the blood vessel shape information included in the correspondence information for example, an image or a figure showing a shape pattern can be used.
  • information on the blood vessel shape information on a feature amount describing a shape feature may be used.
  • the depth of the blood vessel included in the correspondence information can be, for example, a numerical value of the depth based on the mucosal surface.
  • the endoscope system according to the second aspect may be configured to include a database storage unit that stores a database relating to correspondence information.
  • the correspondence information is prepared for each part of the biological tissue to be observed, and the correspondence corresponding to the part to be observed that is the observation target.
  • the information can be referred to.
  • a blood vessel thickness measuring unit that measures the thickness of a blood vessel from a captured image of an observation target acquired via an imaging sensor
  • the blood vessel depth estimation unit can be configured to estimate the blood vessel depth based on the shape pattern of the blood vessel of interest and the information on the thickness of the blood vessel of interest obtained by the blood vessel thickness measurement unit.
  • the endoscope system includes a blood vessel designating unit that designates a target blood vessel from the captured image of the observation target acquired via the imaging sensor. It can be configured.
  • the endoscope system includes a blood vessel extraction image generation unit that generates a blood vessel extraction image in which a blood vessel part is extracted from an image signal obtained from an imaging sensor, and the blood vessel designation unit includes a captured image The target blood vessel can be designated from the extracted blood vessel image.
  • Extraction is not limited to the process of separating and extracting only the blood vessel part, but also includes concepts such as a process of emphasizing the blood vessel part and a process of differentiating the blood vessel part from others.
  • the endoscope system includes a display unit that displays an image generated based on an image signal obtained from the imaging sensor, and the blood vessel designating unit displays on the display unit
  • the operation unit can be configured to allow the user to perform an operation of designating the target blood vessel on the displayed image.
  • the user can select a desired blood vessel in the image as a target blood vessel while viewing the image displayed on the display unit.
  • the blood vessel designating unit may include an automatic designation processing unit that automatically designates the target blood vessel.
  • the target blood vessel can be estimated from the observation mode, the imaging condition, and the like, and the target blood vessel can be automatically designated from within the captured image.
  • an aspect having a structure in which the blood vessel of interest is automatically selected is more preferable.
  • the blood vessel designating unit automatically designates the target blood vessel according to the wavelength band of the illumination light irradiated to the observation target when imaging the observation target. can do.
  • the blood vessel designating unit is A blood vessel that is thinner than a prescribed blood vessel thickness can be designated as a target blood vessel.
  • the illumination light in the wavelength band on the short wavelength side is mainly used when observing the surface blood vessels.
  • the superficial blood vessels are thinner and finer than the mid-deep blood vessels, so the blood vessel part is extracted from the image captured using the illumination light in the short wavelength band, and the vessel thickness is used as an index for judgment.
  • the target blood vessel can be automatically specified.
  • the designating unit can be configured to designate a blood vessel that is thicker than a prescribed blood vessel thickness as the target blood vessel.
  • the illumination light in the wavelength band on the long wavelength side is mainly used when observing the middle-deep blood vessel.
  • the mid-deep blood vessels are thicker than the superficial blood vessels, so the blood vessel part is extracted from the image captured using the illumination light in the wavelength band on the longer wavelength side, and the vessel thickness is used as an index for judgment. Blood vessels can be specified automatically.
  • the blood vessel designating unit designates the type of blood vessel having the highest contrast among the types of blood vessels included in the captured image as the target blood vessel. Can do.
  • the vessel of interest can be automatically specified using the contrast of the blood vessel in the image as an indicator of judgment.
  • the blood vessel shape determination unit is based on information on a blood vessel shape classification pattern determined in advance according to the type of blood vessel.
  • the shape pattern of the blood vessel of interest can be determined.
  • the blood vessel shape determination unit determines a shape pattern using at least one feature amount of the number of branches and the number of loops of the blood vessel. It can be set as the structure to do.
  • information on the blood vessel depth estimated by the blood vessel depth estimation unit is presented together with an image including the blood vessel of interest. It can be set as the structure provided with an information presentation part.
  • the display unit in the eighth aspect can function as the information presentation unit in the sixteenth aspect.
  • An image processing device irradiates an observation target with a plurality of types of illumination light having different wavelength bands, and images the observation target with an imaging sensor under the illumination light irradiation.
  • An image signal acquisition unit that acquires an image signal obtained by the above, and an attention that is a part or all of a blood vessel included in a captured image to be observed based on the image signal acquired by the image signal acquisition unit
  • a blood vessel shape determining unit that determines a blood vessel shape pattern
  • a blood vessel depth estimating unit that estimates a blood vessel depth of the blood vessel of interest based on the shape pattern.
  • An operation method of an image processing device is that an observation target is irradiated with a plurality of types of illumination light having different wavelength bands, and the observation target is irradiated by an imaging sensor under the illumination light irradiation.
  • An image signal acquisition step for acquiring an image signal obtained by imaging the image, and a part or all of the blood vessels included in the captured image to be observed based on the image signal acquired by the image signal acquisition step.
  • a blood vessel shape determining step for determining the shape pattern of the target blood vessel, and a blood vessel depth estimating step for estimating the blood vessel depth of the target blood vessel based on the shape pattern.
  • an element such as a means, a processing unit, or an operation unit specified in the endoscope system can be grasped as an element of a process (step) responsible for the corresponding process, operation, or function.
  • the absolute blood vessel depth can be estimated without using information on the scattering coefficient of the observation target.
  • FIG. 1 is an external view showing an endoscope system according to the first embodiment.
  • FIG. 2 is a block diagram showing a schematic configuration of the endoscope system.
  • FIG. 3 is a graph showing an example of the spectrum of the light source.
  • FIG. 4 is a graph showing the spectral characteristics of the color filter used in the image sensor.
  • FIG. 5 is a graph showing the scattering coefficient of the observation target.
  • FIG. 6 is a graph showing the absorption coefficient of hemoglobin.
  • FIG. 7 is a block diagram illustrating functions of the special observation image processing unit.
  • FIG. 8 is a graph schematically showing the relationship between the blood vessel depth and the blood vessel contrast.
  • FIG. 9 is an explanatory view schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth.
  • FIG. 9 is an explanatory view schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth.
  • FIG. 9 is an explanatory view schematic
  • FIG. 10 is a flowchart showing a procedure from generation of illumination light to image processing in the special observation mode.
  • FIG. 11 is a diagram illustrating an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm.
  • FIG. 12 is a diagram illustrating an example of a captured image captured using the second narrowband light having a center wavelength of 445 nm.
  • FIG. 13 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 11 and the image shown in FIG.
  • FIG. 14 is a diagram illustrating an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm.
  • FIG. 11 is a diagram illustrating an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm.
  • FIG. 15 is a diagram illustrating an example of a captured image captured using the second narrowband light having a center wavelength of 445 nm.
  • FIG. 16 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 14 and the image shown in FIG.
  • FIG. 17 is a diagram illustrating an example of an image captured using third narrowband light having a center wavelength of 540 nm.
  • FIG. 18 is a diagram illustrating an example of a captured image captured using the fourth narrowband light having a center wavelength of 620 nm.
  • 19 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 17 and the image shown in FIG.
  • FIG. 20 is a diagram illustrating an example of a special observation image obtained by the endoscope system.
  • FIG. 16 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 14 and the image shown in FIG.
  • FIG. 17 is a diagram illustrating an example of an image captured using
  • FIG. 21 is a block diagram illustrating functions of the image processing apparatus.
  • FIG. 22 is a flowchart showing the flow of processing for estimating the blood vessel depth in the endoscope system of the present embodiment.
  • FIG. 23 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 24 is a block diagram illustrating functions of the processor device of the endoscope system according to the second embodiment.
  • FIG. 1 is an external view showing an endoscope system 10 according to the first embodiment.
  • FIG. 2 is a block diagram showing functions of the endoscope system 10.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19.
  • the endoscope system 10 of the present embodiment includes a storage 70 and an image processing device 72 shown in FIG.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion provided at the distal end side of the insertion portion 12a. 12d.
  • the bending unit 12c By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. By this bending operation, the distal end portion 12d is directed in a desired direction.
  • the operation unit 12b is provided with a mode switch 13a and a zoom operation unit 13b in addition to the angle knob 12e.
  • the operation unit 12b is provided with a still image acquisition instruction unit 13c not shown in FIG. 1 (see FIG. 2).
  • the mode changeover switch 13a is used for the observation mode changeover operation.
  • the endoscope system 10 has a normal observation mode and a special observation mode as observation modes.
  • the normal observation mode the endoscope system 10 displays an image obtained by imaging an observation target using white light as illumination light on the monitor 18.
  • An image obtained by imaging an observation target in the normal observation mode is referred to as a “normal observation image”.
  • the normal observation mode can be rephrased as “white light observation mode”.
  • the normal observation image can be rephrased as a “white light observation image”.
  • the illumination light can be rephrased as “observation light”.
  • the endoscope system 10 is located in a specific depth region of the observation target using an image signal obtained by imaging the observation target using narrowband light of a specific wavelength band as illumination light.
  • a visualized image in which a blood vessel is emphasized is generated, and an image suitable for blood vessel observation is displayed on the monitor 18.
  • An image obtained in the special observation mode is referred to as a “special observation image”.
  • the special observation mode can be rephrased as a “narrow band observation mode”.
  • the special observation image can be rephrased as a “blood vessel enhanced image”, “blood vessel visualization image”, or “narrow band observation image”.
  • the endoscope 12 of this example has a plurality of types of special observation modes in which the types of wavelength bands of narrowband light to be used or combinations thereof are different.
  • the processor device 16 is electrically connected to the monitor 18 and the console 19.
  • the monitor 18 is a display device that outputs and displays an image to be observed, information attached to the image to be observed, and the like.
  • the console 19 functions as a user interface that receives input operations such as function settings of the endoscope system 10 and various instructions.
  • An external storage device not shown in FIG. 1 may be connected to the processor device 16.
  • the external storage device can record an image to be observed and information attached to the image.
  • the storage 70 shown in FIG. 2 is an example of an external storage device, and functions as an external recording unit.
  • the light source device 14 includes a light source 20 and a light source control unit 22 that controls the light source 20.
  • the light source 20 includes, for example, a semiconductor light source such as a multi-color LED (Light Emitting Diode), a combination of a laser diode and a phosphor, a halogen light source such as a xenon lamp, or an appropriate combination thereof.
  • the light source 20 includes an optical filter (not shown) for adjusting the wavelength band of light emitted from a light source such as an LED.
  • the light source 20 includes a V-LED (Violet Light Emitting Diode) 23a, a B-LED (Blue Light Emitting Diode) 23b, a G-LED (Green Light Emitting Diode) 23c, and an R-LED (Red Light Emitting Diode). 23d four-color LED.
  • V-LED Volt Light Emitting Diode
  • B-LED Blue Light Emitting Diode
  • G-LED Green Light Emitting Diode
  • R-LED Red Light Emitting Diode
  • FIG. 3 is a graph showing an example of the spectrum of the light source 20.
  • the V-LED 23a is a violet semiconductor light source that emits violet light V in a wavelength band of 380 nm to 420 nm having a center wavelength of about 400 nm ⁇ 10 nm.
  • the B-LED 23b is a blue semiconductor light source that emits blue light B having a center wavelength of about 450 nm ⁇ 10 nm and a wavelength band of 420 nm to 500 nm.
  • the G-LED 23c is a green semiconductor light source that emits green light G having a center wavelength of about 540 nm ⁇ 10 nm and a wavelength band ranging from 480 nm to 600 nm.
  • the R-LED 23d is a red semiconductor light source that emits red light R having a center wavelength of about 620 nm ⁇ 10 nm and a wavelength band ranging from 600 nm to 650 nm.
  • the term center wavelength may be read as the peak wavelength at which the spectral intensity is maximized.
  • the light source control unit 22 controls the amount of illumination light by turning on (ON) and turning off (OFF) a light source such as an LED and adjusting a drive current and a drive voltage of the LED.
  • the light source control unit 22 controls the wavelength band of the illumination light by changing the optical filter or the like.
  • the light source controller 22 can individually control the lighting and extinguishing of each LED 23a to 23d and the amount of light emitted when the LED 23a to 23d is input by individually inputting a control signal to each LED 23a to 23d of the light source 20.
  • the light source 20 generates a plurality of types of illumination light that irradiates the observation target under the control of the light source control unit 22.
  • the light source 20 of this example includes a purple narrowband light having a center wavelength in the purple wavelength band (wavelength band of about 350 nm to 400 nm) and a blue narrowband light having a center wavelength in the blue wavelength band (wavelength band of about 400 nm to 500 nm).
  • Multiple types such as green narrowband light having a center wavelength in the green wavelength band (wavelength band of about 500 nm to 600 nm) and red narrowband light having a center wavelength in the red wavelength band (wavelength band of about 600 nm to 650 nm) Narrow band light can be generated.
  • the light source 20 is a narrow band light such as a purple narrow band light having a center wavelength of 405 nm, a blue narrow band light having a center wavelength of 445 nm, a green narrow band light having a center wavelength of 540 nm, and a red narrow band light having a center wavelength of 620 nm.
  • Band light can be generated.
  • the light source 20 can generate blue narrowband light having a center wavelength of 470 nm, and can also generate two or more types of blue narrowband light having different center wavelengths. Two or more types of narrowband light having different center wavelengths can be generated for each of the purple narrowband light, the green narrowband light, and the red narrowband light.
  • the center wavelength of each narrow band light can be designated by changing the optical filter or the like.
  • purple narrow band light having a central wavelength of 405 nm generated by the light source 20 may be referred to as “purple light V”.
  • blue narrowband light with a center wavelength of 445 nm is denoted as “blue light B”
  • green narrowband light with a center wavelength of 540 nm is denoted as “green light G”
  • red narrowband light with a center wavelength of 620 nm is denoted as “red light R”.
  • the light source 20 When the special observation mode is selected, the light source 20 generates at least two types of narrowband light having different center wavelengths from among a plurality of types of narrowband light, and the observation target irradiated with each narrowband light is selected. Imaging is performed by the imaging sensor 48. Therefore, in the special observation mode, a plurality of types of endoscopic images corresponding to the types of narrowband light can be obtained.
  • the light source 20 in the special observation mode, can alternately generate two types of narrowband light of first narrowband light and second narrowband light having different center wavelengths. Of these two types of narrowband light, the first narrowband light is a relatively narrow wavelength side narrowband light, and the second narrowband light is a relatively long wavelength side narrowband light.
  • the center wavelength of the second narrowband light is in a longer wavelength band than the center wavelength of the first narrowband light.
  • the first narrowband light is violet narrowband light having a center wavelength of 405 nm
  • the second narrowband light is blue narrowband light having a center wavelength of about 445 nm.
  • the light source 20 has a center wavelength of Two types of narrowband light, which are different from each other, a third narrowband light and a fourth narrowband light, can be generated alternately.
  • the third narrowband light is a narrowband light on the relatively short wavelength side
  • the fourth narrowband light is a narrowband light on the relatively long wavelength side. That is, the center wavelength of the third narrowband light is in a longer wavelength band than the center wavelength of the fourth narrowband light.
  • the third narrowband light is green narrowband light having a center wavelength of 540 nm
  • the fourth narrowband light is red narrowband light having a center wavelength of about 620 nm.
  • first narrowband light In the present embodiment, four types of narrowband light, ie, first narrowband light, second narrowband light, third narrowband light, and fourth narrowband light, are illustrated in the order of shorter center wavelengths.
  • a mode in which the special observation image is generated by selectively switching the will be described.
  • the type of narrowband light is not limited to this example, and a mode in which many types of narrowband light are used is also possible.
  • the light source 20 can generate white light.
  • the light source control unit 22 turns on all the V-LEDs 23a, B-LEDs 23b, G-LEDs 23c, and R-LEDs 23d. For this reason, in the normal observation mode, white light in a wide wavelength band including violet light V, blue light B, green light G, and red light R is used as illumination light.
  • the light source device 14 corresponds to one form of a “light source unit”.
  • Illumination light emitted from the light source 20 is incident on the light guide 41 via an optical path coupling unit formed by a mirror, a lens, or the like (not shown).
  • the light guide 41 is built in the endoscope 12 and the universal cord.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • the light guide 41 is inserted into the insertion portion 12 a and propagates the illumination light generated by the light source 20 to the distal end portion 12 d of the endoscope 12.
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 45.
  • the illumination light propagated by the light guide 41 is irradiated to the observation object through the illumination lens 45.
  • the imaging optical system 30b includes an objective lens 46, a zoom lens 47, and an imaging sensor 48.
  • Various types of light such as reflected light, scattered light, and fluorescence from the observation target due to the irradiation of the illumination light enter the image sensor 48 via the objective lens 46 and the zoom lens 47.
  • an image to be observed is formed on the image sensor 48.
  • the zoom lens 47 is freely moved between the tele end and the wide end in accordance with the operation of the zoom operation unit 13b, and enlarges or reduces the image of the observation target formed on the image sensor 48.
  • the image sensor 48 is a color image sensor provided with any of R (red), G (green), and B (blue) color filters for each pixel.
  • the imaging sensor 48 images an observation target and outputs image signals of RGB color channels.
  • a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.
  • CMOS Complementary Metal-Oxide Semiconductor
  • a complementary color image sensor having complementary color filters of C (cyan), M (magenta), Y (yellow), and G (green) may be used. .
  • the complementary color imaging sensor is used, four color image signals of CMYG are output.
  • the RGB image signal similar to that of the image sensor 48 can be obtained by converting the CMYG four-color image signal into the RGB three-color image signal by complementary color-primary color conversion.
  • a monochrome sensor without a color filter may be used.
  • FIG. 4 is a graph showing the spectral characteristics of the color filter used in the image sensor 48.
  • the horizontal axis represents wavelength and the vertical axis represents transmittance.
  • B-CF represents the spectral characteristics of the B color filter
  • G-CF represents the G color filter
  • R-CF represents the spectral characteristics of the R color filter.
  • Light in the violet to blue wavelength band is received by the B pixel provided with the B color filter in the image sensor 48.
  • Light in the green wavelength band is received by the G pixel in which the G color filter is provided in the image sensor 48.
  • Light in the red wavelength band is received by the R pixel provided with the R color filter in the image sensor 48.
  • a signal corresponding to the amount of received light is output from the RGB color pixels of the image sensor 48.
  • the imaging sensor 48 images the observation target irradiated with the first narrowband light, and the first narrowband light is captured. A first image signal corresponding to the band light is output from the B pixel.
  • the imaging sensor 48 outputs a second image signal corresponding to the second narrowband light from the B pixel.
  • the endoscope 12 includes an AFE (Analog End) circuit 51 and an AD (Analog Digital) converter 52.
  • An image signal output from the image sensor 48 is input to the AFE circuit 51.
  • the AFE circuit 51 includes a correlated double sampling (CDS) circuit and an automatic gain control (AGC) circuit.
  • the AFE circuit 51 performs correlated double sampling and automatic gain control on the analog image signal obtained from the image sensor 48.
  • the image signal that has passed through the AFE circuit 51 is converted into a digital image signal by the AD converter 52.
  • a digital image signal after AD (Analog to Digital) conversion is input to the processor unit 16.
  • a configuration in which the AD converter 52 is mounted on the AFE circuit 51 is also possible.
  • the processor device 16 includes an image signal acquisition unit 53, a DSP (Digital Signal Processor) 56, a noise reduction unit 58, a memory 59, a signal processing unit 60, and a video signal generation unit 68.
  • DSP Digital Signal Processor
  • the image signal acquisition unit 53 acquires a digital image signal from the endoscope 12.
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the image signal acquired via the image signal acquisition unit 53.
  • defect correction process the signal of the defective pixel of the image sensor 48 is corrected.
  • offset process the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • the gain correction process the signal level is adjusted by multiplying the image signal after the offset process by a specific gain.
  • the image signal after gain correction processing is subjected to linear matrix processing to improve color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing.
  • the demosaic process is performed on the image signal after the gamma conversion process, and a signal of a color that is insufficient at each pixel is generated by interpolation.
  • the demosaic process is also called an isotropic process or a synchronization process. Through the demosaic processing, all pixels have signals of RGB colors.
  • the noise reduction unit 58 reduces noise by performing noise reduction processing on the image signal that has been demosaiced by the DSP 56.
  • the noise reduction process for example, a process using a moving average method, a median filter method, or the like can be employed.
  • the image signal whose noise has been reduced by the noise reduction unit 58 is stored in the memory 59.
  • the signal processing unit 60 acquires the image signal after noise reduction from the memory 59.
  • the signal processing unit 60 performs signal processing such as color conversion processing, color enhancement processing, and structure enhancement processing on the acquired image signal as necessary, and obtains a color endoscope image in which an observation target is captured. Generate.
  • the color conversion process is a process of performing color conversion on an image signal by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional lookup table processing, and the like.
  • the color enhancement process is performed on the image signal that has been subjected to the color conversion process.
  • the structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a pit pattern, and is performed on the image signal after the color enhancement process.
  • the content of processing in the signal processing unit 60 varies depending on the observation mode.
  • the observation mode is the normal observation mode
  • the signal processing unit 60 generates a normal observation image by performing signal processing in which the observation target has a natural color.
  • the observation mode is the special observation mode
  • the signal processing unit 60 generates a special observation image by performing signal processing that emphasizes at least the blood vessel to be observed.
  • the signal processing unit 60 includes an image processing switching unit 61, a normal observation image processing unit 66, a special observation image processing unit 67, an alignment processing unit 62, and a brightness correction processing unit 63. Signal processing corresponding to each special observation mode is performed.
  • the image processing switching unit 61 switches between normal observation image generation processing and special observation image generation processing according to the setting of the observation mode by the mode switch 13a.
  • the image processing switching unit 61 transmits the image signal received from the memory 59 to the normal observation image processing unit 66.
  • the image processing switching unit 61 receives the image signal received from the memory 59 via the alignment processing unit 62 and the brightness correction processing unit 63. The data is transmitted to the processing unit 67.
  • the normal observation image processing unit 66 operates when the normal observation mode is set.
  • the normal observation image processing unit 66 performs color conversion processing, color enhancement processing, and structure enhancement processing on the image signal captured by irradiating the observation target with white light, and generates a normal observation image signal.
  • a color image using the normal observation image signal is a normal observation image.
  • the special observation image processing unit 67 is an image processing unit that operates when the special observation mode is set.
  • the special observation image processing unit 67 compares the first image signal obtained by irradiating the observation target with one of the two types of narrowband light having different wavelength bands, which is on the relatively short wavelength side, relative to the first image signal.
  • a blood vessel having a specific depth is extracted using the second image signal obtained by irradiating the observation target with the other narrow-band light that is on the long wavelength side, and the extracted blood vessel is colored with respect to other blood vessels.
  • a special observation image represented by the difference is generated.
  • a first narrowband light that is a purple narrowband light having a central wavelength of 405 nm and a second narrowband light that is a blue narrowband light having a central wavelength of 445 nm are used as two types of narrowband light having different wavelength bands.
  • it is not limited to a combination of the first narrowband light and the second narrowband light, but is a third narrowband light that is a green narrowband light with a center wavelength of 540 nm and a red narrowband light with a center wavelength of 620 nm. The same applies to the combination with the fourth narrowband light.
  • the first image signal and the second image signal are input to the special observation image processing unit 67 via the alignment processing unit 62 and the brightness correction processing unit 63.
  • the alignment processing unit 62 performs alignment between the observation object represented by the sequentially acquired first image signal and the observation object represented by the second image signal. By the alignment processing of the alignment processing unit 62, the relative positions of the first image signal and the second image signal are associated with each other, and the same image range is obtained from each of the first image signal and the second image signal. Can be taken out.
  • the alignment processing unit 62 may correct the image position for only one of the first image signal and the second image signal, or may correct the image position for both image signals. In this example, a process of matching the second image signal with the position of the first image signal is performed with reference to the first image signal.
  • the brightness correction processing unit 63 includes at least one of the first image signal and the second image signal so that the brightness of the first image signal and the second image signal aligned by the alignment processing unit 62 has a specific ratio. Correct one brightness. For example, since the irradiation light quantity ratio of two types of narrow band light used in the special observation mode is known, the first narrow band light and the second narrow band light having the same light quantity can be obtained using this irradiation light quantity ratio. Gain correction is performed to match the brightness of the first image signal with the brightness of the second image signal so that the brightness of the image obtained by irradiating the observation target is obtained.
  • the brightness correction processing unit 63 calculates the average value of the pixel values of all the pixels of the first image signal or the average value of the pixel values of a specific pixel area, thereby representing the observation target represented by the first image signal. And calculating the average value of the pixel values of all the pixels of the second image signal or the average value of the pixel values of the specific pixel region, thereby calculating the brightness of the image of the observation object represented by the second image signal. Calculate the brightness of the image. Then, a gain for matching the brightness of the image to be observed represented by the first image signal with the brightness of the image to be observed represented by the second image signal is calculated, and the pixel value of the first image signal and the gain using the calculated gain are calculated. At least one of the pixel values of the second image signal is corrected.
  • a gain for matching the brightness of the image to be observed represented by the first image signal with the brightness of the image to be observed represented by the second image signal is calculated, and the pixel value and the second value of the first image signal are calculated using the calculated gain. At least one of the pixel values of the image signal is corrected.
  • the special observation image processing unit 67 performs signal processing for emphasizing a blood vessel to be observed from the first image signal and the second image signal that have been subjected to brightness correction, and generates a special observation image.
  • a blood vessel at a relatively shallow position in the observation target with respect to the surface of the mucosa becomes a magenta color such as a brown color, for example.
  • a blood vessel at a relatively deep position in the observation target with respect to the surface has a cyan color such as green. For this reason, the blood vessel to be observed is emphasized by the color difference with respect to the mucous membrane expressed in pink.
  • a blood vessel located at a relatively shallow position with respect to the surface of the mucous membrane is called a “surface blood vessel”.
  • a blood vessel located at a very shallow position, particularly near the mucosal surface is referred to as a “superficial superficial blood vessel”.
  • a blood vessel located at a relatively deep position with respect to the surface of the mucous membrane is called a “mid-deep blood vessel”.
  • the signal processing unit 60 inputs the generated endoscopic image to the video signal generation unit 68.
  • the video signal generator 68 converts the endoscopic image into a video signal for output display on the monitor 18.
  • the endoscopic image generated by the signal processor 60 can be displayed on the monitor 18 via the video signal generator 68.
  • the signal processing unit 60 When the still image acquisition instructing unit 13c is operated and a release instruction is input, the signal processing unit 60 performs processing for storing the generated endoscopic image in the storage 70. Further, the signal processing unit 60 is one of an image signal read from the memory 59, an image signal processed by the alignment processing unit 62, and an image signal processed by the brightness correction processing unit 63, or these An appropriate combination of the above can be stored in the storage 70.
  • the storage 70 is an external storage device connected to the processor device 16.
  • the storage 70 may be connected to the processor device 16 via a communication line such as a LAN (Local Area Network).
  • the storage 70 is, for example, a file server of a system for filing endoscopic images such as PACS (Picture Archiving and Communication System), NAS (Network Attached Storage), or the like.
  • the endoscopic image stored in the storage 70 can be used by the image processing device 72.
  • the image processing device 72 is a device having a function of performing image processing on an endoscopic image and estimating a blood vessel depth.
  • the image processing device 72 functions as a diagnosis support device that performs image processing on an endoscopic image and calculates blood vessel parameters for diagnosis support.
  • the submucosal depth where the observable blood vessel exists is generally determined by the depth of illumination light irradiated when imaging the observation target.
  • light with a short wavelength has a low depth of penetration, and is scattered and absorbed near the mucosal surface, and a part of the light is observed as reflected light.
  • the light absorption and scattering characteristics of the biological tissue to be observed are wavelength-dependent, and the longer the wavelength, the deeper the depth.
  • FIG. 5 is a graph showing the scattering coefficient of the observation target.
  • the horizontal axis in FIG. 5 represents the wavelength, and the vertical axis represents the normalized scattering coefficient.
  • the scattering coefficient increases as the wavelength becomes shorter. The greater the scattering, the more light that is reflected near the surface of the mucosa of the living tissue and the less light that reaches the mid-deep layer. Therefore, the depth of penetration is shallower as the wavelength is shorter, and the depth of penetration is deeper as the wavelength is longer.
  • the tendency of wavelength dependence is common.
  • the scattering coefficient of the observation target in each wavelength band of multiple types of narrowband light used in the special observation mode is the depth of each narrowband light, that is, the submucosal depth of the blood vessel that can be observed in that wavelength band.
  • the depth of each narrowband light that is, the submucosal depth of the blood vessel that can be observed in that wavelength band.
  • the absorption coefficient of hemoglobin in the wavelength band of each narrowband light is related to the contrast of blood vessels that can be observed with each narrowband light.
  • FIG. 6 is a graph showing the absorption coefficient of hemoglobin.
  • the horizontal axis in FIG. 6 represents the wavelength, and the vertical axis represents the normalized absorption coefficient.
  • short-wavelength light has large hemoglobin absorption and large light scattering (see FIG. 5). For this reason, an image captured by irradiating narrow-band light with a short wavelength has a high contrast of blood vessels at shallow positions, but a contrast of blood vessels at deep positions is rapidly lowered.
  • the narrow-band light used for the illumination light has a longer wavelength, the contrast of the blood vessel at the shallow position is lowered, but the contrast of the blood vessel at the deep position is relatively moderate.
  • a blood vessel in a deep layer can be extracted, and an image in which the extracted blood vessel is emphasized can be created.
  • the two types of illumination light used in the special observation mode are light in a wavelength band in which the scattering coefficient of the object to be observed is different from each other and the absorption coefficient of hemoglobin is almost equal.
  • the scattering coefficients of observation objects are different from each other and the absorption coefficient of hemoglobin is almost equal” are different in the submucosal depth (depth of penetration) of the observable blood vessels, and the submucosal depth. This means that light of two wavelength bands that can be observed with blood vessels of different levels can be observed with substantially the same contrast is selected and used.
  • the first narrowband light having the center wavelength of 405 nm and the second narrowband light having the center wavelength of 445 nm used in this embodiment are shown in FIG.
  • a combination of the first narrowband light having a center wavelength of 405 nm and the second narrowband light having a center wavelength of 445 nm is an example of a preferable combination for blood vessel extraction.
  • FIG. 7 is a block diagram showing functions of the special observation image processing unit 67.
  • the special observation image processing unit 67 includes a calculation image signal generation unit 76, a low-pass filter (LPF) processing unit 77, and an image generation unit 78.
  • LPF low-pass filter
  • the calculation image signal generation unit 76 performs calculation using the first image signal and the second image signal that have been subjected to the alignment process and the brightness correction process, and generates a calculation image signal. Specifically, the difference or ratio between the first image signal and the second image signal is calculated.
  • the arithmetic image signal generation unit 76 of this example logarithmically converts each of the first image signal and the second image signal, and more specifically, the difference between the first image signal and the second image signal after logarithmic conversion, more specifically, the second image signal.
  • An arithmetic image signal ⁇ B that is a difference image obtained by subtracting the first image signal from the image signal is generated. Logarithmic transformation is also referred to as “Log transformation”.
  • each pixel has a pixel value proportional to the amount of received light.
  • the pixel value is proportional to the density.
  • a stable calculation result can be obtained regardless of the illuminance of the illumination light.
  • the ratio of the first image signal to the second image signal is used. May be generated for each pixel to generate a calculated image signal.
  • FIG. 8 is a graph schematically showing the relationship between the blood vessel depth and the blood vessel contrast.
  • the use of two types of violet light V and blue light B as the illuminating light the entire range of blood vessel depth range A s and depth range A d, i.e., generally lies in surface blood vessels ( The superficial blood vessels) can be observed.
  • violet light V is shorter wavelength as compared to the blue light B, small penetration depth into the observation target, standing in the depth range A s of shallow position of under relatively mucosa to blue light B instead of having Utsushidase only that vascular contrast of blood vessels located in the depth range a s of shallow position is larger than the case of using the blue light B.
  • “Contrast of blood vessel” means the ratio of the amount of light reflected from the surrounding mucous membrane to the amount of light reflected from the blood vessel.
  • the blood vessel contrast is calculated by using, for example, “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the luminance Y V of the blood vessel and the luminance Y M of the mucosa. Can do.
  • the pixel value of is emphasized and becomes a large value (white).
  • the pixel value of the pixel representing the blood vessel becomes smaller (black) in the depth range A d position deeper than the pole surface blood vessels.
  • Calculation of the calculated image signal ⁇ B corresponds to extracting a blood vessel at a specific depth below the mucous membrane.
  • the low pass filter processing unit 77 performs a low resolution process by applying a low pass filter to the arithmetic image signal ⁇ B generated by the arithmetic image signal generating unit 76.
  • the strength of the filter processing that the low-pass filter processing unit 77 applies to the calculated image signal ⁇ B is determined by the cutoff frequency of the low-pass filter.
  • the cut-off frequency of the low-pass filter is set in advance and lowers the sharpness at least than the sharpness of the original arithmetic image signal ⁇ B.
  • the calculated image signal obtained by the low-pass filter processing of the low-pass filter processing unit 77 is an image that is more blurred than the original calculated image signal.
  • the image generation unit 78 uses the first image signal or the second image signal received by the special observation image processing unit 67 and the calculation image signal ⁇ B subjected to the low-pass filter processing to generate an image having a plurality of output channels. Generate. More specifically, the image generation unit 78 generates an image having a luminance channel Y and two color difference channels Cb and Cr related to color differences. The luminance channel Y corresponds to the first channel, and the two color difference channels Cb and Cr correspond to the second channel and the third channel, respectively. The image generator 78 assigns either the first image signal or the second image signal to the luminance channel Y, and assigns the calculated image signal ⁇ B subjected to the low-pass filter processing to the two color difference channels Cb and Cr.
  • YCC image means a color image represented by a Y signal that is a luminance signal and a Cr signal and a Cb signal that are color difference signals.
  • FIG. 9 is an explanatory view schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth.
  • B1 in FIG. 9 represents the first image signal.
  • the first image signal corresponding to the narrow band light (purple light V) in the relatively short wavelength band is assigned to the luminance channel Y among the first image signal and the second image signal. That is, the first image signal having a relatively high contrast of the extreme surface blood vessels is assigned to the luminance channel Y.
  • the calculated image signal ⁇ B is assigned to the color difference channels Cb and Cr. When assigning the calculated image signal ⁇ B to the color difference channels Cb and Cr, they are multiplied by a coefficient ⁇ and a coefficient ⁇ , respectively. This is in order to align the color with the image displayed by the endoscope system that emphasizes and observes the surface blood vessels.
  • the reason why the first image signal is assigned to the luminance channel Y is to select and emphasize the polar surface blood vessels from the surface blood vessels.
  • one method for generating a superficial blood vessel emphasized image includes the following method using a B image signal and a G image signal of a captured image. That is, in the superficial blood vessel observation mode, the image of the observation object is obtained by irradiating the narrow band blue light to acquire the B image signal, and the observation object is imaged by irradiating the narrow band green light. Get the image signal. Then, by assigning the B image signal to the B channel and the G channel of the display image and assigning the G image signal to the R channel, the middle and deep blood vessels at a deep position under the mucous membrane are changed to a green (cyan) color. The superficial blood vessels in a shallow position under the mucous membrane are highlighted in red (magenta) color.
  • ITU-R An international telecommunications union standard.
  • the relationship between the RGB image signals, the luminance channel Y, and the color difference channels Cb and Cr is expressed by the following equations (1), (2), and (3).
  • ITU is an abbreviation for “International Telecommunication Union”.
  • the first image signal and the second image signal are generated using the first narrowband light that is the purple wavelength band and the second narrowband light that is the blue wavelength band.
  • the coefficient ⁇ and the coefficient ⁇ may be further multiplied by a coefficient depending on the setting or the like.
  • the blood vessel emphasized image having a specific depth generated by the special observation image processing unit 67 is input to the video signal generating unit 68.
  • the video signal generation unit 68 converts the blood vessel emphasized image having a specific depth into a video signal for display as an image that can be displayed on the monitor 18. Using this video signal, a blood vessel emphasized image having a specific depth is displayed on the monitor 18.
  • FIG. 10 is a flowchart showing a procedure from generation of illumination light to image processing in the special observation mode.
  • the image processing shown in FIG. the light source 20 generates illumination light that is narrowband light in the first wavelength band.
  • the first wavelength band is, for example, a purple wavelength band having a center wavelength of 405 nm.
  • the illumination light emitted from the light source 20 in step S11 is referred to as first illumination light.
  • the first illumination light emitted from the light source 20 is applied to the observation target.
  • step S12 the imaging sensor 48 images the observation target irradiated with the first illumination light, and outputs an image signal corresponding to the first illumination light.
  • step S13 the image signal acquisition unit 53 acquires an image signal corresponding to the first illumination light from the imaging sensor 48.
  • the image signal acquired in step S13 corresponds to the first image signal already described.
  • An example of the captured image obtained in step S13 is shown in FIG.
  • FIG. 11 is an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm. In FIG. 11, superficial blood vessels including the polar superficial blood vessel 112 are clearly shown.
  • step S15 in FIG. 10 the brightness correction processing unit 63 performs light amount correction on the acquired first image signal.
  • the light amount correction is a process for correcting the brightness of the entire image in accordance with the amount of illumination light.
  • the light amount correction is synonymous with “brightness correction processing”.
  • step S16 the arithmetic image signal generation unit 76 performs logarithmic conversion on the first image signal whose light amount has been corrected.
  • the light source 20 After step S13, the light source 20 generates illumination light that is narrowband light in the second wavelength band (step S21).
  • the second wavelength band is, for example, a blue wavelength band having a center wavelength of 445 nm.
  • the illumination light emitted from the light source 20 in step S21 is referred to as second illumination light.
  • the second illumination light emitted from the light source 20 is applied to the observation target.
  • step S22 the imaging sensor 48 images the observation target irradiated with the second illumination light, and outputs an image signal corresponding to the second illumination light.
  • step S ⁇ b> 23 the image signal acquisition unit 53 acquires an image signal corresponding to the second illumination light from the imaging sensor 48.
  • the image signal acquired in step S23 corresponds to the second image signal already described.
  • step S24 the alignment processing unit 62 performs alignment processing of the first image signal acquired in step S13 and the second image signal acquired in step S23.
  • a process for correcting the image position of the second image signal is performed.
  • An example of the captured image obtained in step S24 is shown in FIG.
  • FIG. 12 shows an example of a captured image captured using the second narrowband light having a center wavelength of 445 nm.
  • the contrast of the extreme surface blood vessel 112 in the captured image illustrated in FIG. 12 is significantly lower than that of the captured image in FIG.
  • the contrast of the superficial blood vessel 114 located deeper than the extreme superficial blood vessel 112 has a moderate decrease in contrast as compared with FIG.
  • step S25 of FIG. 10 the brightness correction processing unit 63 performs light amount correction on the acquired second image signal.
  • step S26 the arithmetic image signal generation unit 76 performs logarithmic conversion on the second image signal whose light amount has been corrected.
  • step S28 the arithmetic image signal generation unit 76 performs a difference process for generating a difference image between the second image signal logarithmically converted in step S26 and the first image signal logarithmically converted in step S16.
  • an operation image signal representing the difference image is generated by an operation of subtracting the first image signal from the second image signal.
  • the calculation image signal generated in step S28 corresponds to the calculation image signal ⁇ B already described.
  • step S29 the low-pass filter processing unit 77 performs low-pass filter processing on the arithmetic image signal ⁇ B generated in step S28.
  • step S30 the image generation unit 78 assigns the first image signal logarithmically converted in step S16 to the luminance channel Y, which is a luminance signal, and the calculated image signal reduced in step S29. Is assigned to the color difference channels Cr and Cb, which are color difference signals, to generate a blood vessel enhanced image.
  • the image generation unit 78 performs color conversion processing for converting a YCC image into an RGB image, and generates an RGB image 100 representing a blood vessel emphasized image.
  • the blood vessel emphasized image generated in step S30 is displayed on the monitor 18. Further, the blood vessel enhanced image generated in step S30 can be stored in the storage 70. Further, the image signal obtained in each step of Step S13, Step S23, Step S15, and Step S25 can be stored in the storage 70.
  • FIG. 13 shows an example of the output image generated through step S30.
  • a color image in which the surface blood vessels are emphasized is obtained as an output image, although it is not sufficiently expressed due to the illustrated constraints.
  • the blood vessel-enhanced image generated in this way the extreme superficial blood vessels in the extreme superficial layer below the mucous membrane are displayed in magenta color, and the superficial blood vessels in the superficial layer deeper than the extreme superficial layer are cyan. It is expressed by coloring the system. Therefore, the blood vessel-enhanced image can distinguish the superficial blood vessel and the superficial blood vessel by color, and in particular, is displayed on the monitor 18 as a blood vessel visualization image that allows easy observation of the superficial blood vessel.
  • FIG. 14 is an example of a captured image captured using first narrowband light having a center wavelength of 405 nm as the first illumination light.
  • FIG. 14 corresponds to an image example of the first image signal acquired in step S13 of FIG.
  • the captured image illustrated in FIG. 14 is referred to as a first captured image 110.
  • a superficial blood vessel 112 and a superficial blood vessel 114 are shown.
  • FIG. 11 described above corresponds to an enlarged image of a part of FIG.
  • FIG. 15 is an example of a captured image captured using second narrowband light having a center wavelength of 445 nm as the second illumination light.
  • FIG. 15 corresponds to an image example of the second image signal acquired in step S23 of FIG.
  • the captured image illustrated in FIG. 15 is referred to as a second captured image 120.
  • the contrast between the polar surface blood vessel 112 and the surface blood vessel 114 is lower than that of the first captured image 110.
  • FIG. 12 described above corresponds to an enlarged image of a part of FIG.
  • FIG. 16 is an example of a blood vessel emphasized image generated using a calculation image signal based on a difference between the first captured image 110 and the second captured image 120.
  • FIG. 13 described above corresponds to an enlarged image of a part of FIG.
  • FIG. 17 is an example of a captured image captured using third narrowband light having a center wavelength of 540 nm as the first illumination light.
  • FIG. 17 corresponds to another image example of the first image signal acquired in step S13 of FIG.
  • the captured image illustrated in FIG. 17 is referred to as a third captured image 130.
  • a surface blood vessel 132 and a middle blood vessel 134 are shown.
  • FIG. 18 is an example of a captured image captured using fourth narrowband light having a center wavelength of 620 nm as the second illumination light.
  • FIG. 18 corresponds to another image example of the second image signal acquired in step S23 of FIG.
  • the captured image illustrated in FIG. 18 is referred to as a fourth captured image 140.
  • the contrast between the surface blood vessel 132 and the middle blood vessel 134 is lower than that in the third captured image 130.
  • FIG. 19 is an example of a blood vessel emphasized image generated using a calculation image signal based on the difference between the third captured image 130 and the fourth captured image 140.
  • the blood vessel emphasized image obtained by the difference in the wavelength of the light used as the illumination light. Will be different.
  • the endoscope system 10 of this embodiment has a function of estimating the depth of a blood vessel imaged by the endoscope 12, in particular, an absolute blood vessel depth value.
  • the absolute blood vessel depth is, for example, the distance in the depth direction toward the inside of the living tissue with reference to the surface of the mucous membrane.
  • FIG. 20 is an example of a special observation image obtained by the endoscope system 10.
  • FIG. 20 shows an example of an endoscopic image including blood vessel images of the superficial blood vessel 142 and the deep blood vessel 144. As shown in FIG. 20, there is a clear difference in the shape of the blood vessel between the surface blood vessel 142 and the deep blood vessel 144.
  • the depth of the blood vessel is estimated from the shape pattern of the blood vessel imaged by the endoscope 12 by associating the blood vessel shape pattern with a depth value based on pathological information or the like. To do.
  • FIG. 21 is a block diagram showing functions of the image processing apparatus 72.
  • the image processing device 72 includes an endoscope image acquisition unit 81, a blood vessel extraction image generation unit 82, a blood vessel designation unit 83, a blood vessel shape determination unit 84, a blood vessel depth estimation unit 85, and a display control unit 86. I have. Further, the image processing apparatus 72 may include an input device 87 and a display unit 88. The console 19 described in FIG. 1 may function as the input device 87. Further, the monitor 18 described in FIG. 1 may function as the display unit 88.
  • Each functional unit of the image processing device 72 can be realized by a combination of computer hardware and software. Further, some or all of the functional units of the image processing device 72 may be realized by an integrated circuit.
  • the endoscopic image acquisition unit 81 acquires an endoscopic image from the storage 70.
  • An endoscopic image means an image taken by the endoscope 12.
  • the term endoscopic image includes a normal observation image, a special observation image, and an image signal from which the special observation image is based.
  • the image signal that is the basis of the special observation image refers to an image signal corresponding to the type of narrowband light used for the illumination light.
  • the endoscope image acquired via the endoscope image acquisition unit 81 can be displayed on the display unit 88 via the display control unit 86.
  • the blood vessel extraction image generation unit 82 performs a process of generating a blood vessel extraction image from the image signal acquired via the endoscope image acquisition unit 81.
  • the processing for generating a blood vessel extraction image is the same as steps S13 to S16 and steps S23 to S30 in the image processing for generating a blood vessel enhancement image described with reference to the flowchart of FIG.
  • a blood vessel extraction image can be read as a blood vessel enhancement image.
  • the blood vessel extraction image generation unit 82 performs steps S15 and S10 of FIG. The process of S16 and step S25 to step S30 is performed.
  • the blood vessel extraction image generation unit 82 When the endoscopic image acquisition unit 81 acquires the image signals obtained in the steps S15 and S23 of FIG. 10 from the storage 70, the blood vessel extraction image generation unit 82 performs steps S16 and S16 of FIG. Processing from step S26 to step S30 is performed.
  • the processing by the blood vessel extraction image generation unit 82 is omitted.
  • the blood vessel extraction image generated by the blood vessel extraction image generation unit 82 can be displayed on the display unit 88 via the display control unit 86.
  • the blood vessel designating unit 83 designates a target blood vessel as a target for estimating the blood vessel depth from the blood vessels included in the endoscopic image.
  • a user designates a target blood vessel whose depth is to be estimated on an endoscopic image displayed on the display unit 88 using a user interface.
  • the input device 87 includes a pointing device, a keyboard, and the like used for designating a target blood vessel.
  • the input device 87 may be a touch panel configured integrally with the display screen of the display unit 88.
  • the number of blood vessels of interest is not limited to one, and a plurality of blood vessels may be designated, and a blood vessel group may be designated as the blood vessels of interest.
  • the blood vessel designation unit 83 may include an automatic designation processing unit 90.
  • the automatic designation processing unit 90 performs processing for automatically determining a target blood vessel from an endoscopic image.
  • the automatic designation processing unit 90 performs a process of automatically designating a part or all of the blood vessels projected on the endoscopic image as a target blood vessel.
  • a target blood vessel is automatically designated according to the type of illumination light irradiated at the time of imaging.
  • the automatic designation processing unit 90 pays attention according to the wavelength of illumination light, such as designating a relatively thick blood vessel in the endoscopic image as a blood vessel of interest. Performs processing to switch blood vessels.
  • the automatic designation processing unit 90 designates a blood vessel that is smaller than a prescribed blood vessel thickness as a blood vessel of interest among blood vessels extracted from a captured image captured using illumination light that is a relatively short wavelength side wavelength band. In addition, the automatic designation processing unit 90 designates a blood vessel that is thicker than a prescribed blood vessel thickness as a target blood vessel among blood vessels extracted from a captured image captured using illumination light having a relatively long wavelength side wavelength band. To do.
  • the “specified blood vessel thickness” that is a threshold value when specifying a thin blood vessel and the “specified blood vessel thickness” that is a threshold value when specifying a thick blood vessel can be set in advance to appropriate values. .
  • the image processing device 72 includes a blood vessel thickness measuring unit 91 that measures the thickness of a blood vessel from an endoscopic image.
  • the blood vessel thickness measurement unit 91 may measure the thickness of the blood vessel from the blood vessel extraction image generated by the blood vessel extraction image generation unit 82, or the blood vessel thickness from the image acquired from the endoscope image acquisition unit 81. You may measure.
  • the automatic designation processing unit 90 can designate a blood vessel of interest using the blood vessel thickness information obtained by the blood vessel thickness measurement unit 91. A mode in which the automatic designation processing unit 90 includes the function of the blood vessel thickness measurement unit 91 is also possible.
  • the type of blood vessel having the highest contrast on the endoscopic image may be designated as the target blood vessel.
  • the blood vessel designating unit 83 only needs to have at least one of means for the user to manually select the target blood vessel and means for automatically determining the target blood vessel. Therefore, a configuration that can be used properly is preferable.
  • the processing for designating the target blood vessel can be omitted when all the blood vessels imaged on the endoscopic image are automatically handled as the target blood vessel. That is, in a configuration in which all of the blood vessels included in the endoscopic image are automatically handled as the target blood vessel, there may be a form in which the blood vessel designating unit 83 is omitted.
  • the automatic designation processing unit 90 pays attention to all the blood vessels included in the endoscopic image. It may be understood that it is designated as a blood vessel.
  • the blood vessel shape determining unit 84 determines the shape pattern of the blood vessel image of the blood vessel of interest related to the specification by the blood vessel specifying unit 83.
  • the shape pattern of the blood vessel is classified for each blood vessel type such as intraepithelial papillary capillaries (IPCL) and palisade blood vessels, for example.
  • IPCL intraepithelial papillary capillaries
  • palisade blood vessels for example.
  • the shape pattern of various blood vessels can be determined by a predetermined classification pattern.
  • the classification pattern is a reference shape pattern prepared for each type of blood vessel.
  • the blood vessel shape determination unit 84 extracts a portion of the target blood vessel in the blood vessel extraction image and compares the blood vessel shape with the classification pattern to search which classification pattern is applicable and determine the shape pattern of the target blood vessel. To do.
  • the blood vessel image of the surface layer is more complex than the blood vessel image of the mid-deep layer
  • branching in the shape pattern of the blood vessel image You may determine using feature-values, such as the number and the number of loops. For example, when the number of branches or the number of loops per unit area of the target blood vessel is greater than a prescribed number, it can be determined that the blood vessel is a surface blood vessel.
  • the feature amount used for determining the blood vessel shape pattern may be one type or a combination of two or more types.
  • the image processing device 72 includes a classification pattern storage unit 92.
  • the classification pattern storage unit 92 stores a classification pattern database that is a collection of data of classification patterns prepared in advance. Further, the classification pattern storage unit 92 may store data related to feature quantities such as the number of branches and the number of loops in the blood vessel image.
  • the blood vessel shape determination unit 84 extracts the blood vessel portion of the target blood vessel from the blood vessel extraction image, and uses the data stored in the classification pattern storage unit 92 to determine the shape pattern of the target blood vessel.
  • the shape pattern may include blood vessel thickness information.
  • the blood vessel shape determination unit 84 can acquire information on the thickness of the target blood vessel from the blood vessel thickness measurement unit 91. A configuration in which the blood vessel shape determination unit 84 has the function of the blood vessel thickness measurement unit 91 is also possible.
  • the thickness of the blood vessel is the distance between the boundary line of the blood vessel and the mucous membrane.
  • the number of pixels is counted along the short direction of the blood vessel from the extracted blood vessel edge through the blood vessel. To count.
  • the thickness of the blood vessel can be expressed by the number of pixels, but can be converted to a unit of length such as micrometers [ ⁇ m] if the shooting distance and zoom magnification when the endoscopic image is taken are known. It is.
  • the shape pattern is a pattern that does not include blood vessel thickness information.
  • the shape pattern is preferably a line drawing pattern obtained by extracting a blood vessel center line (also referred to as a core line), or a pattern capturing geometric features such as a loop pattern or a branch pattern.
  • the blood vessel shape may be determined by combining a shape pattern not including thickness information and thickness information.
  • the blood vessel depth estimation unit 85 estimates the blood vessel depth from the blood vessel shape pattern determined by the blood vessel shape determination unit 84.
  • the blood vessel depth estimation unit 85 of the present embodiment estimates the blood vessel depth of the target blood vessel using correspondence information in which the blood vessel shape and the depth are associated with each other. Correspondence information that defines the relationship between the blood vessel shape and depth of various blood vessels is prepared in advance based on pathological information.
  • the blood vessel image depicted in the endoscopic image is different between the superficial blood vessel and the intermediate deep blood vessel (see FIG. 20).
  • the esophagus if it is a thin blood vessel such as IPCL, it can be judged as a superficial blood vessel, and if it is a fence-like blood vessel, it can be judged as a deep blood vessel. It is known that the superficial blood vessel has a depth of approximately 50 ⁇ m, and the deep blood vessel has a depth of approximately 200 ⁇ m. By utilizing such correspondence information, it is possible to know the absolute depth of the blood vessel of interest.
  • the image processing apparatus 72 includes a correspondence information database storage unit 94.
  • the correspondence information database storage unit 94 stores a correspondence information database that is a collection of correspondence information that defines the correspondence between blood vessel shapes and depths for various blood vessels. Corresponding information is prepared for each part of the biological tissue to be observed, and corresponding correspondence information is referred to according to the observed part to be observed.
  • the blood vessel depth estimation unit 85 estimates the blood vessel depth by comparing the shape pattern determined by the blood vessel shape determination unit 84 with the correspondence information database. For example, an absolute depth value can be determined such that “50 ⁇ m” is used when the target blood vessel is a surface blood vessel, and “200 ⁇ m” is used when the target blood vessel is a deep blood vessel.
  • the blood vessel depth estimation unit 85 when the blood vessel of interest is a middle-layer blood vessel that does not apply to either the surface blood vessel or the deep blood vessel, for example, a blood vessel that is thicker than the surface blood vessel and thinner than the deep blood vessel Alternatively, a value between the depth value of the surface blood vessel and the depth value of the deep blood vessel may be estimated. In this way, the blood vessel depth may be estimated by combining the blood vessel shape pattern and the thickness information. In this case, the blood vessel depth estimation unit 85 can acquire blood vessel thickness information from the blood vessel thickness measurement unit 91. A configuration in which the blood vessel depth estimation unit 85 includes the function of the blood vessel thickness measurement unit 91 is also possible.
  • the information on the blood vessel depth estimated by the blood vessel depth estimation unit 85 is sent to the display control unit 86.
  • the display control unit 86 controls the display on the display unit 88.
  • the display control unit 86 performs display control so that the information on the blood vessel depth estimated by the blood vessel depth estimation unit 85 is displayed on the display unit 88 together with the image including the target blood vessel.
  • the display control unit 86 also displays on the display unit 88 one or a combination of the endoscopic image acquired through the endoscopic image acquisition unit 81 and the blood vessel extraction image generated by the blood vessel extraction image generation unit 82. Can be made.
  • the display control unit 86 controls the display content of the display unit 88 in accordance with an instruction for selecting or switching a display image by the input device 87 and an instruction for switching a display mode such as one-screen display and multi-screen display.
  • the combination of the display control unit 86 and the display unit 88 corresponds to one form of an “information presentation unit”.
  • FIG. 22 is a flowchart showing the flow of processing for estimating the blood vessel depth in the endoscope system 10 of the present embodiment.
  • the operation shown in FIG. 22 can be understood as an operation method of the image processing apparatus 72. Further, the operation shown in FIG. 22 can be understood as an operation method of the endoscope system 10.
  • step S51 the endoscope system 10 acquires an endoscopic image.
  • Step S51 corresponds to one form of an “image signal acquisition step”.
  • the process in which the image signal acquisition unit 53 of the processor device 16 acquires an image signal from the endoscope 12 corresponds to one form of the endoscope image acquisition process in step S51.
  • the process in which the endoscopic image acquisition unit 81 of the image processing device 72 acquires an endoscopic image from the storage 70 corresponds to one form of the endoscopic image acquisition process in step S51.
  • step S52 the endoscope system 10 generates a blood vessel extraction image based on the endoscope image acquired in step S51.
  • a blood vessel extraction image is an image generated through a process of extracting or enhancing a blood vessel image. “Extraction” includes the concept of processing that is distinguished from others and processing that is differentiated in a distinguishable manner.
  • a special observation image that is a blood vessel enhancement image corresponds to a form of a blood vessel extraction image.
  • the blood vessel extraction image may be a composite image synthesized based on a plurality of blood vessel enhancement images, or may be an image obtained by synthesizing a normal observation image and a special observation image.
  • the process in which the signal processing unit 60 of the processor device 16 generates the blood vessel emphasized image corresponds to one form of the blood vessel extraction image generation process in step S52. Further, the step of generating the blood vessel extraction image by the blood vessel extraction image generation unit 82 of the image processing device 72 corresponds to one form of the blood vessel extraction image generation step of step S52.
  • step S53 the blood vessel designating unit 83 designates the target blood vessel.
  • the target blood vessel may be designated based on the user's operation, or may be automatically designated from the endoscopic image. Note that when all blood vessels in the endoscopic image are automatically set as the blood vessels of interest, the blood vessel designation step in step S53 may be omitted.
  • step S54 the blood vessel shape determining unit 84 determines the blood vessel shape of the target blood vessel.
  • the blood vessel shape determining unit 84 determines the shape pattern of the target blood vessel based on the image signal acquired in step S51.
  • Step S54 corresponds to one form of the “blood vessel shape determination step”.
  • step S55 the blood vessel depth estimation unit 85 estimates the blood vessel depth of the target blood vessel based on the shape pattern determined in step S54.
  • Step S55 corresponds to a form of “blood vessel depth estimation step”.
  • step S56 the blood vessel depth estimation unit 85 outputs information on the blood vessel depth estimated in step S55.
  • information on the blood vessel depth estimated by the blood vessel depth estimation unit 85 is displayed on the display unit 88 together with an image including the blood vessel of interest.
  • FIG. 23 is an example of the display screen of the display unit 88.
  • the blood vessel depth of the target blood vessel 152 is displayed in the blood vessel depth display window 154 in the screen.
  • the blood vessel designation frame 156 is an operation support mark indicating a region including the target blood vessel 152 on the endoscope image 150. The user can move the blood vessel designation frame 156 on the endoscopic image 150 by operating the input device 87. The target blood vessel can be selected and changed by the blood vessel designation frame 156.
  • the absolute blood vessel depth can be estimated without using information on the scattering coefficient of the observation target. Moreover, information useful for diagnosis can be provided by displaying information on the estimated blood vessel depth on the display unit 88 together with the endoscopic image.
  • the configuration in which the endoscope system 10 stores an endoscope image in the storage 70 and the image processing device 72 acquires the endoscope image from the storage 70 to estimate the blood vessel depth has been described.
  • the endoscope system 10 may execute processing for estimating the blood vessel depth almost in real time while observing the observation target.
  • FIG. 24 is a block diagram illustrating functions of the processor device of the endoscope system according to the second embodiment.
  • the same or similar elements as those described in FIGS. 2 and 21 are denoted by the same reference numerals, and the description thereof is omitted.
  • the endoscope 12 and the light source device 14 described in FIG. 2 are not shown, but in the endoscope system of the second embodiment, the endoscope 12 and the light source device 14 are the same as those in the first embodiment.
  • a configuration may be employed.
  • a processor device 16A shown in FIG. 24 can be used.
  • the processor device 16A has the function of the image processing device 72 described in FIG. Further, the processor device 16A includes a storage unit serving as the storage 70 inside the device.
  • the console 19 serves as the input device 87 described with reference to FIG.
  • the monitor 18 serves as the display unit 88 described with reference to FIG. Therefore, in the second embodiment, the input device 87 and the display unit 88 can be omitted.
  • the endoscopic image acquisition unit 81 can acquire an endoscopic image from the signal processing unit 60 without using the storage 70.
  • the blood vessel extraction unit 82 omits the processing, and the blood vessel designating unit 83 acquires the blood vessel emphasized image from the signal processing unit 60. May be.
  • the blood vessel shape determining unit 84 may acquire a blood vessel emphasized image from the signal processing unit 60.
  • the blood vessel thickness measuring unit 91 may measure the thickness of the blood vessel from the endoscopic image generated by the signal processing unit 60.
  • the processor device 16 ⁇ / b> A in the second embodiment corresponds to one form of an “image processing device”.
  • the blood vessel depth of the target blood vessel can be estimated as in the first embodiment.
  • the invention is not limited to the first embodiment and the second embodiment described above, and may have various forms. Hereinafter, some modified examples of the embodiment will be disclosed.
  • the classification pattern storage unit 92 or the correspondence information database storage unit 94 described with reference to FIG. 23 or both of them may be provided in an external device separate from the image processing device 72.
  • the classification pattern storage unit 92 or the correspondence information database storage unit 94 or both of them may be mounted on a server that is communicably connected to the image processing device 72.
  • Information on the blood vessel depth estimated by the blood vessel depth estimation unit 85 may be stored in the storage 70.
  • a configuration in which data of an image obtained by combining blood vessel depth information with an endoscopic image of a target blood vessel can be stored in the storage 70 may be employed.
  • Information on the blood vessel depth estimated by the blood vessel depth estimation unit 85 may be supplied to the light source control unit 22 to perform control for selecting illumination light suitable for observation of the blood vessel of interest.
  • the image displayed on the display unit 88 when the user manually designates the target blood vessel is not limited to the special observation image, and may be a normal observation image, and is obtained by synthesizing the normal observation image and the special observation image. It may be a composite image.
  • the cutoff frequency of the LPF used in the low-pass filter processing unit 77 is set in advance. However, it is preferable to make the cutoff frequency of the LPF variable and set the cutoff frequency of the LPF dynamically. For example, information on the alignment accuracy of the first image signal and the second image signal is input to the low-pass filter processing unit 77 from the alignment processing unit 62. Then, the low-pass filter processing unit 77 changes the cutoff frequency of the LPF, that is, the strength of the low-resolution processing, according to the alignment accuracy of the first image signal and the second image signal.
  • the lower the LPF cutoff frequency is set to a lower frequency and the lower the resolution processing strength, and the lower the alignment accuracy is, the lower the LPF cutoff frequency is set to a lower frequency. It is recommended to increase the strength of the resolution processing.
  • the cutoff frequency of the LPF is set within a range that leaves at least 1/8 of the Nyquist frequency on the basis of the resolution of the generated blood vessel emphasized image. It is preferable.
  • the low-pass filter processing unit 77 adjusts the strength of the resolution reduction processing according to the accuracy of the alignment processing of the alignment processing unit 62.
  • the low-pass filter processing unit 77 The alignment processing unit 62 may adjust the accuracy of the alignment processing in accordance with the strength of the low resolution processing performed by. In this case, the alignment processing unit 62 sets the alignment accuracy of the first image signal and the second image signal higher as the cutoff frequency of the LPF is larger and the strength of the low resolution processing is smaller. .
  • the alignment processing unit 62 When the accuracy of the alignment processing between the first image signal and the second image signal performed by the alignment processing unit 62 is variable, a still image of the blood vessel emphasized image is displayed or stored, and a moving image of the blood vessel emphasized image is displayed It is preferable to change the accuracy of the alignment process. For example, when displaying a moving image of a blood vessel emphasized image on the monitor 18, the alignment processing unit 62 performs positioning with lower first accuracy than when displaying (or storing) a still image of the blood vessel emphasized image on the monitor 18. Align. On the contrary, when displaying the still image of the blood vessel emphasized image on the monitor 18, the alignment processing unit 62 performs the alignment with the second accuracy higher than when displaying the moving image of the blood vessel emphasized image on the monitor 18. .
  • a blood vessel enhanced image when displaying a moving image, a blood vessel enhanced image can be generated at high speed within a range where color misregistration is not noticeable, and at the time of obtaining a still image in which color misregistration is conspicuous, a blood vessel enhanced image in which color misregistration is further suppressed. Can be generated.
  • Modification 8 Instead of the low-pass filter processing unit 77, it is possible to reduce the resolution by reducing the arithmetic image signal ⁇ B and then expanding it to the original size. As described above, when the arithmetic image signal ⁇ B is reduced and enlarged to reduce the resolution, it is preferable to employ a reduction method with less aliasing when the arithmetic image signal ⁇ B is reduced. For example, after the reduction by the area average method, the calculation image signal ⁇ B can be reduced in resolution by cubic spline interpolation.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡画像に描写されている血管の絶対的な血管深さを推定することができる内視鏡システム、画像処理装置及び画像処理装置の動作方法を提供する。内視鏡システムは、波長帯域が異なる複数種類の照明光を発生させる光源部と、複数種類のうちのいずれかの照明光が照射された観察対象を撮像する撮像センサと、撮像センサから得られる画像信号を基に、観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定部(84)と、形状パターンに基づいて注目血管の血管深さを推定する血管深さ推定部(85)と、を備える。

Description

内視鏡システム、画像処理装置、及び画像処理装置の作動方法
 本発明は、内視鏡システム、画像処理装置、及び画像処理装置の作動方法に係り、特に内視鏡によって撮像した画像から血管に関する情報を取得する画像処理技術並びに診断支援技術に関する。
 内視鏡システムを用いた検査又は診断において、血管に関する情報の重要性が認識されており、近年では様々な方法で血管の情報を抽出する内視鏡システムが提案されている(特許文献1及び特許文献2)。特許文献1には青色の狭帯域光を用いて得られた画像と緑色の狭帯域光を用いて得られた画像の各々に重み付けの処理を行うことにより、生体組織の粘膜表層に存在する血管と生体組織の深層に存在する血管とを抽出する内視鏡システムが開示されている。
 特許文献2には、互いに波長領域が異なる複数の狭帯域光を被写体組織に照射し、各狭帯域光の照射ごとに撮像素子を介して取得される狭帯域画像データ間の輝度比に基づいて、血管深さと酸素飽和濃度を算出する内視鏡システムが開示されている。
特許第5393525号 特開2011-218135号公報
 特許文献1及び特許文献2に示されているように、波長帯域が異なる複数種類の照明光を利用してマルチフレーム撮影により取得した複数の波長帯域ごとの画像から、異なる深さに存在する血管の情報を抽出することができる。
 従来の方法で把握される血管の深さは粘膜を基準にして表層であるか中深層であるかという相対的なものであり、現実の深さを示す絶対的な数値ではない。血管を抽出した画像から血管の絶対的な深さを算出するには、粘膜部の散乱係数を知る必要がある。しかし、粘膜部の散乱係数には個体差があるため、散乱係数が未知の場合は、絶対的な血管深さを算出することができない。また、内視鏡によって取得された画像から粘膜部の散乱係数を推定して絶対的な血管深さを算出することも考えられるが、照明光の照射ムラや光量変動など様々な外因によって内視鏡の取得画像の画素値が変動するため、取得画像から粘膜部の散乱係数を推定することは困難である。
 本発明はこのような事情に鑑みてなされたもので、観察対象の散乱係数が未知である場合であっても内視鏡画像に描写されている血管の絶対的な血管深さを推定することができる内視鏡システム、画像処理装置及び画像処理装置の作動方法を提供することを目的とする。
 本開示の一つの観点による第1態様に係る内視鏡システムは、波長帯域が異なる複数種類の照明光を発生させる光源部と、複数種類のうちのいずれかの照明光が照射された観察対象を撮像する撮像センサと、撮像センサから得られる画像信号を基に、観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定部と、形状パターンに基づいて注目血管の血管深さを推定する血管深さ推定部と、を備える。
 第1態様の内視鏡システムによれば、撮像センサによって撮像された画像から注目血管の形状パターンが判定され、判定された形状パターンから血管深さが推定される。血管の形状は血管の種類によって様々であり、血管の種類によってその血管が存在している生体組織の深さは異なる。第1態様によれば、血管の形状パターンと深さの関係から注目血管の血管深さを推定することができる。
 「撮像センサから得られる画像信号」は、撮像センサからリアルタイムで取得される画像信号であってもよいし、撮像センサを介して取得されメモリその他の記憶装置に保存された画像信号であってもよい。「画像信号」という用語には、アナログ画像信号とデジタル画像信号との両方の概念が含まれる。撮像センサから得た画像信号に対してデモザイク処理、色変換処理、階調変換処理その他の各種信号処理を施して得られる画像信号は「撮像センサから得られる画像信号」の概念に含まれる。「撮像画像」は、撮像センサによって撮像された画像である。撮像センサから得られる画像信号によって表される画像は「撮像画像」の概念に含まれる。
 「注目血管」は、血管深さを推定する対象となる血管である。注目血管は、撮像画像内の血管のうち一部の血管である特定の血管であってもよいし、撮像画像内の全部の血管であってもよい。
 第2態様として、第1態様の内視鏡システムにおいて、血管深さ推定部は、血管形状と血管の深さとが対応付けられた対応情報を利用して注目血管の血管深さを推定する構成とすることができる。
 対応情報に含まれる血管形状の情報には、例えば、形状パターンを示す画像や図形を用いることができる。また、血管形状の情報として、形状的な特徴を記述する特徴量の情報を用いてもよい。対応情報に含まれる血管の深さは、例えば、粘膜表面を基準にした深さの数値とすることができる。
 第3態様として、第2態様の内視鏡システムにおいて、対応情報に関するデータベースを記憶しておくデータベース記憶部を備える構成とすることができる。
 第4態様として、第2態様又は第3態様の内視鏡システムにおいて、対応情報は、観察対象となる生体組織の部位別に用意されており、観察対象である被観察部位に応じて該当する対応情報が参照される構成とすることができる。
 第5態様として、第1態様から第4態様のいずれか一態様の内視鏡システムにおいて、撮像センサを介して取得される観察対象の撮像画像から血管の太さを測定する血管太さ測定部を有し、血管深さ推定部は、注目血管の形状パターンと血管太さ測定部により得られる注目血管の太さの情報とを基に血管深さを推定する構成とすることができる。
 形状パターンと太さの情報とを組み合わせて血管深さを推定することにより、より精度の高い血管深さの推定が可能である。
 第6態様として、第1態様から第5態様のいずれか一態様の内視鏡システムにおいて、撮像センサを介して取得される観察対象の撮像画像の中から注目血管を指定する血管指定部を備える構成とすることができる。
 第7態様として、第6態様の内視鏡システムにおいて、撮像センサから得られる画像信号から血管部分が抽出された血管抽出画像を生成する血管抽出画像生成部を備え、血管指定部は、撮像画像としての血管抽出画像の中から注目血管を指定する構成とすることができる。
 「抽出」は血管部分のみを分離して取り出す処理に限らず、血管部分を強調する処理や血管部分を他と区別して差別化する処理などの概念も含む。
 第8態様として、第6態様又は第7態様の内視鏡システムにおいて、撮像センサから得られる画像信号を基に生成される画像を表示する表示部を備え、血管指定部は、表示部に表示された画像上でユーザが注目血管を指定する操作を行うための操作部を含む構成とすることができる。
 第8態様によれば、ユーザは表示部に表示された画像を見ながら、画像内の所望の血管を注目血管として選択することが可能である。
 第9態様として、第6態様から第8態様のいずれか一態様の内視鏡システムにおいて、血管指定部は、注目血管を自動で指定する自動指定処理部を含む構成とすることができる。
 第9態様によれば、観察モードや撮像条件などから注目血管を推測することが可能であり、撮像画像内から自動で注目血管を指定することができる。第8態様による手動選択の構成に加えて、注目血管が自動選択される構成を備える態様が一層好ましい。
 第10態様として、第9態様の内視鏡システムにおいて、血管指定部は、観察対象を撮像する際に観察対象に照射された照明光の波長帯域に応じて注目血管を自動で指定する構成とすることができる。
 第11態様として、第10態様の内視鏡システムにおいて、複数種類の照明光のうち相対的に短波長側の波長帯域である照明光を用いて観察対象を撮像した場合、血管指定部は、規定の血管太さよりも細い血管を注目血管として指定する構成とすることができる。
 短波長側の波長帯域の照明光は、主として表層血管を観察する際に使用される。一般に、表層血管は中深層血管と比べて細く微細な血管であるため、短波長側の波長帯域の照明光を用いて撮像された画像から血管部分を抽出し、血管太さを判断の指標にして注目血管を自動的に指定することができる。
 第12態様として、第10態様又は第11態様の内視鏡システムにおいて、複数種類の照明光のうち相対的に長波長側の波長帯域である照明光を用いて観察対象を撮像した場合、血管指定部は、規定の血管太さよりも太い血管を注目血管として指定する構成とすることができる。
 長波長側の波長帯域の照明光は、主として中深層血管を観察する際に使用される。一般に、中深層血管は表層血管に比べて太い血管であるため、長波長側の波長帯域の照明光を用いて撮像された画像から血管部分を抽出し、血管太さを判断の指標にして注目血管を自動的に指定することができる。
 第13態様として、第9態様の内視鏡システムにおいて、血管指定部は、撮像画像に含まれている血管の種類の中で最もコントラストが高い血管の種類を注目血管として指定する構成とすることができる。
 画像内における血管のコントラストを判断の指標にして注目血管を自動的に指定することができる。
 第14態様として、第1態様から第13態様のいずれか一態様の内視鏡システムにおいて、血管形状判定部は、血管の種類に応じて事前に定められた血管形状の分類パターンの情報を基に、注目血管の形状パターンを判定する構成とすることができる。
 第15態様として、第1態様から第14態様のいずれか一態様の内視鏡システムにおいて、血管形状判定部は、血管の分岐数及びループ数の少なくとも一方の特徴量を用いて形状パターンを判定する構成とすることができる。
 第16態様として、第1態様から第15態様のいずれか一態様の内視鏡システムにおいて、血管深さ推定部により推定した血管深さの情報を、注目血管が含まれている画像と共に提示する情報提示部を備える構成とすることができる。
 第8態様における表示部は第16態様における情報提示部として機能させることができる。
 本開示の他の観点による第17態様に係る画像処理装置は、波長帯域が異なる複数種類の照明光が観察対象に照射され、それぞれの照明光の照射の下で撮像センサによって観察対象を撮像することにより得られる画像信号を取得する画像信号取得部と、画像信号取得部により取得される画像信号を基に、観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定部と、形状パターンに基づいて注目血管の血管深さを推定する血管深さ推定部程と、を備える。
 第17態様において、第2態様から第16態様で特定した事項と同様の事項を適宜組み合わせることができる。
 本開示の他の観点による第18態様に係る画像処理装置の作動方法は、波長帯域が異なる複数種類の照明光が観察対象に照射され、それぞれの照明光の照射の下で撮像センサによって観察対象を撮像することにより得られる画像信号を取得する画像信号取得工程と、画像信号取得工程により取得される画像信号を基に、観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定工程と、形状パターンに基づいて注目血管の血管深さを推定する血管深さ推定工程と、を含む。
 第18態様において、第2態様から第16態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、内視鏡システムにおいて特定される手段、処理部、若しくは動作部などの要素は、これに対応する処理、動作又は機能を担う工程(ステップ)の要素として把握することができる。
 本発明によれば、観察対象の散乱係数の情報を用いることなく、絶対的な血管深さを推定することができる。
図1は第1実施形態に係る内視鏡システムを示す外観図である。 図2は内視鏡システムの概略構成を示すブロック図である。 図3は光源の分光スペクトルの例を示すグラフである。 図4は撮像センサに使用されているカラーフィルタの分光特性を示すグラフである。 図5は観察対象の散乱係数を示すグラフである。 図6はヘモグロビンの吸収係数を示すグラフである。 図7は特殊観察画像処理部の機能を示すブロック図である。 図8は血管の深さと血管のコントラストの関係を模式的に表すグラフである。 図9は特定深さの血管強調画像を生成する際の信号チャンネルの割り当ての例を模式的に示した説明図である。 図10は特殊観察モードにおける照明光の発生から画像処理までの手順を示すフローチャートである。 図11は中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例を示す図である。 図12は中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例を示す図である。 図13は図11に示した画像と図12に示した画像とから生成される血管強調画像の例を示す図である。 図14は中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例を示す図である。 図15は中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例を示す図である。 図16は図14に示した画像と図15に示した画像とから生成される血管強調画像の例を示す図である。 図17は中心波長540nmの第3狭帯域光を用いて撮像された撮像画の例を示す図である。 図18は中心波長620nmの第4狭帯域光を用いて撮像された撮像画像の例を示す図である。 図19は図17に示した画像と図18に示した画像とから生成される血管強調画像の例を示す図である。 図20は内視鏡システムによって得られる特殊観察画像の一例を示す図である。 図21は画像処理装置の機能を示すブロック図である。 図22は本実施形態の内視鏡システムにおいて血管深さを推定する処理の流れを示すフローチャートである。 図23は表示部の表示画面の例を示す図である。 図24は第2実施形態に係る内視鏡システムのプロセッサ装置の機能を示すブロック図である。
 以下、添付図面に従って本発明の実施の形態について詳説する。
 [第1実施形態]
 図1は第1実施形態に係る内視鏡システム10を示す外観図である。図2は内視鏡システム10の機能を示すブロック図である。図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。また、本実施形態の内視鏡システム10は、図2に示すストレージ70及び画像処理装置72を有する。内視鏡12は、光源装置14と光学的に接続され、かつプロセッサ装置16と電気的に接続される。
 内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって先端部12dが所望の方向に向けられる。
 操作部12bには、アングルノブ12eの他、モード切替スイッチ13a及びズーム操作部13bが設けられている。また、操作部12bには、図1に示されていない静止画像取得指示部13cが設けられている(図2参照)。
 モード切替スイッチ13aは、観察モードの切り替え操作に用いられる。内視鏡システム10は、観察モードとして通常観察モードと特殊観察モードとを有している。通常観察モードの場合、内視鏡システム10は、照明光に白色光を用いて観察対象を撮像して得られる画像をモニタ18に表示する。通常観察モードで観察対象を撮像して得られる画像を「通常観察画像」という。通常観察モードは「白色光観察モード」と言い換えることができる。通常観察画像は「白色光観察画像」と言い換えることができる。照明光は「観察光」と言い換えることができる。
 特殊観察モードの場合、内視鏡システム10は、照明光に特定の波長帯域の狭帯域光を用いて観察対象を撮像して得られる画像信号を用いて、観察対象の特定深さ領域に在る血管を強調した可視化画像を生成し、血管の観察に適した画像をモニタ18に表示する。特殊観察モードで得られる画像を「特殊観察画像」という。特殊観察モードは「狭帯域観察モード」と言い換えることができる。特殊観察画像は「血管強調画像」若しくは「血管可視化画像」又は「狭帯域観察画像」と言い換えることができる。本例の内視鏡12は、使用する狭帯域光の波長帯域の種類又はその組み合わせが異なる複数種類の特殊観察モードを有している。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続される。モニタ18は、観察対象の画像や観察対象の画像に付帯する情報等を出力表示する表示デバイスである。コンソール19は、内視鏡システム10の機能設定や各種指示等の入力操作を受け付けるユーザインターフェースとして機能する。プロセッサ装置16には、図1に示されていない外部記憶装置が接続されていてもよい。外部記憶装置には、観察対象の画像及び画像に付帯する情報等を記録することができる。図2に示したストレージ70は外部記憶装置の一例であり、外付けの記録部として機能する。
 図2に示すように、光源装置14は、光源20と、光源20を制御する光源制御部22と、を備えている。光源20は、例えば、複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、若しくはキセノンランプ等のハロゲン光源、又はこれらの適宜の組み合わせによって構成される。また、光源20には、LED等の発光源が発光した光の波長帯域を調整するための図示されない光学フィルタ等が含まれる。
 本実施形態の光源20は、V-LED(Violet Light Emitting Diode)23a、B-LED(Blue Light Emitting Diode)23b、G-LED(Green Light Emitting Diode)23c及びR-LED(Red Light Emitting Diode)23dの四色のLEDを有する。
 図3は光源20の分光スペクトルの例を示すグラフである。V-LED23aは、中心波長が400nm±10nm程度である波長帯域380nm~420nmの紫色光Vを発光する紫色半導体光源である。B-LED23bは、中心波長が450nm±10nm程度である波長帯域420nm~500nmの青色光Bを発する青色半導体光源である。G-LED23cは、中心波長が540nm±10nm程度であり、波長帯域が480nm~600nmに及ぶ緑色光Gを発する緑色半導体光源である。R-LED23dは、中心波長が620nm±10nm程度であり、波長帯域が600nm~650nmに及ぶ赤色光Rを発光する赤色半導体光源である。なお、中心波長という用語は分光強度が極大になるピーク波長と読み替えてもよい。
 光源制御部22は、LED等の発光源の点灯(オン)及び消灯(オフ)やLED等の駆動電流や駆動電圧の調整によって照明光の光量を制御する。また、光源制御部22は、光学フィルタの変更等によって照明光の波長帯域を制御する。光源制御部22は、光源20の各LED23a~23dに対して個別に制御信号を入力することにより、各LED23a~23dの点灯や消灯並びに点灯時の発光量を各々独立に制御することができる。光源20は、光源制御部22の制御によって、観察対象に照射する複数種類の照明光を発生する。
 本例の光源20は、紫色波長帯域(約350nm~400nmの波長帯域)に中心波長を有する紫色狭帯域光、青色波長帯域(約400nm~500nmの波長帯域)に中心波長を有する青色狭帯域光、緑色波長帯域(約500nm~600nmの波長帯域)に中心波長を有する緑色狭帯域光、及び赤色波長帯域(約600nm~650nmの波長帯域)に中心波長を有する赤色狭帯域光など、複数種類の狭帯域光を発生することができる。
 より具体的な例として、光源20は、中心波長405nmの紫色狭帯域光、中心波長445nmの青色狭帯域光、中心波長540nmの緑色狭帯域光、及び中心波長620nmの赤色狭帯域光などの狭帯域光を発生させることができる。また光源20は、中心波長470nmの青色狭帯域光を発生させることが可能であり、中心波長が異なる2種類以上の青色狭帯域光を発生させることもできる。紫色狭帯域光、緑色狭帯域光、及び赤色狭帯域光の各々についても中心波長が異なる2種類以上の狭帯域光を発生させることができる。各狭帯域光の中心波長は光学フィルタの変更等によって指定することができる。
 本開示において、光源20が発生する中心波長405nmの紫色狭帯域光を「紫色光V」と表記する場合がある。また、中心波長445nmの青色狭帯域光を「青色光B」、中心波長540nmの緑色狭帯域光を「緑色光G」、中心波長620nmの赤色狭帯域光を「赤色光R」と表記する場合がある。
 特殊観察モードが選択された場合、光源20は複数種類の狭帯域光のうち、中心波長が互いに異なる少なくとも2種類以上の狭帯域光を発生し、各々の狭帯域光が照射された観察対象を撮像センサ48によって撮像する。したがって、特殊観察モードでは、狭帯域光の種類に対応した複数種類の内視鏡画像が得られる。本実施形態では、特殊観察モードの場合に、光源20は、中心波長が互いに異なる第1狭帯域光と第2狭帯域光の2種類の狭帯域光を交互に発生し得る。これら2種類の狭帯域光のうち第1狭帯域光は相対的に短波長側の狭帯域光であり、第2狭帯域光は相対的に長波長側の狭帯域光であるとする。つまり、第2狭帯域光の中心波長は第1狭帯域光の中心波長よりも長波長帯域にある。例えば、第1狭帯域光は中心波長が405nmの紫色狭帯域光であり、第2狭帯域光は中心波長が445nm程度の青色狭帯域光である。
 また、第1狭帯域光及び第2狭帯域光の組み合わせとは異なる第3狭帯域光及び第4狭帯域光の組み合わせを使用する別の特殊観察モードの場合に、光源20は、中心波長が互いに異なる第3狭帯域光と第4狭帯域光の2種類の狭帯域光を交互に発生し得る。これら2種類の狭帯域光のうち第3狭帯域光は相対的に短波長側の狭帯域光であり、第4狭帯域光は相対的に長波長側の狭帯域光であるとする。つまり、第3狭帯域光の中心波長は第4狭帯域光の中心波長よりも長波長帯域にある。例えば、第3狭帯域光は中心波長が540nmの緑色狭帯域光であり、第4狭帯域光は中心波長が620nm程度の赤色狭帯域光である。
 本実施形態では、中心波長が短い順に第1狭帯域光、第2狭帯域光、第3狭帯域光、及び第4狭帯域光の4種類の狭帯域光を例示し、これらの狭帯域光を選択的に切り替えて特殊観察画像を生成する形態を説明する。なお、発明の実施に際して、狭帯域光の種類はこの例に限らず、更に多数種の狭帯域光を使用する形態も可能である。
 また光源20は、白色光を発生することができる。通常観察モードの場合、光源制御部22は、V-LED23a、B-LED23b、G-LED23c、及びR-LED23dを全て点灯させる。このため、通常観察モードでは、紫色光V、青色光B、緑色光G、及び赤色光Rを含む広い波長帯域の白色光が照明光として用いられる。光源装置14は「光源部」の一形態に相当する。
 光源20が発した照明光は、図示されないミラーやレンズ等で形成される光路結合部を介してライトガイド41に入射される。ライトガイド41は内視鏡12及びユニバーサルコードに内蔵されている。ユニバーサルコードは、内視鏡12と、光源装置14及びプロセッサ装置16を接続するコードである。ライトガイド41は、挿入部12a内に挿通されており、光源20が発生した照明光を内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有している。ライトガイド41によって伝搬された照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47及び撮像センサ48を有している。照明光を照射したことによる観察対象からの反射光、散乱光及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像される。ズームレンズ47は、ズーム操作部13bの操作に応じてテレ端とワイド端との間で自在に移動され、撮像センサ48に結像する観察対象の像を拡大又は縮小する。
 撮像センサ48は、画素毎にR(赤色)、G(緑色)、又はB(青色)のカラーフィルタのいずれかが設けられたカラー撮像センサである。撮像センサ48は、観察対象を撮像してRGB各色チャンネルの画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサを利用可能である。また、原色のカラーフィルタが設けられた撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いてもよい。補色撮像センサを用いる場合には、CMYGの四色の画像信号が出力される。このため、補色-原色色変換によって、CMYGの四色の画像信号をRGBの三色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いてもよい。
 図4は撮像センサ48に使用されているカラーフィルタの分光特性を示すグラフである。横軸は波長を表し、縦軸は透過率を表す。図4においてB-CFはBカラーフィルタ、G-CFはGカラーフィルタ、R-CFはRカラーフィルタのそれぞれの分光特性を示している。紫色から青色の波長帯域の光は、撮像センサ48においてBカラーフィルタが設けられたB画素で受光される。緑色の波長帯域の光は撮像センサ48においてGカラーフィルタが設けられたG画素で受光される。赤色の波長帯域の光は撮像センサ48においてRカラーフィルタが設けられたR画素で受光される。撮像センサ48のRGB各色の画素から受光光量に応じた信号が出力される。
 例えば、特殊観察モードにおいて、紫色の波長帯域である第1狭帯域光が照明光として用いられた場合、撮像センサ48は、第1狭帯域光が照射された観察対象を撮像し、第1狭帯域光に対応する第1画像信号をB画素から出力する。また、特殊観察モードにおいて、青色の波長帯域である第2狭帯域光が照明光として用いられた場合、撮像センサ48は、第2狭帯域光に対応する第2画像信号をB画素から出力する。
 内視鏡12は、AFE(Analog Front End)回路51とAD(Analog to Digital)コンバータ52を備える。撮像センサ48が出力する画像信号はAFE回路51に入力される。AFE回路51は、相関二重サンプリング(CDS;Correlated Double Sampling)回路及び自動利得制御(AGC;Automatic Gain Control)回路を含む。AFE回路51は、撮像センサ48から得られるアナログの画像信号に相関二重サンプリングや自動利得制御を行う。AFE回路51を経た画像信号は、ADコンバータ52によりデジタル画像信号に変換される。AD(Analog to Digital)変換後のデジタル画像信号はプロセッサ装置16に入力される。なお、AFE回路51にADコンバータ52を搭載する形態も可能である。
 プロセッサ装置16は、画像信号取得部53と、DSP(Digital Signal Processor)56と、ノイズ低減部58と、メモリ59と、信号処理部60と、映像信号生成部68と、を備えている。
 画像信号取得部53は、内視鏡12からデジタル画像信号を取得する。DSP56は、画像信号取得部53を介して取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施された画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルが整えられる。
 ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。ガンマ変換処理後の画像信号には、デモザイク処理が施され、各画素で不足した色の信号が補間によって生成される。デモザイク処理は、等方化処理又は同時化処理とも呼ばれる。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。
 ノイズ低減部58は、DSP56でデモザイク処理等が施された画像信号に対してノイズ低減処理を施すことによってノイズを低減する。ノイズ低減処理として、例えば移動平均法やメディアンフィルタ法等による処理を採用することができる。ノイズ低減部58によりノイズを低減した画像信号は、メモリ59に記憶される。
 信号処理部60はノイズ低減後の画像信号をメモリ59から取得する。信号処理部60は、取得した画像信号に対して、必要に応じて、色変換処理、色彩強調処理、及び構造強調処理等の信号処理を施し、観察対象が写ったカラーの内視鏡画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元ルックアップテーブル処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像信号に対して行う。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。
 信号処理部60における処理の内容は、観察モードによって異なる。観察モードが通常観察モードの場合、信号処理部60は、観察対象が自然な色合いになる信号処理を施して通常観察画像を生成する。観察モードが特殊観察モードの場合、信号処理部60は、少なくとも観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。
 信号処理部60は、画像処理切替部61と、通常観察画像処理部66と、特殊観察画像処理部67と、位置合わせ処理部62と、明るさ補正処理部63とを含み、通常観察モード及び特殊観察モードのそれぞれのモードに対応した信号処理を行う。
 画像処理切替部61は、モード切替スイッチ13aによる観察モードの設定に応じて、通常観察画像の生成処理又は特殊観察画像の生成処理の実施を切り替える。モード切替スイッチ13aの操作によって通常観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を通常観察画像処理部66に送信する。モード切替スイッチ13aの操作によって特殊観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を位置合わせ処理部62及び明るさ補正処理部63を介して特殊観察画像処理部67に送信する。
 通常観察画像処理部66は、通常観察モードに設定されている場合に作動する。通常観察画像処理部66は白色光を観察対象に照射して撮像された画像信号に対して色変換処理、色彩強調処理及び構造強調処理を行い、通常観察画像信号を生成する。通常観察画像信号を用いたカラー画像が通常観察画像である。
 特殊観察画像処理部67は、特殊観察モードに設定されている場合に作動する画像処理部である。特殊観察画像処理部67は、波長帯域が異なる二種類の狭帯域光のうちの相対的に短波長側である一方の狭帯域光を観察対象に照射して得られる第1画像信号と、相対的に長波長側である他方の狭帯域光を観察対象に照射して得られる第2画像信号とを用いて特定深さの血管を抽出し、抽出した血管を他の血管に対して色の違いによって表す特殊観察画像を生成する。
 ここでは波長帯域が異なる二種類の狭帯域光として中心波長405nmの紫色狭帯域光である第1狭帯域光と、中心波長445nmの青色狭帯域光である第2狭帯域光とを用いる場合を例に説明するが、第1狭帯域光と第2狭帯域光の組み合わせに限らず、中心波長540nmの緑色狭帯域光である第3狭帯域光と、中心波長620nmの赤色狭帯域光である第4狭帯域光との組み合わせについても同様である。
 第1画像信号と第2画像信号は、位置合わせ処理部62及び明るさ補正処理部63を介して特殊観察画像処理部67に入力される。位置合わせ処理部62は、順次取得された第1画像信号が表す観察対象と第2画像信号が表す観察対象との位置合わせを行う。位置合わせ処理部62の位置合わせ処理により、第1画像信号と第2画像信号の画像間の相対的な位置の対応付けが行われ、第1画像信号と第2画像信号のそれぞれから同じ画像範囲を取り出すことができる。位置合わせ処理部62は、第1画像信号又は第2画像信号のいずれか一方のみについて画像位置の補正を実施してもよいし、両方の画像信号について画像位置の補正を実施してもよい。本例では、第1画像信号を基準にして第2画像信号を第1画像信号の位置に合わせる処理を行う。
 明るさ補正処理部63は、位置合わせ処理部62によって位置合わせされた第1画像信号及び第2画像信号の明るさが特定比になるように、第1画像信号及び第2画像信号のうち少なくとも一方の明るさを補正する。例えば、特殊観察モードに使用される二種類の狭帯域光の照射光量比は既知であるため、この照射光量比を用いて、それぞれ同等の光量の第1狭帯域光及び第2狭帯域光をそれぞれ観察対象に照射して得られる場合の画像の明るさになるように、第1画像信号の明るさと第2画像信号の明るさを一致させるゲイン補正を行う。また、例えば、明るさ補正処理部63は、第1画像信号の全画素の画素値の平均値又は特定の画素領域の画素値の平均値を算出することにより、第1画像信号が表す観察対象の画像の明るさを算出し、かつ、第2画像信号の全画素の画素値の平均値又は特定の画素領域の画素値の平均値を算出することにより、第2画像信号が表す観察対象の画像の明るさを算出する。そして、第1画像信号が表す観察対象の画像の明るさと第2画像信号が表す観察対象の画像の明るさを一致させるゲインを算出し、算出したゲインを用いて第1画像信号の画素値及び第2画像信号の画素値の少なくとも一方を補正する。
 第1画像信号が表す観察対象の画像の明るさと第2画像信号が表す観察対象の画像の明るさを一致させるゲインを算出し、算出したゲインを用いて第1画像信号の画素値及び第2画像信号の画素値の少なくとも一方を補正する。
 特殊観察画像処理部67は、明るさ補正が行われた第1画像信号と第2画像信号から観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。例えば、特殊観察画像処理部67が生成する特殊観察画像では、粘膜の表面を基準として観察対象内の相対的に浅い位置にある血管は、例えばブラウン色などのマゼンタ系の色になり、粘膜の表面を基準として観察対象内の比較的深い位置にある血管は、例えば緑色などのシアン系の色になる。このため、ピンク系の色で表される粘膜に対して、観察対象の血管が色の違いで強調される。なお、粘膜の表面を基準として比較的浅い位置に在る血管は「表層血管」と呼ばれる。表層血管のうち特に粘膜表面に近い極浅い位置にある血管は「極表層血管」と呼ばれる。また、粘膜の表面を基準として比較的深い位置に在る血管は「中深層血管」と呼ばれる。
 信号処理部60は、生成した内視鏡画像を映像信号生成部68に入力する。映像信号生成部68は、内視鏡画像をモニタ18に出力表示するための映像信号に変換する。信号処理部60にて生成された内視鏡画像は映像信号生成部68を介してモニタ18に表示させることができる。
 静止画像取得指示部13cが操作されてレリーズ指示が入力されると、信号処理部60は、生成した内視鏡画像をストレージ70に保存する処理を行う。また、信号処理部60は、メモリ59から読み込んだ画像信号、位置合わせ処理部62で処理された画像信号、及び明るさ補正処理部63で処理された画像信号のうちのいずれか、若しくは、これらの適宜の組み合わせをストレージ70に保存することができる。
 ストレージ70は、プロセッサ装置16に接続された外部記憶装置である。ストレージ70は、LAN(Local Area Network)等の通信回線を介してプロセッサ装置16に接続されてもよい。ストレージ70は、例えば、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバや、NAS(Network Attached Storage)等である。ストレージ70に保存した内視鏡画像は画像処理装置72で使用することができる。
 画像処理装置72は、内視鏡画像に画像処理を施して血管深さを推定する機能を有する装置である。画像処理装置72は、内視鏡画像に画像処理を施して診断支援のため血管パラメータを算出する診断支援装置として機能する。
 [特殊観察画像の生成方法]
 まず、内視鏡システム10における特殊観察画像の生成方法について説明する。特殊観察モードでは、観察対象を撮像するときに照射する照明光の深達度によって観察可能な血管が存在する粘膜下の深さが概ね決まっている。一般に、波長の短い光は深達度が浅く、粘膜表面付近で散乱吸収を受けて一部の光が反射光として観測される。観察対象である生体組織の光の吸収及び散乱特性は波長依存性があり、波長が長い光ほど深達度が深くなる。
 図5は観察対象の散乱係数を示すグラフである。図5の横軸は波長を表し、縦軸は規格化された散乱係数を表している。図5に示すように、短波長になるほど散乱係数は大きくなる。散乱が大きいほど、生体組織の粘膜表層付近で反射される光が多く、中深層に到達する光が少ない。そのため、短波長であるほど深達度は浅く、長波長になるほど深達度は深い。散乱係数には個体差があるものの、波長依存性の傾向は共通している。
 特殊観察モードで使用する複数種類の狭帯域光のそれぞれの波長帯域における観察対象の散乱係数は各狭帯域光の深達度、すなわち、その波長帯域で観察可能な血管の粘膜下の深さに関連する。しかし、既述のとおり、実際の観察対象について内視鏡画像から正確な散乱係数を把握することは困難である。
 一方、各狭帯域光の波長帯域におけるヘモグロビンの吸収係数は、各狭帯域光で観察可能な血管のコントラストに関連する。
 図6はヘモグロビンの吸収係数を示すグラフである。図6の横軸は波長を表し、縦軸は規格化された吸収係数を表している。図6から把握されるとおり、短波長の光はヘモグロビン吸収が大きく、かつ光の散乱も大きい(図5参照)。このため短波長の狭帯域光を照射して撮像した画像は、浅い位置に在る血管のコントラストが高いが、深い位置に在る血管のコントラストは急激に低くなる。一方、照明光に使用する狭帯域光が長波長になるに従い、浅い位置に在る血管のコントラストは低くなるが、深い位置に在る血管のコントラストの低下は比較的緩やかになる。このような特性を利用して、照明光の波長を変えて撮像した二つの画像の差分情報から、任意の深さの血管情報を可視化することができる。
 例えば、短波長側の照明光として、中心波長405nmの紫色狭帯域光と、中心波長445nmの青色狭帯域光との二種類の波長帯域の照明光をそれぞれ照射して撮像を行うことにより得られた画像の一方を輝度信号に割り当て、両画像の差分画像を色差信号に割り当てることで、粘膜の表層に在る血管が抽出され、抽出された血管を強調した画像を作成することができる。
 また、例えば、長波長側の照明光として、中心波長540nmの緑色狭帯域光と、中心波長620nmの赤色狭帯域光との二種類の波長帯域の照明光を使用する場合は、粘膜下のより深い層に在る血管を抽出することができ、抽出された血管を強調した画像を作成することができる。
 特殊観察モードで使用する二種類の照明光は、観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい波長帯域の光であることが望ましい。このような条件を満たす二種類の照明光を用いることにより、粘膜下の特定深さの血管を特に鮮明に抽出することができる。
 「観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい」という条件は、観察可能な血管の粘膜下の深さ(深達度)がそれぞれ異なり、かつ、粘膜下での深さが異なる血管が概ね同程度のコントラストに観察可能である二つの波長帯域の光を選択して用いるという条件を意味している。
 なお、本実施形態で用いる中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光は、図6に示すように、ヘモグロビンの吸光係数(酸化ヘモグロビンの吸光係数:還元ヘモグロビンの吸光係数=3:7)が概ね同程度である。中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光の組み合わせは、血管の抽出にとって好ましい組み合わせの一例である。
 図7は特殊観察画像処理部67の機能を示すブロック図である。特殊観察画像処理部67は、演算画像信号生成部76と、ローパスフィルタ(LPF;low pass filter)処理部77と、画像生成部78とを備える。
 演算画像信号生成部76は、位置合わせ処理及び明るさ補正処理が施された第1画像信号と第2画像信号とを用いて演算をし、演算画像信号を生成する。具体的には、第1画像信号と第2画像信号の差又は比を算出する。本例の演算画像信号生成部76は、第1画像信号及び第2画像信号のそれぞれを対数変換し、対数変換後の第1画像信号と第2画像信号の差、より具体的には第2画像信号から第1画像信号を減算した差分画像である演算画像信号ΔBを生成する。対数変換は「Log変換」とも呼ばれる。
 第1画像信号及び第2画像信号は、各画素が受光量に比例する画素値を有するが、対数変換をすると、濃度に比例する画素値を有することになるので、各画像信号を得たときの照明光の照度によらず、安定した演算結果を得ることができる。本実施形態では、特殊観察モードで照明光として用いる第1狭帯域光と第2狭帯域光の照度には実質的な差がないとし、上記のように第1画像信号と第2画像信号の差によって演算画像信号ΔBを生成する。
 なお、第1画像信号と第2画像信号のそれぞれの画像信号を対数変換せずに、第1画像信号と第2画像信号をそのまま用いる場合には、第1画像信号と第2画像信号の比を画素毎に演算することにより、演算画像信号を生成してもよい。
 図8は血管の深さと血管のコントラストの関係を模式的に表すグラフである。図8に示すように、照明光として紫色光Vと青色光Bの二種類を用いると、深さ範囲A及び深さ範囲Aの全範囲の血管、すなわち、概ね表層に在る血管(表層血管)を観察可能である。しかし、紫色光Vは青色光Bと比較して波長が短いため、観察対象への深達度が小さく、青色光Bに対して相対的に粘膜下の浅い位置の深さ範囲Aに在る血管しか写し出せない代わりに、浅い位置の深さ範囲Aに在る血管のコントラストは青色光Bを用いる場合よりも大きい。「血管のコントラスト」とは血管からの反射光量に対する周辺の粘膜からの反射光量の比を意味する。血管のコントラストは、血管の輝度Yと粘膜の輝度Yとを用いて、例えば「Y/Y」又は「(Y-Y)/(Y+Y)」で算出することができる。
 一方、青色光Bは紫色光Vと比較して波長が長いため、観察対象への深達度が深く、紫色光Vに対して相対的に粘膜下の深い位置の深さ範囲Aに在る血管まで写し出せる代わりに、浅い位置の深さ範囲Aに在る血管のコントラストは紫色光Vを用いる場合よりも小さい。
 このため、青色光Bに対応する第2画像信号から紫色光Vに対応する第1画像信号を減算すれば、特に粘膜下の浅い位置の深さ範囲Aに在る極表層血管を表す画素の画素値は強調されて、大きい値(白色)になる。逆に、極表層血管よりも深い位置の深さ範囲Aにある血管を表す画素の画素値は小さい値(黒色)になる。演算画像信号ΔBを算出することは、粘膜下の特定深さにある血管を抽出することに対応する。
 ローパスフィルタ処理部77は、演算画像信号生成部76が生成した演算画像信号ΔBにローパスフィルタを施すことにより低解像化の処理を行う。ローパスフィルタ処理部77が演算画像信号ΔBに施すフィルタ処理の強度は、ローパスフィルタのカットオフ周波数で定まる。ローパスフィルタのカットオフ周波数は予め設定され、少なくとも元の演算画像信号ΔBの鮮鋭度よりは鮮鋭度を低下させる。ローパスフィルタ処理部77のローパスフィルタ処理によって得られる演算画像信号は、元の演算画像信号よりもぼけた状態の画像になる。
 画像生成部78は、特殊観察画像処理部67が受信する第1画像信号又は第2画像信号のいずれかと、ローパスフィルタ処理された演算画像信号ΔBとを用いて、複数の出力チャンネルを有する画像を生成する。より具体的には、画像生成部78は、輝度チャンネルYと色差に関する二つの色差チャンネルCb,Crとを有する画像を生成する。輝度チャンネルYは第1チャンネルに相当し、二つの色差チャンネルCb,Crはそれぞれ第2チャンネル及び第3チャンネルに相当する。画像生成部78は、第1画像信号又は第2画像信号のいずれか一方を輝度チャンネルYに割り当て、ローパスフィルタ処理された演算画像信号ΔBを二つの色差チャンネルCb,Crに割り当てることにより、特定深さの血管のパターンを色で強調した画像を生成する。こうして生成されたYCC画像又はこのYCC画像を色変換処理して得られるRGB画像を「血管強調画像」という。血管強調画像は「血管可視化画像」とも呼ばれる。「YCC画像」とは輝度信号であるY信号と、色差信号であるCr信号及びCb信号によって表されるカラー画像を意味する。
 図9は特定深さの血管強調画像を生成する際の信号チャンネルの割り当ての例を模式的に示した説明図である。図9におけるB1は第1画像信号を表している。本実施形態の場合、第1画像信号と第2画像信号のうち、相対的に短波長帯域の狭帯域光(紫色光V)に対応した第1画像信号を輝度チャンネルYに割り当てる。つまり、相対的に極表層血管のコントラストが高い第1画像信号を輝度チャンネルYに割り当てる。そして、色差チャンネルCb,Crには演算画像信号ΔBを割り当てる。演算画像信号ΔBを色差チャンネルCb,Crに割り当てる際には、それぞれ係数αと係数βを乗じる。これは、表層血管等を強調観察する内視鏡システムが表示する画像と色味を揃えるためである。輝度チャンネルYに第1画像信号を割り当てるのは、表層血管の中から極表層血管を選り分けて強調するためである。
 表層血管を強調観察する観察モードを有する内視鏡システムにおいて、表層血管強調画像を生成する方法の一つとして、撮像画像のB画像信号とG画像信号を利用する次のような方法がある。すなわち、表層血管観察モードの場合に、狭帯域の青色光を照射して観察対象を撮像してB画像信号を取得し、かつ、狭帯域の緑色光を照射して観察対象を撮像してG画像信号を取得する。そして、B画像信号を表示用の画像のBチャンネルとGチャンネルに割り当て、G画像信号をRチャンネルに割り当てることにより、粘膜下の深い位置にある中深層血管を緑色系(シアン系)の色にし、粘膜下の浅い位置にある表層血管を赤色系(マゼンタ系)の色にして強調表示する。
 国際電気通信連合の規格であるITU-R.601では、RGB各画像信号と輝度チャンネルY及び色差チャンネルCb及びCrの関係は、下記の式(1)、式(2)及び式(3)で表される。なお、ITUは「International Telecommunication Union」の略語表記である。
 Y=0.299R+0.587G+0.114B …(1)
 Cb=-0.169R-0.331G+0.5B …(2)
 Cr=0.5R-0.419G-0.081B …(3)
 そして、色差チャンネルCb,Crの式(2)及び式(3)において、RにGを代入し、GにBを代入すると、式(4)及び式(5)に示すように色差チャンネルCb,Crを(G-B)で表すことができる。
 Cb=-0.169G+0.169B=-0.169(G-B)…(4)
 Cr=0.5G-0.5B=0.5(G-B)       …(5)
 上述の方法に対して、本実施形態における特殊観察モードでは、紫色の波長帯域である第1狭帯域光と青色の波長帯域である第2狭帯域光とを用いて第1画像信号と第2画像信号を得て、極表層血管を抽出及び表示するため、式(4)及び式(5)の(G-B)信号に代えて、演算画像信号ΔBを用いる。すなわち、係数α=-0.169を乗じて演算画像信号ΔBを色差信号Cbに割り当て、係数β=0.5を乗じて演算画像信号ΔBを色差信号Crに割り当てる。
 これにより、本実施形態の内視鏡システム10の特殊観察モードにおいて、上述の表層血管観察モードによって得られる表層血管強調画像と概ね同配色の血管強調画像を得ることができる。ただし、本実施形態において、極表層血管と、比較的深い位置にある表層血管との色の違いを強調するために、設定等に応じて、係数α及び係数βにさらに係数を乗じる場合がある。
 なお、輝度チャンネルY及び色差チャンネルCb,CrからRGBの血管強調画像を生成するには、ITU-R.601の逆変換にしたがって、下記の式(6)、式(7)及び式(8)によって行う。
 R=Y+1.402Cr         …(6)
 G=Y-0.344Cb-0.714Cr …(7)
 B=Y+1.772Cb         …(8)
 こうして特殊観察画像処理部67で生成された特定深さの血管強調画像は、映像信号生成部68に入力される。映像信号生成部68は特定深さの血管強調画像をモニタ18で表示可能な画像として表示するための映像信号に変換する。この映像信号を用いて、モニタ18に特定深さの血管強調画像が表示される。
 [特殊観察モードにおける画像処理の概要]
 図10は特殊観察モードにおける照明光の発生から画像処理までの手順を示すフローチャートである。特殊観察モードが選択されると、プロセッサ装置16により図10に示す画像処理が実行される。ステップS11において、光源20は第1波長帯域の狭帯域光である照明光を発生する。第1波長帯域は例えば中心波長が405nmの紫色波長帯域である。ステップS11において光源20から発せられる照明光を第1照明光という。光源20から発せられた第1照明光は観察対象に照射される。
 ステップS12において、撮像センサ48は、第1照明光が照射された観察対象を撮像し、第1照明光に対応する画像信号を出力する。
 ステップS13において、画像信号取得部53は、撮像センサ48から第1照明光に対応する画像信号を取得する。ステップS13で取得される画像信号は、既に説明した第1画像信号に相当する。ステップS13により得られる撮像画像の一例を図11に示す。図11は中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例である。図11では極表層血管112を含む表層の血管が鮮明に写し出されている。
 図10のステップS15において、明るさ補正処理部63は、取得した第1画像信号について光量補正を行う。光量補正は照明光の光量に応じて画像全体の明るさを補正する処理である。光量補正は「明るさ補正処理」と同義である。
 ステップS16において、演算画像信号生成部76は、光量補正された第1画像信号に対数変換を施す。
 また、ステップS13の後、光源20は第2波長帯域の狭帯域光である照明光を発生する(ステップS21)。第2波長帯域は例えば中心波長が445nmの青色波長帯域である。ステップS21において光源20から発せられる照明光を第2照明光という。光源20から発せられた第2照明光は観察対象に照射される。
 ステップS22において、撮像センサ48は、第2照明光が照射された観察対象を撮像し、第2照明光に対応する画像信号を出力する。
 ステップS23において、画像信号取得部53は、撮像センサ48から第2照明光に対応する画像信号を取得する。ステップS23で取得される画像信号は、既に説明した第2画像信号に相当する。
 ステップS24において、位置合わせ処理部62は、ステップS13にて取得された第1画像信号とステップS23にて取得された第2画像信号の位置合わせ処理を行う。本例では第2画像信号の画像位置を補正する処理を行う。ステップS24により得られる撮像画像の一例を図12に示す。図12は中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例である。図12では図示の制約上十分に表現されていないが、図12に示した撮像画像は図11の撮像画像と比較して極表層血管112のコントラストが著しく低下している。また、極表層血管112よりも深い位置に在る表層血管114は、図11と比較してコントラストの低下が緩やかである。
 図10のステップS25において、明るさ補正処理部63は、取得した第2画像信号について光量補正を行う。
 ステップS26において、演算画像信号生成部76は、光量補正された第2画像信号に対数変換を施す。
 ステップS28において、演算画像信号生成部76は、ステップS26にて対数変換された第2画像信号とステップS16にて対数変換された第1画像信号との差分画像を生成する差分処理を行う。ステップS28の差分処理では、第2画像信号から第1画像信号を減算する演算によって差分画像を表す演算画像信号が生成される。ステップS28にて生成される演算画像信号は、既に説明した演算画像信号ΔBに相当する。
 ステップS29において、ローパスフィルタ処理部77は、ステップS28にて生成された演算画像信号ΔBにローパスフィルタ処理を施す。
 その後、ステップS30において、画像生成部78は、ステップS16にて対数変換された第1画像信号を輝度信号である輝度チャンネルYに割り当て、かつ、ステップS29にて低解像化された演算画像信号を色差信号である色差チャンネルCr,Cbに割り当てることにより、血管強調画像を生成する。また、画像生成部78は、YCC画像からRGB画像に変換する色変換処理を行い、血管強調画像を表すRGB画像100を生成する。
 ステップS30により生成された血管強調画像はモニタ18に表示される。また、ステップS30により生成された血管強調画像はストレージ70に保存することができる。また、ステップS13、ステップS23、ステップS15及びステップS25のそれぞれの工程で得られる画像信号はストレージ70に保存することができる。
 ステップS30を経て生成される出力画像の例を図13に示す。図13では図示の制約上十分に表現されていないが出力画像として表層血管が強調されたカラー画像が得られる。
 このようにして生成された血管強調画像では、粘膜下の極表層に在る極表層血管がマゼンタ系の色に着色して表示され、極表層よりも深い位置の表層に在る表層血管がシアン系の色に着色して表される。したがって、血管強調画像では極表層血管と表層血管とを色で識別可能であり、特に、極表層血管の観察が容易な血管可視化画像としてモニタ18に表示される。
 [具体的な画像例1]
 図14は第1照明光として中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例である。図14は図10のステップS13で取得される第1画像信号の画像例に相当する。図14に示した撮像画像を第1撮像画像110という。第1撮像画像110には、極表層血管112と表層血管114が写し出されている。先に説明した図11は図14の一部を拡大した画像に相当している。
 図15は第2照明光として中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例である。図15は図10のステップS23で取得される第2画像信号の画像例に相当する。図15に示した撮像画像を第2撮像画像120という。第2撮像画像120は、第1撮像画像110と比較して、極表層血管112と表層血管114のコントラストが低下している。先に説明した図12は図15の一部を拡大した画像に相当している。
 図16は第1撮像画像110と第2撮像画像120の差分による演算画像信号を用いて生成された血管強調画像の例である。先に説明した図13は図16の一部を拡大した画像に相当している。
 [具体的な画像例2]
 上述の画像例1では、短波長側の第1狭帯域光と第2狭帯域光を照明光として用いる例を説明したが、長波長側の二種類の狭帯域光を用いることにより、更に深い層に在る血管を抽出することができる。例えば、中心波長が540nmの緑色波長帯域の狭帯域光と、中心波長が620nmの赤色波長帯域の狭帯域光とを用い、それぞれの狭帯域光に対応する画像信号を得て、これらの画像信号から血管強調画像を生成することができる。
 図17は第1照明光として中心波長540nmの第3狭帯域光を用いて撮像された撮像画像の例である。図17は図10のステップS13で取得される第1画像信号の他の画像例に相当する。図17に示した撮像画像を第3撮像画像130という。第3撮像画像130では、表層血管132と中層血管134が写し出されている。
 図18は第2照明光として中心波長620nmの第4狭帯域光を用いて撮像された撮像画像の例である。図18は図10のステップS23で取得される第2画像信号の他の画像例に相当する。図18に示した撮像画像を第4撮像画像140という。第4撮像画像140は、第3撮像画像130と比較して、表層血管132と中層血管134のコントラストが低下している。
 図19は第3撮像画像130と第4撮像画像140の差分による演算画像信号を用いて生成された血管強調画像の例である。
 図14から図16で例示した画像例1と、図17から図19で例示した画像例2とを比較すると明らかなように、照明光として使用する光の波長の違いにより、得られる血管強調画像は異なるものとなる。
 [内視鏡画像から血管深さを推定する手段の概要]
 上述のように波長帯域が異なる複数種類の狭帯域光を用いた撮像を行うことにより、様々な深さの血管を抽出して可視化することができる。更に、本実施形態の内視鏡システム10は、内視鏡12によって撮像された血管の深さ、特に、絶対的な血管深さの値を推定する機能を備えている。絶対的な血管の深さとは、例えば、粘膜の表面を基準として、生体組織内部に向かう深さ方向の距離である。
 図20は内視鏡システム10によって得られる特殊観察画像の一例である。図20には表層血管142と深層血管144の血管像が含まれた内視鏡画像の例が示されている。図20に示すように、表層血管142と深層血管144では血管の形状に明らかな差異がある。本実施形態では、血管の形状パターンを病理学的な情報などを基に深さの値と対応付けておくことで、内視鏡12で撮像された血管の形状パターンから血管の深さを推定する。
 図21は画像処理装置72の機能を示すブロック図である。画像処理装置72は、内視鏡画像取得部81と、血管抽出画像生成部82と、血管指定部83と、血管形状判定部84と、血管深さ推定部85と、表示制御部86とを備えている。また、画像処理装置72は、入力デバイス87や表示部88を備えていてもよい。なお、図1で説明したコンソール19が入力デバイス87として機能してもよい。また、図1で説明したモニタ18が表示部88として機能してもよい。
 画像処理装置72の各機能部は、コンピュータのハードウエア及びソフトウエアの組み合わせによって実現することができる。また、画像処理装置72の機能部の一部又は全部は集積回路によって実現してもよい。
 内視鏡画像取得部81は、ストレージ70から内視鏡画像を取得する。内視鏡画像は、内視鏡12によって撮影された画像を意味する。内視鏡画像という用語には、通常観察画像、特殊観察画像、並びに、特殊観察画像の元になる画像信号が含まれる。特殊観察画像の元になる画像信号とは、照明光に用いた狭帯域光の種類に対応した画像信号を指す。
 内視鏡画像取得部81を介して取得した内視鏡画像は表示制御部86を介して表示部88に表示させることができる。
 血管抽出画像生成部82は、内視鏡画像取得部81を介して取得した画像信号から血管抽出画像を生成する処理を行う。血管抽出画像を生成する処理は、図10のフローチャートで説明した血管強調画像を生成する画像処理における、ステップS13からステップS16、及びステップS23からステップS30と同様である。血管抽出画像は血管強調画像と読み替えることができる。
 例えば、内視鏡画像取得部81が図10のステップS13及びステップS23のそれぞれの工程で得られる画像信号をストレージ70から取得する場合、血管抽出画像生成部82は、図10のステップS15、ステップS16、及びステップS25からステップS30の処理を行う。
 また、内視鏡画像取得部81が図10のステップS15及びステップS23のそれぞれの工程で得られる画像信号をストレージ70から取得する場合、血管抽出画像生成部82は、図10のステップS16、及びステップS26からステップS30の処理を行う。
 なお、内視鏡画像取得部81が図10のステップS30の処理を経て生成された血管強調画像をストレージ70から取得する場合には、血管抽出画像生成部82による処理は省略される。血管抽出画像生成部82によって生成された血管抽出画像は表示制御部86を介して表示部88に表示させることができる。
 血管指定部83は、内視鏡画像に含まれている血管の中から血管深さを推定する対象となる注目血管を指定する。注目血管を指定する方法の一つとして、例えば、表示部88に表示させた内視鏡画像上で、深さを推定する注目血管をユーザがユーザインターフェースを用いて指定する。入力デバイス87は、注目血管の指定等に用いるポインティングデバイスやキーボードなどを含む。入力デバイス87は表示部88の表示画面と一体に構成されたタッチパネルであってもよい。注目血管は一つに限らず、複数であってもよく、血管群を注目血管に指定してもよい。内視鏡画像上に写し出されている全ての血管を注目血管として指定してもよい。例えば、ユーザに画像上で血管部分をクリックさせる、或いは血管に沿ってカーソルを移動させる等の方法により注目血管を直接選択させてもよいし、画像上で特定の注目領域を指定させ、その領域内に含まれる血管を注目血管として選択してもよい。
 血管指定部83は、自動指定処理部90を含んでいてもよい。自動指定処理部90は、内視鏡画像から注目血管を自動で決定する処理を行う。自動指定処理部90は、内視鏡画像上に写し出されている血管のうちの一部又は全部を自動的に注目血管として指定する処理を行う。自動指定処理部90による自動指定の方法の一つとして、例えば、撮像の際に照射した照明光の種類に応じて注目血管を自動的に指定する。具体的な例を示すと、短波長の照明光を照射して撮像した内視鏡画像の場合には、内視鏡画像内の微細な血管を注目血管に指定する一方、長波長側の照明光を照射して撮像した内視鏡画像の場合には、内視鏡画像内の比較的太い血管を注目血管に指定するという具合に、自動指定処理部90は照明光の波長に応じて注目血管を切り替える処理を行う。
 自動指定処理部90は、相対的に短波長側の波長帯域である照明光を用いて撮像された撮像画像から抽出した血管のうち、規定の血管太さよりも細い血管を注目血管として指定する。また、自動指定処理部90は、相対的に長波長側の波長帯域である照明光を用いて撮像された撮像画像から抽出した血管のうち、規定の血管太さよりも太い血管を注目血管として指定する。細い血管を指定する際の閾値となる「規定の血管太さ」と、太い血管を指定する際の閾値となる「規定の血管太さ」はそれぞれ適宜の値に予め設定しておくことができる。
 画像処理装置72は、内視鏡画像から血管の太さを測定する血管太さ測定部91を有する。血管太さ測定部91は血管抽出画像生成部82によって生成された血管抽出画像から血管の太さを測定してもよいし、内視鏡画像取得部81から取得した画像から血管の太さを測定してもよい。自動指定処理部90は、血管太さ測定部91によって得られる血管の太さ情報を利用して注目血管を指定することができる。自動指定処理部90が血管太さ測定部91の機能を具備する形態も可能である。
 また、自動指定処理部90の他の構成例として、内視鏡画像上で最もコントラストが高い血管の種類を注目血管に指定してもよい。血管指定部83は、注目血管をユーザが手動で選択する手段と、注目血管を自動で決定する手段との少なくとも一方を有していればよいが、これら両方の手段を具備し、状況に応じて適宜使い分けることができる構成が好ましい。
 なお、内視鏡画像上に写し出されている全ての血管を自動的に注目血管として扱う場合には、注目血管を指定する処理が省略され得る。すなわち、内視鏡画像の中に含まれている血管の全部を自動的に注目血管として扱う構成の場合、血管指定部83が省略された形態もあり得る。もちろん、内視鏡画像上に写し出されている全ての血管を自動的に注目血管として扱う構成の場合について、自動指定処理部90が内視鏡画像の中に含まれている血管の全部を注目血管に指定するものであると理解してもよい。
 血管形状判定部84は、血管指定部83の指定に係る注目血管の血管像の形状パターンを判定する。血管の形状パターンは、例えば、上皮乳頭内ループ状毛細血管(IPCL;intra-epithelial papillary capillary loop)や柵状血管といったそれぞれの血管の種類ごとに分類される。
 各種血管の形状パターンは、事前に決められた分類パターンによって判別することができる。分類パターンは、血管の種類ごとに用意された参照用の形状パターンである。血管形状判定部84は、血管抽出画像の中の注目血管の部分を抽出し、その血管形状を分類パターンと照らし合わせることで、どの分類パターンに当てはまるかを探索して注目血管の形状パターンを判別する。
 また、表層部分の血管像は、中深層の血管像と比較して複雑であるため、上述した分類パターンによるパターン認識の処理に代えて、又はこれと組み合わせて、血管像の形状パターンにおける分岐の数やループの数などの特徴量を使用して判定してもよい。例えば、注目血管の単位面積当りの分岐数やループ数がそれぞれ規定の数よりも多い場合には表層血管であると判定することができる。なお、血管形状パターンの判定に使用する特徴量は一種類であってもよいし、二種類以上の組み合わせであってもよい。
 本実施形態の画像処理装置72は、分類パターン記憶部92を有する。分類パターン記憶部92には、予め用意された分類パターンのデータの集合体である分類パターンデータベースが記憶されている。また、分類パターン記憶部92には、血管像における分岐数やループ数などの特徴量に関するデータが記憶されていてもよい。
 血管形状判定部84は、血管抽出画像の注目血管の血管部分を抽出し、分類パターン記憶部92に記憶されているデータを用いて注目血管の形状パターンを判別する。形状パターンは、血管の太さの情報を含んでいてもよい。血管形状判定部84は、血管太さ測定部91から注目血管の太さの情報を取得することができる。なお、血管形状判定部84が血管太さ測定部91の機能を具備する形態も可能である。
 血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、抽出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。血管の太さは画素数で表すことができるが、内視鏡画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、マイクロメートル[μm]等の長さの単位に換算可能である。
 ただし、血管抽出画像から血管の太さを測定する場合、光源のムラや照明光の光量変動などの影響により画素値が変動して正確な太さを測定できないことも考えられる。したがって、形状パターンは、血管の太さの情報を含んでいないパターンであることがより好ましい。例えば、形状パターンは、血管の中心線(芯線ともいう)を抽出した線画のパターンや、ループ状パターン、分岐状パターンなどの幾何学的特徴を捉えたパターンであることが好ましい。太さの情報を含まない形状パターンと太さの情報とを組み合わせて血管形状を判定してもよい。
 血管深さ推定部85は、血管形状判定部84が判定した血管の形状パターンから血管深さを推定する。本実施形態の血管深さ推定部85は、血管形状と深さとが対応付けられた対応情報を利用して注目血管の血管深さを推定する。各種血管の血管形状と深さ対応関係を規定する対応情報は、病理学的な情報などを基に、事前に用意しておく。
 血管の種類としては、主に、生体組織表層に分布する表層血管と、その下方に位置する中深層血管とがある。表層血管と中深層血管とでは内視鏡画像において描写される血管像が異なる(図20参照)。
 例えば、食道の場合、IPCLなどの細い血管であれば表層の血管、柵状血管であれば深層の血管として判断することができる。表層血管は深さが概ね50μm付近、深層血管は深さが概ね200μm付近であることが知られている。このような対応情報を活用することで、注目血管の絶対的な深さを知ることができる。
 本実施形態の画像処理装置72は、対応情報データベース記憶部94を有する。対応情報データベース記憶部94には、様々な血管についての血管形状と深さの対応関係を規定した対応情報の集合体である対応情報データベースが記憶されている。対応情報は、観察対象となる生体組織の部位別に用意されており、観察対象である被観察部位に応じて該当する対応情報が参照される。
 血管深さ推定部85は、血管形状判定部84によって判定された形状パターンを対応情報データベースに照らし合わせることで血管深さを推定する。例えば、注目血管が表層血管の場合は「50μm」、深層血管の場合は「200μm」という具合に、絶対的な深さの数値を定めることができる。
 また、血管深さ推定部85は、注目血管が表層血管又は深層血管のどちらにも当てはまらない中層の血管である場合、例えば、表層血管よりも太く、かつ、深層血管よりも細い血管などの場合、表層血管の深さの値と深層血管の深さの値の間の値に推定してもよい。このように血管の形状パターンと太さの情報とを組み合わせて血管深さを推定してもよい。この場合、血管深さ推定部85は、血管太さ測定部91から血管の太さの情報を取得し得る。なお、血管深さ推定部85が血管太さ測定部91の機能を具備する形態も可能である。
 血管深さ推定部85により推定した血管深さの情報は表示制御部86に送られる。表示制御部86は、表示部88の表示を制御する。表示制御部86は、血管深さ推定部85により推定した血管深さの情報を、注目血管が含まれている画像と共に表示部88に表示させる表示制御を行う。また、表示制御部86は、内視鏡画像取得部81を介して取得した内視鏡画像及び血管抽出画像生成部82が生成した血管抽出画像のいずれか若しくはこれらの組み合わせを表示部88に表示させることができる。表示制御部86は、入力デバイス87による表示画像の選択若しくは切替の指示や、1画面表示とマルチ画面表示のなどの表示モードの切替の指示に従い、表示部88の表示内容を制御する。表示制御部86と表示部88の組み合わせは「情報提示部」の一形態に相当する。
 [血管深さの推定に関する処理フロー]
 図22は本実施形態の内視鏡システム10において血管深さを推定する処理の流れを示すフローチャートである。図22に示す動作は画像処理装置72の作動方法と理解することができる。また、図22に示す動作は内視鏡システム10の作動方法と理解することができる。
 ステップS51において、内視鏡システム10は内視鏡画像を取得する。ステップS51は「画像信号取得工程」の一形態に相当する。プロセッサ装置16の画像信号取得部53が内視鏡12から画像信号を取得する工程はステップS51の内視鏡画像取得工程の一形態に相当する。また、画像処理装置72の内視鏡画像取得部81がストレージ70から内視鏡画像を取得する工程はステップS51の内視鏡画像取得工程の一形態に相当する。
 ステップS52において、内視鏡システム10はステップS51で取得した内視鏡画像を基に血管抽出画像を生成する。血管抽出画像は、血管像を抽出或いは強調する処理を経て生成される画像である。「抽出」には他と区別して認識する処理や区別可能に差別化する処理の概念も含まれる。血管強調画像である特殊観察画像は血管抽出画像の一形態に相当する。また、血管抽出画像は、複数の血管強調画像を基に合成された合成画像であってもよいし、通常観察画像と特殊観察画像とを合成した画像であってもよい。
 プロセッサ装置16の信号処理部60が血管強調画像を生成する工程はステップS52の血管抽出画像生成工程の一形態に相当する。また、画像処理装置72の血管抽出画像生成部82が血管抽出画像を生成する工程はステップS52の血管抽出画像生成工程の一形態に相当する。
 ステップS53において、血管指定部83は注目血管を指定する。既述のとおり、ユーザの操作に基づいて注目血管が指定されてもよいし、内視鏡画像から自動的に指定されてもよい。なお、内視鏡画像内の全血管を自動的に注目血管とする場合、ステップS53の血管指定工程を省略してもよい。
 ステップS54において、血管形状判定部84は注目血管の血管形状を判定する。血管形状判定部84はステップS51で取得された画像信号を基に注目血管の形状パターンを判定する。ステップS54は「血管形状判定工程」の一形態に相当する。
 ステップS55において、血管深さ推定部85はステップS54で判定された形状パターンに基づいて注目血管の血管深さを推定する。ステップS55は「血管深さ推定工程」の一形態に相当する。
 ステップS56において、血管深さ推定部85はステップS55で推定した血管深さの情報を出力する。具体的な出力形態の一例として、血管深さ推定部85により推定した血管深さの情報は注目血管を含む画像と共に表示部88に表示される。
 図23は表示部88の表示画面の例である。血管が抽出された内視鏡画像150において注目血管152が指定されると、画面内の血管深さ表示ウインドウ154に注目血管152の血管深さが表示される。血管指定枠156は内視鏡画像150上で注目血管152が含まれる領域を示す操作支援用のマークである。ユーザは入力デバイス87を操作することにより、内視鏡画像150上で血管指定枠156を移動させることができる。血管指定枠156によって注目血管の選択並びに変更が可能である。
 [第1実施形態の作用効果]
 第1実施形態によれば、観察対象の散乱係数の情報を用いることなく、絶対的な血管深さを推定することができる。また、推定された血管深さの情報を内視鏡画像と共に表示部88に表示することにより、診断に有益な情報を提供することができる。
 [第2実施形態]
 第1実施形態では、内視鏡システム10が内視鏡画像をストレージ70に保存し、画像処理装置72がストレージ70から内視鏡画像を取得して血管深さを推定する構成を説明したが、観察対象を観察しながらほぼリアルタイムに内視鏡システム10が血管深さを推定する処理を実行してもよい。
 図24は第2実施形態に係る内視鏡システムのプロセッサ装置の機能を示すブロック図である。図24において図2及び図21で説明した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。図24では図2で説明した内視鏡12と光源装置14の図示が省略されているが第2実施形態の内視鏡システムにおいて内視鏡12と光源装置14は第1実施形態と同様の構成を採用し得る。図2に示したプロセッサ装置16に代えて、図24に示すプロセッサ装置16Aを用いることができる。プロセッサ装置16Aは、図2で説明した画像処理装置72の機能を備えている。また、プロセッサ装置16Aは、装置内部にストレージ70の役割を果たす記憶部を備えている。
 コンソール19は図21で説明した入力デバイス87の役割を果たす。モニタ18は図21で説明した表示部88の役割を果たす。したがって、第2実施形態においては入力デバイス87と表示部88を省略した構成とすることができる。
 内視鏡画像取得部81は、ストレージ70を介さずに、信号処理部60から内視鏡画像を取得することができる。特殊観察モードにおいて信号処理部60が図10のフローチャートに従い血管強調画像を生成する場合、血管抽出画像生成部82による処理を省略して、血管指定部83が信号処理部60から血管強調画像を取得してもよい。また、血管指定部83が省略される形態の場合、血管形状判定部84が信号処理部60から血管強調画像を取得してもよい。
 血管太さ測定部91は信号処理部60によって生成された内視鏡画像から血管の太さを測定してもよい。第2実施形態におけるプロセッサ装置16Aは「画像処理装置」の一形態に相当する。
 第2実施形態によれば、第1実施形態と同様に、注目血管の血管深さを推定することができる。また、第2実施形態によれば、静止画像取得指示部13cからの指示の有無によらず、特殊観察モードにて逐次生成される内視鏡画像を用いて血管深さを推定することが可能である。
 発明の実施に際しては、上述した第1実施形態及び第2実施形態に限らず、様々な形態があり得る。以下、実施形態についての幾つかの変形例を開示する。
 [変形例1]
 図23で説明した分類パターン記憶部92若しくは対応情報データベース記憶部94又はこれらの両方は、画像処理装置72と別体の外部装置に備えられていてもよい。例えば、画像処理装置72と通信可能に接続されるサーバに分類パターン記憶部92若しくは対応情報データベース記憶部94又はこれらの両方が搭載されていてもよい。
 [変形例2]
 血管深さ推定部85が推定した血管深さの情報はストレージ70に保存してもよい。例えば、注目血管の内視鏡画像に血管深さの情報を組み合わせた画像のデータをストレージ70に保存できる構成であってもよい。
 [変形例3]
 血管深さ推定部85が推定した血管深さの情報を光源制御部22に供給して、注目血管の観察に適した照明光を選択する制御を行ってもよい。
 [変形例4]
 注目血管をユーザが手動で指定する際に表示部88に表示させる画像は、特殊観察画像に限らず、通常観察画像であってもよく、通常観察画像と特殊観察画像とを合成して得られる合成画像であってもよい。
 [変形例5]
 図10のフローチャートでは、波長の異なる二種類の照明光をそれぞれ用いて撮像した画像から血管強調画像を生成する例を説明したが、波長の異なる三種類以上の照明光をそれぞれ用いて撮像した複数枚の画像から血管を抽出してもよい。
 [変形例6]
 上記実施形態では、ローパスフィルタ処理部77で用いるLPFのカットオフ周波数は予め設定されているが、LPFのカットオフ周波数を可変にし、LPFのカットオフ周波数を動的に設定することが好ましい。例えば、ローパスフィルタ処理部77に、位置合わせ処理部62から第1画像信号と第2画像信号の位置合わせ精度の情報が入力されるようにする。そして、ローパスフィルタ処理部77は、第1画像信号と第2画像信号の位置合わせ精度に応じてLPFのカットオフ周波数、つまり、低解像化処理の強度を変更する。位置合わせ精度が高いほど、LPFのカットオフ周波数を高周波数に設定して低解像化処理の強度を小さくし、位置合わせ精度が低いほど、LPFのカットオフ周波数を低周波数に設定して低解像化処理の強度を大きくするとよい。
 なお、血管強調画像を静止画として表示又は保存する場合、LPFのカットオフ周波数は、生成する血管強調画像の解像度を基準として、少なくともナイキスト周波数の1/8以下の周波数を残す範囲内で設定することが好ましい。
 [変形例7]
 変形例6では、位置合わせ処理部62の位置合わせ処理の精度に応じて、ローパスフィルタ処理部77が低解像度化処理の強度を調節しているが、これとは逆に、ローパスフィルタ処理部77が行う低解像化処理の強度に応じて、位置合わせ処理部62が位置合わせ処理の精度を調節してもよい。この場合、位置合わせ処理部62は、LPFのカットオフ周波数が大きく、低解像化処理の強度が小さく設定されているほど、第1画像信号と第2画像信号の位置合わせ精度を高く設定する。
 位置合わせ処理部62が行う第1画像信号と第2画像信号との位置合わせ処理の精度は可変にし、血管強調画像の静止画を表示又は保存する場合と、血管強調画像の動画を表示する場合とで位置合わせ処理の精度を変えることが好ましい。例えば、モニタ18に血管強調画像の動画を表示する場合には、位置合わせ処理部62は、血管強調画像の静止画をモニタ18に表示する(あるいは保存する)場合よりも低い第1精度で位置合わせをする。これとは逆に、血管強調画像の静止画をモニタ18に表示する場合、位置合わせ処理部62は、血管強調画像の動画をモニタ18に表示する場合よりも高い第2精度で位置合わせをする。こうすると、動画表示時には、色ずれが目立たない範囲内で高速に血管強調画像を生成することができ、かつ、色ずれが目立ちやすい静止画の取得時には、色ずれが一層抑制された血管強調画像を生成することができる。
 [変形例8]
 ローパスフィルタ処理部77に代えて、演算画像信号ΔBを縮小し、その後元の大きさにまで拡大する処理を行うことでも低解像化することができる。このように、演算画像信号ΔBを縮小及び拡大して低解像化する場合、演算画像信号ΔBの縮小時には、エリアジングの少ない縮小方法を採用することが好ましい。例えば、面積平均法によって縮小した後、キュービックスプライン補間によって拡大して、演算画像信号ΔBを低解像化することができる。
 [変形例9]
 図1で説明した内視鏡12に代えて、カプセル内視鏡を用いるカプセル内視鏡システムにも本発明を適用することができる。
 以上、本発明の実施形態及び変形例について説明したが、本発明はこれらの実施形態及び変形例に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13a モード切替スイッチ
13b ズーム操作部
13c 静止画像取得指示部
14 光源装置
16、16A プロセッサ装置
18 モニタ
19 コンソール
20 光源
22 光源制御部
23a V-LED
23b B-LED
23c G-LED
23d R-LED
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 撮像センサ
51 AFE回路
52 ADコンバータ
53 画像信号取得部
56 DSP
58 ノイズ低減部
59 メモリ
60 信号処理部
61 画像処理切替部
62 位置合わせ処理部
63 明るさ補正処理部
66 通常観察画像処理部
67 特殊観察画像処理部
68 映像信号生成部
70 ストレージ
72 画像処理装置
76 演算画像信号生成部
77 ローパスフィルタ処理部
78 画像生成部
81 内視鏡画像取得部
82 血管抽出画像生成部
83 血管指定部
84 血管形状判定部
85 血管深さ推定部
86 表示制御部
87 入力デバイス
88 表示部
90 自動指定処理部
91 血管太さ測定部
92 分類パターン記憶部
94 対応情報データベース記憶部
100 RGB画像
110 第1撮像画像
112 極表層血管
114、132、142 表層血管
120 第2撮像画像
130 第3撮像画像
134 中層血管
140 第4撮像画像
144 深層血管
150 内視鏡画像
152 注目血管
154 表示ウインドウ
156 血管指定枠
S11~S30 特殊観察モードの画像処理工程
S51~S56 血管深さを推定する処理の工程

Claims (18)

  1.  波長帯域が異なる複数種類の照明光を発生させる光源部と、
     前記複数種類のうちのいずれかの照明光が照射された観察対象を撮像する撮像センサと、
     前記撮像センサから得られる画像信号を基に、前記観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定部と、
     前記形状パターンに基づいて前記注目血管の血管深さを推定する血管深さ推定部と、
     を備える内視鏡システム。
  2.  前記血管深さ推定部は、血管形状と血管の深さとが対応付けられた対応情報を利用して前記注目血管の血管深さを推定する請求項1に記載の内視鏡システム。
  3.  前記対応情報に関するデータベースを記憶しておくデータベース記憶部を備える請求項2に記載の内視鏡システム。
  4.  前記対応情報は、前記観察対象となる生体組織の部位別に用意されており、前記観察対象である被観察部位に応じて該当する対応情報が参照される請求項3に記載の内視鏡システム。
  5.  前記撮像センサを介して取得される前記観察対象の前記撮像画像から血管の太さを測定する血管太さ測定部を有し、
     前記血管深さ推定部は、前記注目血管の形状パターンと前記血管太さ測定部により得られる前記注目血管の太さの情報とを基に前記血管深さを推定する請求項1から4のいずれか一項に記載の内視鏡システム。
  6.  前記撮像センサを介して取得される前記観察対象の前記撮像画像の中から前記注目血管を指定する血管指定部を備える請求項1から5のいずれか一項に記載の内視鏡システム。
  7.  前記撮像センサから得られる画像信号から血管部分が抽出された血管抽出画像を生成する血管抽出画像生成部を備え、
     前記血管指定部は、前記撮像画像としての前記血管抽出画像の中から前記注目血管を指定する請求項6に記載の内視鏡システム。
  8.  前記撮像センサから得られる画像信号を基に生成される画像を表示する表示部を備え、
     前記血管指定部は、前記表示部に表示された画像上でユーザが前記注目血管を指定する操作を行うための操作部を含む請求項6又は7に記載の内視鏡システム。
  9.  前記血管指定部は、前記注目血管を自動で指定する自動指定処理部を含む請求項6から8のいずれか一項に記載の内視鏡システム。
  10.  前記血管指定部は、前記観察対象を撮像する際に前記観察対象に照射された前記照明光の波長帯域に応じて前記注目血管を自動で指定する請求項9に記載の内視鏡システム。
  11.  前記複数種類の照明光のうち相対的に短波長側の波長帯域である照明光を用いて前記観察対象を撮像した場合、前記血管指定部は、規定の血管太さよりも細い血管を注目血管として指定する請求項10に記載の内視鏡システム。
  12.  前記複数種類の照明光のうち相対的に長波長側の波長帯域である照明光を用いて前記観察対象を撮像した場合、前記血管指定部は、規定の血管太さよりも太い血管を注目血管として指定する請求項10又は11に記載の内視鏡システム。
  13.  前記血管指定部は、前記撮像画像に含まれている血管の種類の中で最もコントラストが高い血管の種類を前記注目血管として指定する請求項9に記載の内視鏡システム。
  14.  前記血管形状判定部は、血管の種類に応じて事前に定められた血管形状の分類パターンの情報を基に、前記注目血管の形状パターンを判定する請求項1から13のいずれか一項に記載の内視鏡システム。
  15.  前記血管形状判定部は、血管の分岐数及びループ数の少なくとも一方の特徴量を用いて前記形状パターンを判定する請求項1から14のいずれか一項に記載の内視鏡システム。
  16.  前記血管深さ推定部により推定した血管深さの情報を、前記注目血管が含まれている画像と共に提示する情報提示部を備える請求項1から15のいずれか一項に記載の内視鏡システム。
  17.  波長帯域が異なる複数種類の照明光が観察対象に照射され、それぞれの照明光の照射の下で撮像センサによって前記観察対象を撮像することにより得られる画像信号を取得する画像信号取得部と、
     前記画像信号取得部により取得される前記画像信号を基に、前記観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定部と、
     前記形状パターンに基づいて前記注目血管の血管深さを推定する血管深さ推定部程と、
     を備える画像処理装置。
  18.  波長帯域が異なる複数種類の照明光が観察対象に照射され、それぞれの照明光の照射の下で撮像センサによって前記観察対象を撮像することにより得られる画像信号を取得する画像信号取得工程と、
     前記画像信号取得工程により取得される前記画像信号を基に、前記観察対象の撮像画像の中に含まれている血管の一部又は全部である注目血管の形状パターンを判定する血管形状判定工程と、
     前記形状パターンに基づいて前記注目血管の血管深さを推定する血管深さ推定工程と、
     を含む画像処理装置の作動方法。
PCT/JP2017/007665 2016-04-20 2017-02-28 内視鏡システム、画像処理装置、及び画像処理装置の作動方法 WO2017183307A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17785652.3A EP3446617A4 (en) 2016-04-20 2017-02-28 ENDOSCOPIC SYSTEM, IMAGE PROCESSING DEVICE, AND METHOD FOR OPERATING IMAGE PROCESSING DEVICE
US16/153,835 US20190038111A1 (en) 2016-04-20 2018-10-08 Endoscope system, image processing device, and method of operating image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016084700A JP6525918B2 (ja) 2016-04-20 2016-04-20 内視鏡システム、画像処理装置、及び画像処理装置の作動方法
JP2016-084700 2016-04-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/153,835 Continuation US20190038111A1 (en) 2016-04-20 2018-10-08 Endoscope system, image processing device, and method of operating image processing device

Publications (1)

Publication Number Publication Date
WO2017183307A1 true WO2017183307A1 (ja) 2017-10-26

Family

ID=60116813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007665 WO2017183307A1 (ja) 2016-04-20 2017-02-28 内視鏡システム、画像処理装置、及び画像処理装置の作動方法

Country Status (4)

Country Link
US (1) US20190038111A1 (ja)
EP (1) EP3446617A4 (ja)
JP (1) JP6525918B2 (ja)
WO (1) WO2017183307A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230407A1 (ja) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス 血管位置表示装置及び血管位置表示方法
JPWO2020170809A1 (ja) * 2019-02-19 2021-12-02 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
CN116957968A (zh) * 2023-07-20 2023-10-27 深圳大学 一种消化道内窥镜图像增强方法、系统、设备及介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017221353A1 (ja) * 2016-06-22 2017-12-28 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
WO2018098465A1 (en) 2016-11-28 2018-05-31 Inventio, Inc. Endoscope with separable, disposable shaft
CN111343899B (zh) 2017-11-13 2022-12-27 富士胶片株式会社 内窥镜系统及其工作方法
JP7297507B2 (ja) * 2018-04-16 2023-06-26 キヤノンメディカルシステムズ株式会社 画像処理装置、x線診断装置及びプログラム
US11515031B2 (en) * 2018-04-16 2022-11-29 Canon Medical Systems Corporation Image processing apparatus, X-ray diagnostic apparatus, and image processing method
WO2019220583A1 (ja) 2018-05-17 2019-11-21 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
WO2019234815A1 (ja) 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7200393B2 (ja) * 2019-09-27 2023-01-06 Hoya株式会社 内視鏡システム
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
JP2024512583A (ja) * 2021-03-24 2024-03-19 日本電気株式会社 画像処理の方法及び画像処理装置
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム
JP2011167349A (ja) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp 画像処理装置及び画像処理方法
JP2012125461A (ja) * 2010-12-16 2012-07-05 Fujifilm Corp 画像処理装置
JP2014023591A (ja) * 2012-07-24 2014-02-06 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡画像の表示制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438571B2 (ja) * 2010-03-24 2014-03-12 富士フイルム株式会社 電子内視鏡システム
JP5435746B2 (ja) * 2011-01-24 2014-03-05 富士フイルム株式会社 内視鏡装置
JP6234350B2 (ja) * 2014-09-30 2017-11-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム
JP2011167349A (ja) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp 画像処理装置及び画像処理方法
JP2012125461A (ja) * 2010-12-16 2012-07-05 Fujifilm Corp 画像処理装置
JP2014023591A (ja) * 2012-07-24 2014-02-06 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡画像の表示制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3446617A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020170809A1 (ja) * 2019-02-19 2021-12-02 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
JP2023026480A (ja) * 2019-02-19 2023-02-24 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法
WO2020230407A1 (ja) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス 血管位置表示装置及び血管位置表示方法
JP2020185198A (ja) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス 血管位置表示装置及び血管位置表示方法
CN113825452A (zh) * 2019-05-15 2021-12-21 日本麦可罗尼克斯股份有限公司 血管位置显示装置和血管位置显示方法
TWI777142B (zh) * 2019-05-15 2022-09-11 日商日本麥克隆尼股份有限公司 血管位置顯示裝置及血管位置顯示方法
JP7295527B2 (ja) 2019-05-15 2023-06-21 株式会社日本マイクロニクス 血管位置表示装置及び血管位置表示方法
CN116957968A (zh) * 2023-07-20 2023-10-27 深圳大学 一种消化道内窥镜图像增强方法、系统、设备及介质
CN116957968B (zh) * 2023-07-20 2024-04-05 深圳大学 一种消化道内窥镜图像增强方法、系统、设备及介质

Also Published As

Publication number Publication date
JP2017192565A (ja) 2017-10-26
JP6525918B2 (ja) 2019-06-05
US20190038111A1 (en) 2019-02-07
EP3446617A4 (en) 2019-05-01
EP3446617A1 (en) 2019-02-27

Similar Documents

Publication Publication Date Title
WO2017183307A1 (ja) 内視鏡システム、画像処理装置、及び画像処理装置の作動方法
JP6367683B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6234350B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6522539B2 (ja) 内視鏡システム及びその作動方法
US10039439B2 (en) Endoscope system and method for operating the same
US10709310B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP6039606B2 (ja) 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
JP6196598B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
WO2017057392A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6562554B2 (ja) 内視鏡システム、プロセッサ装置、及び内視鏡システムの信号処理方法
US10986980B2 (en) Image processing device, method for operating same, endoscope processor device, and method for operating same
WO2017110180A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP5869541B2 (ja) 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
CN111770717A (zh) 内窥镜系统
JP6576895B2 (ja) 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
JPWO2019039354A1 (ja) 光源装置及び内視鏡システム
JPWO2018061620A1 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP6081622B2 (ja) 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
JP6153913B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6153912B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6615950B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6276149B2 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017785652

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017785652

Country of ref document: EP

Effective date: 20181120

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17785652

Country of ref document: EP

Kind code of ref document: A1