WO2018061434A1 - プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法 - Google Patents

プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法 Download PDF

Info

Publication number
WO2018061434A1
WO2018061434A1 PCT/JP2017/026814 JP2017026814W WO2018061434A1 WO 2018061434 A1 WO2018061434 A1 WO 2018061434A1 JP 2017026814 W JP2017026814 W JP 2017026814W WO 2018061434 A1 WO2018061434 A1 WO 2018061434A1
Authority
WO
WIPO (PCT)
Prior art keywords
index value
image
noise
unit
light
Prior art date
Application number
PCT/JP2017/026814
Other languages
English (en)
French (fr)
Inventor
麻依子 遠藤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP17855392.1A priority Critical patent/EP3520676A4/en
Publication of WO2018061434A1 publication Critical patent/WO2018061434A1/ja
Priority to US16/282,325 priority patent/US20190183315A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • G06T5/70
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a processor device, an endoscope system, and an operation method of the processor device that calculate an index value obtained by indexing a biological characteristic of an observation target.
  • An endoscope system is a processor based on an image signal obtained by irradiating an observation object with illumination light emitted from a light source device via the endoscope and imaging the observation object under illumination using the illumination light.
  • the apparatus generates an image to be observed. By displaying this image on the monitor, the doctor can make a diagnosis while viewing the image on the monitor.
  • index values obtained by indexing biological characteristics of an observation target such as a blood vessel structure and a gland duct structure are being used for diagnosis of a lesion.
  • blood vessel index values such as blood vessel thickness, blood vessel length, and blood vessel density are calculated as index values and displayed on a monitor or the like.
  • the blood vessel index value is accurately calculated by performing correction according to the observation distance for the blood vessel thickness and the blood vessel length that change depending on the observation distance.
  • Patent Document 1 describes that all index values can be calculated from an image obtained by imaging an observation target, and there is an index value that cannot be calculated depending on the image quality of the image. Not described or suggested.
  • the processor device of the present invention includes an image acquisition unit that acquires an image obtained by imaging an observation target including a structure, a clarity calculation unit that calculates the clarity of the structure based on the image, and a plurality of index values. Among them, an index value selection unit that selects an index value that can be calculated based on an image having a structural clarity calculated by the clarity calculation unit, and an index value that is selected by the index value selection unit based on the image. And an index value calculation unit for calculating.
  • the intelligibility of the structure is represented by the noise amount of the image
  • the intelligibility calculating unit has a noise amount calculating unit for calculating the noise amount
  • the index value selecting unit is an image having the noise amount among a plurality of index values. It is preferable to select an index value that can be calculated from
  • the image processing apparatus includes a gain processing unit that performs gain processing on the image, and the noise amount calculation unit calculates the noise amount from the gain amount used in the gain processing.
  • the noise amount calculated by the noise amount calculation unit is preferably changed according to a dimming signal used for controlling the light source when the light emission amount of the light source that emits light that illuminates the observation target exceeds the specific light emission amount.
  • the noise amount calculation unit preferably calculates the noise amount from the spatial change amount of the pixel value of the image.
  • the noise amount calculation unit preferably calculates the noise amount from the temporal change amount of the pixel value of the image.
  • the index value selection unit selects a high noise index value including an index value related to a low frequency structure when the noise amount exceeds a specific noise amount threshold value, and the noise amount is equal to or less than the specific noise amount threshold value.
  • an index value for low noise that includes an index value for a high frequency structure.
  • the index value for high noise includes the area of the structure or the density of the structure, and the index value for low noise preferably includes the thickness of the structure or the length of the structure.
  • the intelligibility of the structure is represented by an observation distance indicating the distance to the observation object
  • the intelligibility calculation unit has an observation distance calculation unit that calculates the observation distance based on the image
  • the index value selection unit includes a plurality of index value selection units Of these index values, it is preferable to select an index value that can be calculated from an image obtained at the calculated observation distance.
  • the observation distance is a first observation distance that exceeds a specific observation distance threshold
  • the index value selection unit selects an index value for the first observation distance that includes an index value related to a low-frequency structure
  • the observation distance is
  • the second observation distance is equal to or less than a specific observation distance threshold
  • the index value for the first observation distance includes the area of the structure or the density of the structure
  • the index value for the second observation distance includes the thickness of the structure or the length of the structure.
  • the structure is preferably a vascular structure or a gland duct structure.
  • the processor device of the present invention includes an image acquisition unit that acquires an image obtained by imaging an observation target including a structure, a noise amount calculation unit that calculates a noise amount of an image based on the image, and a plurality of index values.
  • an index value selection unit that selects an index value that can be calculated from an image having noise amount, and for high noise including an index value related to a low frequency structure when the noise amount exceeds a specific noise amount threshold
  • An index value selection unit that selects an index value for low noise including an index value related to a high-frequency structure when the noise amount is equal to or less than a specific noise amount threshold value, and an image
  • An index value calculation unit that calculates the index value selected by the index value selection unit.
  • An endoscope system includes an image acquisition unit that acquires an image obtained by imaging an observation target including a structure, a clarity calculation unit that calculates the clarity of the structure based on the image, and a plurality of indices.
  • an index value selection unit that selects an index value that can be calculated based on the intelligibility of the structure calculated by the intelligibility calculation unit, and an index that calculates the index value selected by the index value selection unit based on the image
  • an index value image generation unit that generates an index value image obtained by imaging the index value
  • a display unit that displays the index value image.
  • the image acquisition unit acquires an image obtained by imaging an observation target including a structure
  • the articulation calculator calculates the structural intelligibility based on the image.
  • An index value selection unit a step of selecting an index value that can be calculated based on the intelligibility of the structure calculated by the intelligibility calculation unit, and an index value calculation unit, Calculating an index value selected by the index value selection unit based on the image.
  • an index value that can be calculated from an image acquired under a specific situation can be selected and calculated.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18 (display unit), and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into the subject, an operation portion 12b provided at the proximal end portion of the insertion portion 12a, and a bending portion 12c and a distal end portion 12d provided at the distal end side of the insertion portion 12a.
  • the angle knob 13a of the operation portion 12b By operating the angle knob 13a of the operation portion 12b, the bending portion 12c is bent. By this bending operation, the distal end portion 12d is directed in a desired direction.
  • the operation unit 12b includes a still image acquisition unit 13b used for a still image acquisition operation, a mode switching unit 13c used for an observation mode switching operation, and a zoom operation unit 13d used for a zoom magnification change operation.
  • the still image acquisition unit 13b can perform a freeze operation for displaying the still image to be observed on the monitor 18 and a release operation for storing the still image in the storage.
  • the endoscope system 10 has a normal mode, a special mode, and an index value display mode as observation modes.
  • the observation mode is the normal mode
  • the normal light obtained by combining the light of a plurality of colors with the light amount ratio Lc for the normal mode is emitted and the observation target under illumination is imaged using the normal light.
  • a normal image is displayed on the monitor 18 based on the received image signal.
  • the observation mode is the special mode
  • the special light obtained by combining the light of a plurality of colors with the light amount ratio Ls for the special mode is emitted, and the observation target under illumination is imaged using the special light. Based on the image signal obtained in this way, a special image is displayed on the monitor 18.
  • the observation mode is the index value display mode
  • the biological characteristics of the observation target are generated based on the image signal obtained by emitting special light and imaging the observation target under illumination using the special light.
  • An index value image related to the index value obtained by converting the index value into the index value is displayed on the monitor 18.
  • the processor device 16 is electrically connected to the monitor 18 and the console 19.
  • the monitor 18 outputs and displays an image to be observed or information attached to the image.
  • the console 19 functions as a user interface that receives input operations such as designation of a region of interest (ROI: Region Of Interest) or function setting.
  • ROI Region Of Interest
  • the light source device 14 includes a light source 20 that emits illumination light used for illuminating the observation target, and a light source control unit 22 that controls the light source 20.
  • the light source 20 is a semiconductor light source such as a multi-color LED (Light-Emitting-Diode).
  • the light source control unit 22 controls the light emission amount of the illumination light by turning on / off the LED and adjusting the drive current and drive voltage of the LED.
  • the light source control unit 22 controls the wavelength band of the illumination light by changing the optical filter or the like.
  • the light source 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Light Emitting Diode) 20c, and an R-LED (Red Light). (Emitting) Diode) 20d LED and a wavelength cut filter 23. As shown in FIG. 3, the V-LED 20a emits violet light V having a wavelength band of 380 nm to 420 nm.
  • the B-LED 20b emits blue light B having a wavelength band of 420 nm to 500 nm.
  • the blue light B emitted from the B-LED 20b at least a longer wavelength side than the peak wavelength of 460 nm is cut by the wavelength cut filter.
  • the blue light Bx after passing through the wavelength cut filter 23 has a wavelength range of 420 to 460 nm.
  • the wavelength cut filter 23 may attenuate light in a wavelength region longer than 460 nm, instead of cutting light in a wavelength region longer than 460 nm.
  • the G-LED 20c emits green light G having a wavelength band of 480 nm to 600 nm.
  • the R-LED 20d emits red light R having a wavelength band of 600 nm to 650 nm.
  • the light emitted from each of the LEDs 20a to 20d may have the same or different center wavelength and peak wavelength.
  • the light source control unit 22 adjusts the light emission timing, the light emission period, the light intensity, and the spectral spectrum of the illumination light by independently controlling the lighting and extinguishing of the LEDs 20a to 20d and the light emission amount at the time of lighting.
  • the light source control unit 22 controls the light emission amount of the illumination light
  • the light source control unit 22 sets the observation target to the reference brightness based on the dimming signal set by the dimming signal setting unit 56 of the processor device 16.
  • the LEDs 20a to 20d are controlled. Control of turning on and off by the light source control unit 22 is different for each observation mode.
  • the reference brightness can be set by a brightness setting unit (not shown) of the light source device 14, the console 19, or the like.
  • the light source controller 22 turns on all the V-LEDs 20a, B-LEDs 20b, G-LEDs 20c, and R-LEDs 20d.
  • the light intensity ratio Lc between the violet light V, the blue light Bx, the green light G, and the red light R is such that the light intensity of the blue light Bx is violet light V, green light G, and It is set to be larger than any light intensity of the red light R.
  • multicolor light for normal mode including violet light V, blue light Bx, green light G, and red light R is emitted from the light source device 14 as normal light.
  • the normal light is substantially white because the light intensity of each of the violet light V, blue light Bx, green light G, and red light R is greater than or equal to a certain level.
  • the light source control unit 22 turns on all the V-LED 20a, B-LED 20b, G-LED 20c, and R-LED 20d.
  • the light intensity ratio Ls between the purple light V, the blue light Bx, the green light G, and the red light R is such that the light intensity of the purple light V is blue light Bx, green light G, and
  • the red light R is set to be larger than any light intensity, and the green light G and the red light R are set to be smaller than the purple light V and the blue light Bx.
  • the multi-color light for the special mode or the index value display mode including the violet light V, the blue light Bx, the green light G, and the red light R is emitted from the light source device 14 as the special light. It is emitted as.
  • the special light is bluish light because the light intensity of the purple light V is high.
  • the illumination light emitted from the light source 20 enters the light guide 24 inserted into the insertion portion 12a through an optical path coupling portion (not shown) formed by a mirror, a lens, or the like.
  • the light guide 24 is built in the endoscope 12 and the universal cord, and propagates the illumination light to the distal end portion 12d of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used as the light guide 24.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter including a protective layer serving as an outer cover of ⁇ 0.3 mm to ⁇ 0.5 mm can be used.
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 32. Through this illumination lens 32, the observation target is illuminated with illumination light propagated through the light guide 24.
  • the imaging optical system 30 b includes an objective lens 34, a magnifying optical system 36, and an imaging sensor 38. Through the objective lens 34 and the magnifying optical system 36, various kinds of light such as reflected light, scattered light, and fluorescence from the observation object enter the image sensor 38. As a result, an image to be observed is formed on the image sensor 38.
  • the magnifying optical system 36 includes a zoom lens 36a for magnifying an observation target, and a lens driving unit 36b for moving the zoom lens 36a in the optical axis direction CL.
  • the zoom lens 36a moves freely between the tele end and the wide end according to zoom control by the lens driving unit 36b, thereby enlarging or reducing the observation target imaged on the image sensor 38.
  • the image sensor 38 is a color image sensor that images an observation target irradiated with illumination light.
  • Each pixel of the image sensor 38 is provided with either an R (red) color filter, a G (green) color filter, or a B (blue) color filter.
  • the image sensor 38 receives light in the wavelength band from purple to blue by the B pixel provided with the B color filter, receives green light by the G pixel provided with the G color filter, and the R color filter Red light is received by the provided R pixel. Then, RGB color image signals are output from each color pixel.
  • the imaging sensor 38 transmits the output image signal to the CDS circuit 40.
  • the imaging sensor 38 images the observation target illuminated with normal light, thereby outputting a Bc image signal from the B pixel, outputting a Gc image signal from the G pixel, and outputting an Rc image signal from the R pixel. Is output.
  • the imaging sensor 38 In the special mode or the index value display mode, the imaging sensor 38 outputs a Bs image signal from the B pixel and outputs a Gs image signal from the G pixel by imaging the observation target illuminated with the special light.
  • the Rs image signal is output from the R pixel.
  • CMOS Complementary Metal-Oxide Semiconductor
  • RGB primary color filters instead of the image sensor 38 provided with RGB primary color filters, a complementary color image sensor having complementary filters of C (cyan), M (magenta), Y (yellow), and G (green) may be used. good.
  • CMYG four-color image signals are output. For this reason, the CMYG four-color image signals are converted into the RGB three-color image signals by complementary color-primary color conversion, and the same RGB image signals as the image sensor 38 can be obtained.
  • a monochrome sensor without a color filter may be used.
  • the CDS circuit 40 performs correlated double sampling (CDS: Correlated Double Sampling) on the analog image signal received from the image sensor 38.
  • the image signal that has passed through the CDS circuit 40 is input to the AGC circuit 42.
  • the AGC circuit 42 performs automatic gain control (AGC: Automatic Gain Control) on the input image signal.
  • AGC Automatic Gain Control
  • AGC Automatic Gain Control
  • An A / D (Analog-to-Digital) conversion circuit 44 converts the analog image signal that has passed through the AGC circuit 42 into a digital image signal.
  • the A / D conversion circuit 44 inputs the digital image signal after A / D conversion to the processor device 16.
  • the processor device 16 includes an image signal acquisition unit 50, a DSP (Digital Signal Processor) 52, a brightness detection unit 54, a dimming signal setting unit 56, a gain amount setting unit 58, a noise reduction unit 60, an image A processing unit 62 and a display control unit 64 are provided.
  • a DSP Digital Signal Processor
  • the image signal acquisition unit 50 acquires an image obtained by imaging an observation target including a structure.
  • the image signal acquisition unit 50 acquires a digital image signal corresponding to the observation mode from the endoscope 12.
  • a Bc image signal, a Gc image signal, and an Rc image signal are acquired.
  • a Bs image signal, a Gs image signal, and an Rs image signal are acquired.
  • the DSP 52 performs various signal processing such as defect correction processing, offset processing, DSP gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the image signal acquired by the image signal acquisition unit 50.
  • defect correction process the signal of the defective pixel of the image sensor 38 is corrected.
  • offset process the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • DSP gain correction process the signal level is adjusted by multiplying the offset-processed image signal by a specific DSP gain.
  • Linear matrix processing improves the color reproducibility of image signals that have undergone DSP gain correction processing.
  • the gamma conversion process adjusts the brightness and saturation of the image signal subjected to the linear matrix process.
  • demosaic processing also referred to as isotropic processing or synchronization processing
  • a signal of a color that is insufficient at each pixel is generated by interpolation.
  • all the pixels have RGB signals.
  • the brightness detection unit 54 detects the brightness of the observation target based on the image signal output from the DSP 52. For example, the brightness detection unit 54 detects the brightness of the observation target by calculating the average value of the signal values of the image signal.
  • the dimming signal setting unit 56 sets the dimming signal used for controlling the light sources constituting the LEDs 20a to 20d.
  • the dimming signal setting unit 56 sets the dimming signal based on the brightness of the observation target detected by the brightness detection unit 54 and the reference brightness.
  • the dimming signal is set based on the difference between the brightness of the observation target and the reference brightness, and the dimming signal increases as the distance from the reference brightness increases.
  • the set dimming signal is input to the light source control unit 22.
  • the light source control unit 22 controls the light emission amounts of the LEDs 20a to 20d so that the reference brightness is obtained.
  • the gain amount setting unit 58 sets the gain amount based on the brightness of the observation target detected by the brightness detection unit 54 and the reference brightness.
  • the gain amount is set based on the difference between the brightness of the observation target and the reference brightness, and the gain amount increases as the distance from the reference brightness increases.
  • the set gain amount is input to the AGC circuit 42.
  • the AGC circuit 42 adjusts the signal value of the image signal so that the signal value has a reference brightness by performing gain processing based on the gain amount on the image signal.
  • the noise reduction unit 60 performs noise reduction processing by, for example, a moving average method or a median filter method on the image signal subjected to demosaic processing or the like by the DSP 52 to reduce noise.
  • the image signal after the noise reduction is input to the image processing unit 62.
  • the image processing unit 62 includes a normal image processing unit 66, a special image processing unit 68, and an index value image processing unit 70.
  • the normal image processing unit 66 operates when the normal mode is set, and performs color conversion processing, color enhancement processing, and structure enhancement processing on the received Bc image signal, Gc image signal, and Rc image signal. .
  • color conversion processing color conversion processing is performed on the RGB image signal by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional LUT (Look Up Table) processing, and the like.
  • the color enhancement process is performed on the RGB image signal that has been subjected to the color conversion process.
  • the structure enhancement process is a process for enhancing the structure of the observation target, and is performed on the RGB image signal after the color enhancement process.
  • a normal image can be obtained by performing various image processing as described above. Since the normal image is an image obtained based on the normal light in which the light intensity of each of the purple light V, the blue light Bx, the green light G, and the red light R is equal to or higher than a certain level, the normal image is an image having a natural hue. .
  • the normal image is input to the display control unit 64.
  • Special image processing unit 68 operates when the special mode is set.
  • the special image processing unit 68 performs color conversion processing, color enhancement processing, and structure enhancement processing on the received Bs image signal, Gs image signal, and Rs image signal.
  • the processing contents of the color conversion process, the color enhancement process, and the structure enhancement process are the same as the processing contents in the normal image processing unit 66.
  • a special image is obtained by performing various image processes as described above.
  • the special image is an image obtained based on special light in which the purple light V, which has a high absorption coefficient of hemoglobin in the blood vessel, has a greater light intensity than the blue light Bx, green light G, and red light R of other colors Therefore, the resolution of the vascular structure or gland duct structure is higher than that of other structures.
  • the special image is input to the display control unit 64.
  • the index value image processing unit 70 operates when the index value display mode is set.
  • the index value image processing unit 70 calculates index values of various structures to be observed including a blood vessel structure or a gland duct structure based on the received Bs image signal, Gs image signal, and Rs image signal.
  • the index value image processing unit 70 can calculate a plurality of index values.
  • the index value image processing unit 70 selects an index value that can be calculated according to the clarity of various structures among the plurality of index values.
  • the index value image processing unit 70 generates an index value image based on the calculated index value. Details of the index value image processing unit 70 will be described later.
  • the index value image is input to the display control unit 64.
  • the display control unit 64 performs display control for displaying the image input from the image processing unit 62 on the monitor 18.
  • the display control unit 64 performs control to display a normal image on the monitor 18.
  • the special mode is set, the display control unit 64 performs control to display a special image on the monitor 18.
  • the index value display mode is set, the display control unit 64 performs control to display the index value image on the monitor 18.
  • the index value image processing unit 70 includes a clarity calculation unit 80, an index value selection unit 82, an index value calculation unit 84, and an index value image generation unit 86.
  • the clarity calculation unit 80 calculates the clarity of the structure based on the image acquired by the image signal acquisition unit 50.
  • the articulation calculation unit 80 computes articulation of a structure such as a blood vessel structure or a gland duct structure.
  • the clarity of the structure refers to the clarity of the structure displayed as an image on the monitor 18. Since the clarity of the structure varies depending on the amount of noise in the image, the clarity of the structure is expressed by the amount of noise in the image. For this reason, the clarity calculation unit 80 includes a noise amount calculation unit 90 that calculates the noise amount of an image.
  • the noise amount calculation unit 90 can perform three types of first to third noise calculation processes, and calculates the noise amount by any one of these first to third noise calculation processes. Note that a plurality of noise amounts may be calculated by performing all or part of the first to third noise calculation processes, and the plurality of noise amounts may be weighted and added.
  • the noise amount calculation unit 90 calculates the noise amount based on the gain amount set by the gain amount setting unit 58.
  • the noise amount calculation unit 90 refers to the gain amount setting unit 58 and acquires the gain amount.
  • a noise amount conversion table 90a that stores the gain amount and the noise amount in association with each other is used.
  • the gain amount Ga1 is associated with the noise amount Ns1
  • the gain amount Gan greater than the gain amount Ga1 is associated with the noise amount Nsn greater than the noise amount Ns1. ing. Accordingly, in the noise amount conversion table 90a, the gain amount and the noise amount are associated with each other so that the noise amount increases as the gain amount increases. This is because when the gain amount is large, the brightness of the portion of the observation object that contributes to the diagnosis can be increased, while the brightness of the noise component that is unnecessary for the diagnosis is also increased.
  • the calculated noise amount when the light emission amount of the light source exceeds the specific light emission amount, the calculated noise amount may be changed according to the dimming signal set by the dimming signal setting unit 56.
  • the noise amount calculation unit 90 outputs a dimming signal when the light emission amount of at least one of the LEDs 20a to 20d constituting the light source 20 is the maximum light emission amount exceeding the specific light emission amount.
  • the calculated noise amount may be changed with reference.
  • the noise amount calculation unit 90 preferably multiplies the noise amount acquired with reference to the noise amount conversion table 90a by a specific correction coefficient.
  • the noise amount calculation unit 90 may calculate the noise amount from the dimming signal after the relationship between the dimming signal and the noise amount is determined in advance.
  • the noise amount calculation unit 90 calculates the noise amount from the spatial change amount of the pixel value of any one of the Bs image signal, the Gs image signal, and the Rs image signal. That is, the noise amount calculation unit 90 calculates the noise amount from the spatial change amount of the pixel value of the image acquired by the image signal acquisition unit 50.
  • the noise amount is calculated by the second noise amount calculation process, it is preferable to use an image signal obtained from light having a high reflectance in the observation target. This is because the pixel value of such an image signal (hereinafter referred to as “image signal having a specific brightness”) changes in conjunction with the brightness of the observation target.
  • the noise amount calculation unit 90 specifies a high pixel value region having a pixel value equal to or greater than a certain value from an image signal having a specific brightness, and measures the variance of the high pixel value region. . Then, the noise amount calculation unit 90 calculates the noise amount from the measured variance. The calculated amount of noise increases as the variance of the high pixel value region increases. For the calculation of the amount of noise, it is preferable to use a conversion table in which the variance of the high pixel value region is associated with the amount of noise.
  • a specific region in which the pixel value is in a specific range (for example, the pixel value is included in the low pixel value range).
  • the dispersion of the (region) may be measured.
  • the variance of the area set by the user may be measured using the console 19 or the like.
  • the noise amount is calculated from the temporal change amount of the pixel value of any one of the Bs image signal, the Gs image signal, and the Rs image signal. That is, the noise amount calculation unit 90 calculates the noise amount from the temporal change amount of the pixel value of the image acquired by the image signal acquisition unit 50. Even when the noise amount is calculated by the third noise amount calculation process, it is preferable to use an image signal having a specific brightness for the same reason as the second noise amount calculation process. In the third noise amount calculation processing, the noise amount calculation unit 90 calculates the temporal change amount of the pixel value, in addition to the image signal of the specific brightness acquired in real time, from several frames before to one frame before. An image signal having specific brightness for a plurality of frames acquired in the past, that is, acquired in the past is stored.
  • the noise amount calculation unit 90 calculates the temporal change amount of the pixel value from the image signals of specific brightness for several frames acquired in real time and in the past.
  • the noise amount calculation unit 90 calculates the noise amount from the temporal change amount of the pixel value.
  • the calculated noise amount increases as the temporal change amount of the pixel value increases.
  • the index value selection unit 82 selects an index value that can be calculated based on the intelligibility of the structure calculated by the intelligibility calculation unit 80 from among a plurality of index values.
  • the index value selection unit 82 selects an index value that can be calculated based on the noise amount calculated by the noise amount calculation unit 90 from among a plurality of index values.
  • the noise amount is a high noise amount exceeding a specific noise amount threshold
  • the index value selection unit 82 is for high noise that can be calculated from the Bs image signal, the Gs image signal, and the Rs image signal having a high noise amount. Select an index value for.
  • the index value for high noise is preferably an index value that is not affected by the amount of noise.
  • the area of the structure or the density of the structure such as the blood vessel area or the blood vessel density can be mentioned.
  • the high-frequency structure such as the thin superficial blood vessel V1 is buried in the noise and is unclear. There is.
  • a low-frequency structure such as a thick middle-deep blood vessel V2.
  • a gland duct structure etc. are mentioned as a low frequency structure.
  • index value related to a low-frequency structure for example, an index value of a mid-deep blood vessel or gland duct structure
  • the index value selection unit 82 selects an index value for high noise including an index value related to a low frequency structure when the noise amount exceeds a specific noise amount threshold.
  • the index value selection unit 82 uses the Bs image signal, the Gs image signal, and the Rs image signal having the low noise amount. Select an index value for low noise that can be calculated.
  • the index value for low noise is preferably an index value that is not included in the index value for high noise, for example, an index value that is affected when there is a lot of noise.
  • Examples of the index value for low noise include an index value of a high-frequency structure such as a thin surface blood vessel V1 in addition to the thickness of the structure or the length of the structure.
  • the index value selection unit 82 selects a low-noise index value including an index value related to a high-frequency structure when the noise amount is equal to or less than a specific noise amount threshold.
  • a specific noise amount threshold e.g., a specific noise amount threshold.
  • the index value selection unit 82 as shown in FIG. 9, with reference to an index value classification table that records whether a plurality of index values correspond to an index value for high noise or an index value for low noise, It is preferable to select an index value.
  • the index value calculation unit 84 calculates the index value selected by the index value selection unit 82 based on the image acquired by the image signal acquisition unit 50.
  • the index value calculation unit 84 calculates the index value selected by the index value selection unit 82 based on the Bs image signal, the Gs image signal, and the Rs image signal. For example, when the blood vessel density, the blood vessel area, and the blood vessel complexity (complexity of changes in blood vessel thickness) are selected by the index value selection unit 82, the index value calculation unit 84 uses the Bs image signal and the Gs image signal.
  • the blood vessel image is extracted based on the Rs image signal.
  • a blood vessel image extraction method there is a method of extracting a plurality of blood vessel images at different depths based on the difference between the Bs image signal and the Gs image signal. After extracting the blood vessel image, the ratio of blood vessels in the unit area is calculated as the blood vessel density. Further, the blood vessel area is calculated by counting the pixels extracted as blood vessels. In addition, the complexity of the blood vessel is calculated by calculating the rate of change in the diameter of the extracted blood vessel image.
  • the index value calculation unit 84 may perform calculation for all of the index values selected by the index value selection unit 82. Of the selected index values, the index value calculation unit 84 may be used depending on the diagnostic purpose set in advance by the console 19 or the like. Calculation may be performed only for the narrowed down index values. For example, when the purpose of diagnosis is blood vessel observation, only the blood vessel index value among the selected index values is calculated, and the index values other than the blood vessels such as the gland duct structure are not calculated.
  • the index value calculation unit 84 may perform weighting on a plurality of index values selected by the index value selection unit 82 and calculate as one blood vessel parameter.
  • the weighting factor is preferably determined according to the purpose of diagnosis. For example, when the diagnostic purpose is diagnosis of Barrett's esophagus and the blood vessel density and the complexity of the blood vessel are selected, the blood vessel density and the complexity of the blood vessel are weighted and added 1: 1, and the blood vessel parameter for Barrett's esophagus is obtained. Is preferably calculated.
  • the index value image generation unit 86 generates an index value image obtained by imaging the index value based on the index value calculated by the index value calculation unit 84.
  • an index value image generation method various image generation methods are conceivable. For example, there is an index value image generation in which index values are displayed as numerical values as they are. In this case, for example, when the blood vessel density, the blood vessel area, and the complexity of the blood vessel are calculated by the index value calculation unit 84, as shown in FIG. An index value image displaying the degree of complexity is generated.
  • an index value image generation method there is a method of generating an index value image displayed in a different color according to an index value.
  • the index value image generation unit 86 displays the blood vessel density image, the blood vessel colored according to the blood vessel density.
  • a blood vessel area image colored according to the area and a blood vessel complexity image colored according to the complexity of the blood vessel are generated.
  • These three blood vessel density images, blood vessel area images, and blood vessel complexity images may be displayed on the monitor 18 at a time as shown in FIG. Further, the blood vessel density image, the blood vessel area image, and the blood vessel complexity image may be alternately displayed at a constant time interval as shown in FIG.
  • the display pattern of the generated index value image is changed according to the clarity of the structure. May be. For example, when a plurality of index value images are switched and displayed on the monitor 18, among the plurality of index value images, the display time of an image that is least affected by the clarity of the structure is maximized, while the other It is preferable to shorten the image display time.
  • an index value image generation method there is a method of generating an index value image in which the color tone of a broadband image is changed according to the index value. For example, when a normal image is used as a broadband image, in the index value display mode, normal light is emitted in a frame different from a frame that emits special light, and a Bc image signal, a Gc image signal, and an Rc image signal are displayed. get. A normal image is generated based on the Bc image signal, the Gc image signal, and the Rc image signal, and an index value image in which the color tone of the normal image is changed according to the index value is generated by the index value image generation unit 86. .
  • the mode switching unit 13c sets the index value display mode
  • special light is irradiated to the observation target in step S1.
  • the imaging sensor 38 outputs a Bs image signal, a Gs image signal, and an Rs image signal by imaging an observation target illuminated with special light.
  • the image signal acquisition unit 50 acquires a Bs image signal, a Gs image signal, and an Rs image signal.
  • the brightness detection unit 54 detects the brightness of the observation target based on the Bs image signal, the Gs image signal, and the Rs image signal.
  • the dimming signal setting unit 56 sets the dimming signal based on the brightness of the observation target detected by the brightness detection unit 54.
  • the gain amount setting unit 58 sets the gain amount based on the brightness of the observation target detected by the brightness detection unit 54.
  • the intelligibility calculator 80 calculates the intelligibility of the structure.
  • the noise amount calculation unit 90 calculates the noise amount.
  • the calculation of the noise amount is performed by any of the first to third noise amount calculation processes using the Bs image signal, the dimming signal, the gain amount, or the like.
  • the index value selection unit 82 selects an index value that can be calculated from the intelligibility of the structure calculated by the intelligibility calculation unit 80 among a plurality of index values.
  • the index value selection unit 82 selects a high noise amount index value.
  • the index value selection unit 82 selects a low noise amount index value.
  • step S5 the index value calculation unit 84 calculates the index value selected by the index value selection unit 82 based on the Bs image signal, the Gs image signal, and the Rs image signal.
  • step S6 based on the index value calculated by the index value calculation unit 84, the index value image generation unit 86 generates an index value image obtained by imaging the index value. The generated index value image is displayed on the monitor 18.
  • the noise amount of the image is used as the clarity of the structure, but other variables may be used as the clarity of the structure.
  • the observation distance indicating the distance between the distal end portion 12d of the endoscope and the observation object greatly affects the clarity of the structure.
  • the observation distance is long, the light does not reach the object to be observed sufficiently, resulting in a dark image, and the structural clarity becomes low.
  • the observation distance is short, the resulting image is also bright and clear, so that the clarity of the structure is increased.
  • the clarity of the structure changes depending on the observation distance. Therefore, the clarity of the structure is represented by an observation distance indicating a distance from the observation target.
  • the clarity calculation unit 80 includes an observation distance calculation unit 94 that calculates an observation distance based on the image acquired by the image signal acquisition unit 50.
  • the observation distance calculation unit 94 calculates the observation distance based on the brightness of the observation target detected by the brightness detection unit 54.
  • the calculated observation distance is substantially inversely proportional to the brightness of the observation target, and the observation distance decreases as the brightness of the observation target increases.
  • the index value selection unit 82 selects an index value that can be calculated from the Bs image signal, the Gs image signal, and the Rs image signal obtained at the calculated observation distance from among a plurality of index values. In other words, the index value selection unit 82 selects an index value that can be calculated from an image obtained at the calculated observation distance from among a plurality of index values.
  • the index value selection unit 82 can calculate from the Bs image signal, the Gs image signal, and the Rs image signal obtained at the first observation distance. An index value for the first observation distance is selected.
  • the index value for the first observation distance includes the area of the structure or the density of the structure, which is an index value that is not easily affected by the brightness of the image. For example, the blood vessel density or the blood vessel area is included.
  • the index value selection unit 82 selects the index value for the first observation distance including the index value related to the low frequency structure.
  • the index value selection unit 82 obtains the Bs image signal, the Gs image signal, and the Rs image signal obtained at the second observation distance.
  • An index value for the second observation distance that can be calculated from is selected.
  • the second observation distance index value includes a structure thickness or a structure length, which is an index value not included in the first observation distance index value.
  • the second observation distance index value is preferably an index value (such as a blood vessel thickness or length) that is easily affected by the size of the observation distance.
  • the index value selection unit 82 selects the index value for the second observation distance including the index value related to the high-frequency structure when the observation distance is the second observation distance that is equal to or less than the specific observation distance threshold. Since the index value calculation method and the index value image generation method performed after selection are the same as those in the above-described embodiment using the noise amount, description thereof will be omitted.
  • the index value when the observation distance is short, the index value can be accurately calculated even in a situation where halation in which a pixel value is extremely high occurs in a part of the image area.
  • a halation detection unit (not shown) is provided in the processor device 16, and the halation detection unit detects halation regions in the Bs image signal, the Gs image signal, and the Rs image signal.
  • the warning display for example, there is a guidance display that instructs the user to increase the observation distance.
  • the index value calculation unit 84 preferably calculates an index value based on pixel values in an area other than the halation area.
  • blood vessel index values include the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the change in thickness, the interval, the depth based on the mucous membrane, the height difference, the slope, the contrast, the color Color change, meandering degree, blood concentration, oxygen saturation, arterial proportion, vein proportion, administered dye concentration, running pattern, blood flow, and the like.
  • the number of blood vessels is the number of blood vessels extracted in the entire endoscopic image or in the region of interest.
  • the number of blood vessels is calculated using, for example, the number of extracted blood vessel branch points (the number of branches), the number of intersections with other blood vessels (the number of intersections), and the like.
  • the branch angle of a blood vessel is an angle formed by two blood vessels at a branch point.
  • the distance between branch points is a linear distance between an arbitrary branch point and an adjacent branch point, or a length along a blood vessel from an arbitrary branch point to the adjacent branch point.
  • the number of intersections of blood vessels is the number of intersections where blood vessels with different submucosal depth intersect on the endoscopic image. More specifically, the number of intersecting blood vessels is the number of blood vessels at a relatively shallow position below the mucosa crossing a blood vessel at a deep position.
  • the change in the thickness of the blood vessel is blood vessel information regarding the variation in the thickness of the blood vessel, and is also referred to as the unequal diameter.
  • the change in the thickness of the blood vessel is, for example, a change rate of the blood vessel diameter (also referred to as a degree of expansion).
  • the change rate of the blood vessel diameter is calculated by using the thickness of the thinnest part of the blood vessel (minimum diameter) and the thickness of the thickest part of the blood vessel (maximum diameter). Calculated from “diameter ⁇ 100”.
  • the temporal change in the same blood vessel thickness extracted from the endoscopic image obtained in the subsequent new examination can be used as the blood vessel thickness change. Good.
  • the ratio of the small diameter part or the ratio of the large diameter part may be calculated as the change in the thickness of the blood vessel.
  • the small diameter portion is a portion whose thickness is equal to or less than a threshold value
  • the large diameter portion is a portion whose thickness is thicker than the threshold value.
  • the blood vessel interval is the number of pixels representing the mucous membrane between the extracted blood vessel edges. When there is one extracted blood vessel, the blood vessel interval has no value.
  • the depth of blood vessels is measured with reference to the mucosa (more specifically, the surface of the mucosa).
  • the blood vessel depth based on the mucous membrane can be calculated based on the color of the blood vessel, for example.
  • blood vessels that are close to the surface of the mucosa are represented by magenta color
  • blood vessels that are far from the surface of the mucosa and are deep under the mucosa are represented by cyan color.
  • the information calculation unit 83 calculates the depth of the blood vessel with respect to the mucous membrane for each pixel based on the balance of the R, G, and B color signals of the pixel extracted as the blood vessel.
  • the difference in the height of the blood vessel is the size of the difference in the depth of the blood vessel.
  • the height difference of one blood vessel of interest is calculated from the difference between the depth (maximum depth) of the deepest portion of the blood vessel and the depth (minimum depth) of the shallowest portion. When the depth is constant, the height difference is zero.
  • the blood vessel may be divided into a plurality of sections, and the inclination of the blood vessels may be calculated in each section.
  • the contrast of the blood vessel is a relative contrast with respect to the mucous membrane to be observed.
  • the blood vessel contrast is calculated from, for example, “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the luminance Y V of the blood vessel and the luminance Y M of the mucous membrane. To do.
  • the blood vessel color is an RGB value of a pixel representing a blood vessel.
  • the change in the color of the blood vessel is the difference or ratio between the maximum value and the minimum value of each RGB value of the pixel representing the blood vessel.
  • the ratio between the maximum value and the minimum value of the pixel value of the B pixel representing the blood vessel, the ratio of the maximum value and the minimum value of the pixel value of the G pixel, or the ratio of the maximum value and the minimum value of the pixel value of the R pixel Represents a change in color.
  • the color of the blood vessel and the change in the color of the blood vessel may be calculated for each value such as cyan, magenta, yellow, and green by converting to a complementary color.
  • the meandering degree of blood vessels is blood vessel information representing the size of the range in which the blood vessels meander and run.
  • the meandering degree of the blood vessel is, for example, the minimum rectangular area (number of pixels) including the blood vessel for which the meandering degree is calculated.
  • the ratio of the length of the blood vessel to the linear distance between the start point and the end point of the blood vessel may be used as the degree of meandering of the blood vessel.
  • the blood concentration of blood vessels is blood vessel information proportional to the amount of hemoglobin contained in blood flowing through the blood vessels. Since the ratio (G / R) of the pixel value of the G pixel to the pixel value of the R pixel representing the blood vessel is proportional to the amount of hemoglobin, the blood concentration is calculated for each pixel by calculating the value of G / R. be able to.
  • Vessel oxygen saturation is the amount of oxygenated hemoglobin relative to the total amount of hemoglobin (total amount of oxygenated hemoglobin and reduced hemoglobin).
  • the oxygen saturation is obtained by using an endoscopic image obtained by photographing an observation object using light in a specific wavelength band (for example, blue light having a wavelength of about 470 ⁇ 10 nm) having a large difference in absorption coefficient between oxyhemoglobin and reduced hemoglobin. Can be calculated.
  • a specific wavelength band for example, blue light having a wavelength of about 470 ⁇ 10 nm
  • the pixel value of the B pixel that represents the blood vessel has a correlation with the oxygen saturation. It is possible to calculate the oxygen saturation of each pixel representing
  • the arterial ratio is the ratio of the number of arterial pixels to the total number of blood vessels.
  • the vein ratio is the ratio of the number of vein pixels to the number of pixels of all blood vessels.
  • Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is used as an artery and a blood vessel having an oxygen saturation of less than 70% is used as a vein, the extracted blood vessel can be divided into an artery and a vein. Can be calculated.
  • the concentration of the administered pigment is the concentration of the pigment sprayed on the observation object or the pigment injected into the blood vessel by intravenous injection.
  • dye is calculated by the ratio of the pixel value of pigment color with respect to the pixel value of pixels other than pigment color, for example. For example, when a blue coloring pigment is administered, the ratio B / G between the Bs image signal and the Gs image signal or the ratio B / R between the Bs image signal and the Rs image signal is fixed (or temporarily) on the observation target. Represents the concentration of the dye attached to the surface.
  • the blood vessel running pattern is blood vessel information related to the blood vessel running direction.
  • the blood vessel traveling pattern is, for example, an average angle (traveling direction) of a blood vessel with respect to an arbitrarily set reference line, dispersion of angles formed by the blood vessel with respect to an arbitrarily set reference line (variation in traveling direction), or the like.
  • the blood flow volume of blood vessels (also called blood flow velocity) is the number of red blood cells that pass through per unit time.
  • the Doppler shift frequency of each pixel representing the blood vessel of the endoscopic image is calculated using a signal obtained by the ultrasonic probe.
  • the blood flow of the blood vessel can be calculated.
  • the observation target is illuminated using a laser light source and a phosphor instead of the four-color LEDs 20a to 20d shown in the first embodiment.
  • a laser light source and a phosphor instead of the four-color LEDs 20a to 20d shown in the first embodiment.
  • a blue laser that emits blue laser light having a central wavelength of 445 ⁇ 10 nm instead of the four color LEDs 20a to 20d, in the light source 20 of the light source device 14.
  • a light source (denoted as “445LD”; LD represents “Laser Diode”) 104 and a blue-violet laser light source (denoted as “405LD”) 106 emitting blue-violet laser light having a center wavelength of 405 ⁇ 10 nm are provided. Yes.
  • Light emission from the semiconductor light emitting elements of these light sources 104 and 106 is individually controlled by the light source control unit 108, and the light quantity ratio between the emitted light of the blue laser light source 104 and the emitted light of the blue-violet laser light source 106 is changed. It is free.
  • the light source control unit 108 turns on the blue laser light source 104 in the normal mode.
  • both the blue laser light source 104 and the blue violet laser light source 106 are turned on, and the emission ratio of the blue laser light is determined from the emission ratio of the blue violet laser light. Is also controlled to be larger.
  • the half-value width of the blue laser beam or the blue-violet laser beam is preferably about ⁇ 10 nm.
  • a broad area type InGaN laser diode can be used, and an InGaNAs laser diode or a GaNAs laser diode can also be used.
  • a light-emitting body such as a light-emitting diode may be used as the light source.
  • the illumination optical system 30a is provided with a phosphor 110 on which blue laser light or blue-violet laser light from the light guide 24 is incident.
  • the phosphor 110 is excited by blue laser light and emits fluorescence.
  • part of the blue laser light is transmitted without exciting the phosphor 110.
  • the blue-violet laser light is transmitted without exciting the phosphor 110.
  • the light emitted from the phosphor 110 illuminates the inside of the observation target through the illumination lens 32.
  • the blue laser light is incident on the phosphor 110. Therefore, as shown in FIG. 16, the blue laser light and the normal excitation light emitted from the phosphor 110 by the blue laser light are combined. Broadband light for mode is illuminated on the observation object as normal light. By imaging the observation object illuminated with the normal light by the imaging sensor 38, a normal image including a Bc image signal, a Gc image signal, and an Rc image signal is obtained.
  • the phosphor 110 is generated by the blue-violet laser beam, the blue laser beam, and the blue laser beam as shown in FIG.
  • the broadband light for the special mode which combines the fluorescence emitted by the excitation light, is illuminated as the special light on the observation target.
  • the observation target illuminated with the special light is imaged by the imaging sensor 38, whereby a special image including a Bs image signal, a Gs image signal, and an Rs image signal is obtained.
  • the observation target illuminated with the special light is imaged by the imaging sensor 38 to obtain the Bs image signal, the Gs image signal, and the Rs image signal, and based on these three image signals. An index value is calculated and an index value image is generated.
  • the phosphor 110 absorbs a part of the blue laser light and emits a plurality of types of phosphors that excite and emit green to yellow (for example, a phosphor such as YAG phosphor or BAM (BaMgAl 10 O 17 )). It is preferable that it is comprised including. If a semiconductor light emitting element is used as an excitation light source for the phosphor 110 as in this configuration example, high intensity white light can be obtained with high luminous efficiency. Further, if the semiconductor light emitting element is used as an excitation light source of the phosphor 110, the intensity of white light can be easily adjusted. Furthermore, if the semiconductor light emitting element is used as an excitation light source for the phosphor 110, changes in the color temperature and chromaticity of white light can be suppressed to a small level.
  • a semiconductor light emitting element is used as an excitation light source for the phosphor 110 as in this configuration example, high intensity white light can be obtained with high luminous efficiency. Further, if the semiconductor
  • the observation target is illuminated using a white light source such as a xenon lamp and a rotary filter instead of the four-color LEDs 20a to 20d. Further, instead of the color imaging sensor 38, the observation target may be imaged by a monochrome imaging sensor. In the following, only portions different from the first embodiment will be described, and description of portions that are substantially the same as those of the first embodiment will be omitted.
  • a white light source 202 In the endoscope system 200 shown in FIG. 18, in the light source device 14, a white light source 202, a rotary filter 204, and a filter switching unit 206 are provided instead of the LEDs 20 a to 20 d of the endoscope system 10. Yes.
  • the imaging optical system 30b is provided with a monochrome imaging sensor 208 without a color filter, instead of the color imaging sensor 38.
  • a diaphragm 203 is provided between the white light source 202 and the rotary filter 204, and the area of the opening of the diaphragm 203 is adjusted by the diaphragm control unit 205.
  • the aperture control unit 205 controls the aperture 203 based on the dimming signal from the processor device 16.
  • the white light source 202 is a xenon lamp or a white LED, and emits white light having a wavelength range from blue to red.
  • the rotation filter 204 includes a normal mode filter 210 provided on the inner side closest to the rotation axis, and a special mode or index value display mode filter 212 provided on the outer side of the normal mode filter 210 (see FIG. 19).
  • the filter switching unit 206 moves the rotary filter 204 in the radial direction. Specifically, the filter switching unit 206 inserts the normal mode filter 210 into the white light path when the mode switching unit 13c sets the normal mode. When the special mode or the index value display mode is set, the filter switching unit 206 inserts the special mode or index value display mode filter 212 into the white light path.
  • the normal mode filter 210 is provided with a Bb filter 210a, a G filter 210b, and an R filter 210c along the circumferential direction.
  • the Bb filter 210a transmits broadband blue light Bb having a wavelength range of 400 to 500 nm of white light.
  • the G filter 210b transmits green light G out of white light.
  • the R filter 210c transmits red light R out of white light. Accordingly, in the normal mode, the rotation filter 204 is rotated, so that broadband blue light Bb, green light G, and red light R are sequentially irradiated as normal light toward the observation target.
  • the special mode or index value display mode filter 212 is provided with a Bn filter 212a and a Gn filter 212b along the circumferential direction.
  • the Bn filter 212a transmits blue narrow band light Bn of 400 to 450 nm out of white light.
  • the Gn filter 212b transmits green narrowband light Gn of 530 to 570 nm out of white light. Therefore, in the special mode, the rotation filter 204 is rotated, so that the blue narrow-band light Bn and the green narrow-band light Gn are sequentially emitted toward the observation target as the special light.
  • the observation target is imaged by the monochrome imaging sensor 208 each time the observation target is illuminated with the broadband blue light Bb, green light G, and red light R, respectively.
  • a Bc image signal is obtained when the broadband blue light Bb is illuminated
  • a Gc image signal is obtained when the green light G is illuminated
  • an Rc image signal is obtained when the red light R is illuminated.
  • the observation target is imaged by the monochrome imaging sensor 208 every time the observation target is illuminated by the blue narrow band light Bn and the green narrow band light Gn.
  • a Bn image signal is obtained when the blue narrow-band light Bn is illuminated
  • a Gn image signal is obtained when the green narrow-band light Gn is irradiated.
  • These Bn image signal and Gn image signal constitute a special image.
  • the index value display mode the calculation of the index value and the index are performed based on the Bn image signal obtained when the blue narrow-band light Bn is illuminated and the Gn image signal obtained when the green narrow-band light Gn is illuminated. A value image is generated.
  • the brightness detection unit 54 detects the brightness of the observation target based on the Gn image signal.
  • the AGC circuit 42 is provided in the endoscope 12. However, the AGC circuit 42 may be provided in the processor device 16.
  • the hardware structure of a processing unit (processing unit) that executes various types of processing such as the circuit 42 is various types of processors as described below.
  • the circuit configuration can be changed after manufacturing a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array) that is a general-purpose processor that functions as various processing units by executing software (programs). Includes dedicated logic circuits such as programmable logic devices (Programmable Logic Devices: PLDs) and ASICs (Application Specific Specific Integrated Circuits) that have specially designed circuit configurations to execute specific processing. It is.
  • programmable logic devices Programmable Logic Devices: PLDs
  • ASICs Application Specific Specific Integrated Circuits
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPU and FPGA). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or server, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (integrated circuit) chip. is there.
  • various processing units are configured using one or more of the various processors as a hardware structure.
  • circuitry circuitry in which circuit elements such as semiconductor elements are combined.

Abstract

特定の状況の下で取得した画像から算出可能な指標値のみを算出することができるプロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法を提供する。構造を含む観察対象を撮像して得られる画像を取得する。明瞭度算出部(80)が、画像に基づいて、構造の明瞭度を算出する。指標値選択部(82)が、複数の指標値のうち、明瞭度算出部(80)で算出した構造の明瞭度に基づいて算出可能な指標値を選択する。指標値算出部(84)が、画像に基づいて、指標値選択部(82)で選択した指標値を算出する。

Description

プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
 本発明は、観察対象の生体的特徴を指標化した指標値を算出するプロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法に関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムは、光源装置が発する照明光を、内視鏡を介して観察対象に照射し、その照明光を用いて照明中の観察対象を撮像して得た画像信号に基づいて、プロセッサ装置が観察対象の画像を生成する。この画像をモニタに表示することにより、医師は、モニタ上の画像を見ながら診断を行うことができる。
 また、近年では、病変部の診断に際して、血管構造や腺管構造など観察対象の生体的特徴を指標化した指標値も用いられつつある。例えば、特許文献1では、指標値として、血管太さや血管長さ、血管密度などの血管指標値を算出し、モニタ等に表示している。また、特許文献1では、血管指標値の中でも観察距離によって変化する血管太さや血管長さについては、観察距離に応じた補正を行うことにより、正確に血管指標値を算出するようにしている。
特開2016-116741号公報
 内視鏡画像を用いた観察においては、画像のノイズ量が少ないまたは観察距離が近いなどの状況下では、明るい高画質の画像が得られるため、複数種類の指標値を算出することが可能である。これに対して、ノイズ量が多いまたは観察距離が遠いなどの状況下では、暗い低画質の画像しか得られないことがあり、このような低画質の画像からは、限られた指標値しか算出できないことがあった。これに関して、特許文献1においては、観察対象の撮像によって得られた画像から、全ての指標値を算出できることを前提として記載されており、画像の画質によって、算出できない指標値が存在することについては、記載及び示唆されていない。
 本発明は、特定の状況の下で取得した画像から算出可能な指標値を選択して算出することができるプロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法を提供することを目的とする。
 本発明のプロセッサ装置は、構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、画像に基づいて、構造の明瞭度を算出する明瞭度算出部と、複数の指標値のうち、明瞭度算出部により算出された構造の明瞭度を有する画像に基づいて算出可能な指標値を選択する指標値選択部と、画像に基づいて、指標値選択部により選択された指標値を算出する指標値算出部とを備える。
 構造の明瞭度は画像のノイズ量で表され、明瞭度算出部は、ノイズ量を算出するノイズ量算出部を有し、指標値選択部は、複数の指標値のうち、ノイズ量を有する画像から算出可能な指標値を選択することが好ましい。画像に対してゲイン処理を施すゲイン処理部を有し、ノイズ量算出部は、ゲイン処理で使用するゲイン量から、ノイズ量を算出することが好ましい。ノイズ量算出部で算出したノイズ量は、観察対象を照明する光を発する光源の発光量が特定発光量を超えた場合に、光源の制御に用いる調光信号に従って、変更されることが好ましい。ノイズ量算出部は、画像の画素値の空間的変化量から、ノイズ量を算出することが好ましい。ノイズ量算出部は、画像の画素値の時間的変化量から、ノイズ量を算出することが好ましい。
 指標値選択部は、ノイズ量が特定のノイズ量用閾値を超える場合に、低周波の構造に関する指標値を含む高ノイズ用の指標値を選択し、ノイズ量が特定のノイズ量用閾値以下である場合に、高周波の構造に関する指標値を含む低ノイズ用の指標値を選択することが好ましい。高ノイズ用の指標値には、構造の面積又は構造の密度が含まれ、低ノイズ用の指標値には、構造の太さ又は構造の長さが含まれることが好ましい。
 構造の明瞭度は、観察対象との距離を示す観察距離で表され、明瞭度算出部は、画像に基づいて、観察距離を算出する観察距離算出部を有し、指標値選択部は、複数の指標値のうち、算出された観察距離において得られた画像から算出可能な指標値を選択することが好ましい。指標値選択部は、観察距離が特定の観察距離用閾値を超える第1観察距離である場合に、低周波の構造に関する指標値を含む第1観察距離用の指標値を選択し、観察距離が特定の観察距離用閾値以下の第2観察距離である場合に、高周波の構造に関する指標値を含む第2観察距離用の指標値を選択することが好ましい。第1観察距離用の指標値には、構造の面積又は構造の密度が含まれ、第2観察距離用の指標値には、構造の太さ又は構造の長さが含まれることが好ましい。構造は血管構造又は腺管構造であることが好ましい。
 本発明のプロセッサ装置は、構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、画像に基づいて、画像のノイズ量を算出するノイズ量算出部と、複数の指標値のうち、ノイズ量を有する画像から算出可能な指標値を選択する指標値選択部であって、ノイズ量が特定のノイズ量用閾値を超える場合に、低周波の構造に関する指標値を含む高ノイズ用の指標値を選択し、ノイズ量が特定のノイズ量用閾値以下である場合に、高周波の構造に関する指標値を含む低ノイズ用の指標値を選択する指標値選択部と、画像に基づいて、指標値選択部により選択された指標値を算出する指標値算出部とを備える。
 本発明の内視鏡システムは、構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、画像に基づいて、構造の明瞭度を算出する明瞭度算出部と、複数の指標値のうち、明瞭度算出部で算出した構造の明瞭度に基づいて算出可能な指標値を選択する指標値選択部と、画像に基づいて、指標値選択部で選択した指標値を算出する指標値算出部と、指標値を画像化した指標値画像を生成する指標値画像生成部と、指標値画像を表示する表示部とを備える。
 本発明の内視鏡システムの作動方法は、画像取得部が、構造を含む観察対象を撮像して得られる画像を取得するステップと、明瞭度算出部が、画像に基づいて、構造の明瞭度を算出するステップと、指標値選択部が、複数の指標値のうち、明瞭度算出部で算出した構造の明瞭度に基づいて算出可能な指標値を選択するステップと、指標値算出部が、画像に基づいて、指標値選択部で選択した指標値を算出するステップとを有する。
 本発明によれば、特定の状況の下で取得した画像から算出可能な指標値を選択して算出することができる。
内視鏡システムの外観図である。 第1実施形態の内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、青色光Bx、緑色光G及び赤色光Rの分光スペクトルを示すグラフである。 第1実施形態の通常光の分光スペクトルを示すグラフである。 第1実施形態の特殊光の分光スペクトルを示すグラフである。 ノイズ量算出部を備える指標値画像処理部の機能を示すブロック図である。 ノイズ量変換テーブルを示す説明図である。 細い表層血管V1と太い中深層血管V2を示す画像図である。 指標値分類テーブルを示す説明図である。 数値の指標値が側方に表示された血管密度画像、血管面積画像及び血管複雑度画像を示す画像図である。 並列表示された血管密度画像、血管面積画像及び血管複雑度画像を示す画像図である。 血管密度画像、血管面積画像及び血管複雑度画像の3種類の画像を切り替えて表示することを示す説明図である。 指標値表示モードを示すフローチャートである。 観察距離算出部を備える指標値画像処理部の機能を示すブロック図である。 第2実施形態の内視鏡システムの機能を示すブロック図である。 第2実施形態の通常光の分光スペクトルを示すグラフである。 第2実施形態の特殊光の分光スペクトルを示すグラフである。 第3実施形態の内視鏡システムの機能を示すブロック図である。 回転フィルタの平面図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18(表示部)と、コンソール19とを有する。内視鏡12は、光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続する。内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12c及び先端部12dとを有している。操作部12bのアングルノブ13aを操作することにより、湾曲部12cが湾曲動作する。この湾曲動作によって、先端部12dを所望の方向に向ける。
 また、操作部12bには、アングルノブ13aの他、静止画像の取得操作に用いる静止画像取得部13b、観察モードの切り替え操作に用いるモード切替部13c、ズーム倍率の変更操作に用いるズーム操作部13dを設けている。静止画像取得部13bは、モニタ18に観察対象の静止画像を表示するフリーズ操作と、ストレージに静止画像を保存するレリーズ操作が可能である。
 内視鏡システム10は、観察モードとして、通常モードと、特殊モードと、指標値表示モードとを有している。観察モードが通常モードである場合、複数色の光を通常モード用の光量比Lcにより合波された通常光を発光し、かつ、この通常光を用いて照明中の観察対象を撮像して得られた画像信号に基づき、通常画像をモニタ18に表示する。また、観察モードが特殊モードである場合、複数色の光を特殊モード用の光量比Lsにより合波された特殊光を発光し、かつ、この特殊光を用いて照明中の観察対象を撮像して得られた画像信号に基づき、特殊画像をモニタ18に表示する。また、観察モードが指標値表示モードである場合、特殊光を発光し、かつ、この特殊光を用いて照明中の観察対象を撮像して得られた画像信号に基づき、観察対象の生体的特徴を指標値化した指標値に関する指標値画像をモニタ18に表示する。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続する。モニタ18は、観察対象の画像または画像に付帯する情報等を出力表示する。コンソール19は、関心領域(ROI : Region Of Interest)の指定等または機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。
 図2に示すように、光源装置14は、観察対象の照明に用いる照明光を発する光源20と、光源20を制御する光源制御部22とを備えている。光源20は、複数色のLED(Light Emitting Diode)等の半導体光源である。光源制御部22は、LED等のオン/オフ及びLED等の駆動電流や駆動電圧の調整によって、照明光の発光量を制御する。また、光源制御部22は、光学フィルタの変更等によって、照明光の波長帯域を制御する。
 第1実施形態では、光源20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDと、波長カットフィルタ23とを有している。図3に示すように、V-LED20aは、波長帯域380nm~420nmの紫色光Vを発する。
 B-LED20bは、波長帯域420nm~500nmの青色光Bを発する。B-LED20bから出射した青色光Bのうち少なくともピーク波長の460nmよりも長波長側は、波長カットフィルタ23によりカットされる。これにより、波長カットフィルタ23を透過した後の青色光Bxは、420~460nmの波長範囲になる。このように、460nmよりも長波長側の波長域の光をカットしているのは、この460nmよりも長波長側の波長域の光は、観察対象である血管の血管コントラストを低下させる要因であるためである。なお、波長カットフィルタ23は、460nmよりも長波長側の波長域の光をカットする代わりに、460nmよりも長波長側の波長域の光を減光させてもよい。
 G-LED20cは、波長帯域が480nm~600nmの緑色光Gを発する。R-LED20dは、波長帯域が600nm~650nmの赤色光Rを発する。なお、各LED20a~20dから発せられる光は、それぞれの中心波長とピーク波長とが同じであっても良いし、異なっていても良い。
 光源制御部22は、各LED20a~20dの点灯及び消灯、並びに点灯時の発光量等を独立に制御することによって、照明光の発光タイミング、発光期間、光強度、及び分光スペクトルの調節を行う。光源制御部22は、照明光の発光量を制御する際には、プロセッサ装置16の調光信号設定部56で設定された調光信号に基づいて、観察対象が基準の明るさになるように、各LED20a~20dの制御を行う。光源制御部22による点灯及び消灯の制御は、観察モードごとに異なっている。なお、基準の明るさは光源装置14の明るさ設定部(図示しない)又はコンソール19等によって設定可能である。
 通常モードの場合、光源制御部22は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。その際、図4に示すように、紫色光V、青色光Bx、緑色光G、及び赤色光R間の光量比Lcは、青色光Bxの光強度が、紫色光V、緑色光G、及び赤色光Rのいずれの光強度よりも大きくなるように、設定されている。これにより、通常モードでは、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む通常モード用の多色光が、通常光として、発せられる。通常光は、紫色光V、青色光Bx、緑色光G、及び赤色光Rそれぞれの光強度が一定以上であるため、ほぼ白色となっている。
 特殊モード又は指標値表示モードの場合についても、光源制御部22は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。その際、図5に示すように、紫色光V、青色光Bx、緑色光G、及び赤色光R間の光量比Lsは、紫色光Vの光強度が、青色光Bx、緑色光G、及び赤色光Rのいずれの光強度よりも大きくなるように、また、緑色光G及び赤色光Rは紫色光V及び青色光Bxよりも小さくなるように、設定されている。これにより、特殊モード又は指標値表示モードでは、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む特殊モード又は指標値表示モード用の多色光が、特殊光として発せられる。特殊光は、紫色光Vの光強度が大きいことから、青みを帯びた光となっている。
 図2に示すように、光源20が発した照明光は、ミラーやレンズ等で形成される光路結合部(図示しない)を介して、挿入部12a内に挿通したライトガイド24に入射する。ライトガイド24は、内視鏡12及びユニバーサルコードに内蔵されており、照明光を内視鏡12の先端部12dまで伝搬させる。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド24としては、マルチモードファイバを使用することができる。一例として、ライトガイド24には、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3mm~φ0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bとを設けている。照明光学系30aは、照明レンズ32を有している。この照明レンズ32を介して、ライトガイド24を伝搬した照明光によって観察対象を照明する。撮像光学系30bは、対物レンズ34と、拡大光学系36と、撮像センサ38とを有している。これら対物レンズ34及び拡大光学系36を介して、観察対象からの反射光、散乱光、及び蛍光等の各種の光が撮像センサ38に入射する。これにより、撮像センサ38に観察対象の像が結像する。
 拡大光学系36は、観察対象を拡大するズームレンズ36aと、ズームレンズ36aを光軸方向CLに移動させるレンズ駆動部36bとを備えている。ズームレンズ36aは、レンズ駆動部36bによるズーム制御に従って、テレ端とワイド端との間を自在に移動することで、撮像センサ38に結像する観察対象を拡大又は縮小させる。
 撮像センサ38は、照明光が照射された観察対象を撮像するカラー撮像センサである。撮像センサ38の各画素には、R(赤色)カラーフィルタ、G(緑色)カラーフィルタ、またはB(青色)カラーフィルタのいずれかを設けている。撮像センサ38は、Bカラーフィルタが設けられているB画素により紫色から青色の波長帯域の光を受光し、Gカラーフィルタが設けられているG画素により緑色の光を受光し、Rカラーフィルタが設けられているR画素により赤色の光を受光する。そして、各色の画素から、RGB各色の画像信号を出力する。撮像センサ38は、出力した画像信号を、CDS回路40に送信する。
 通常モードにおいては、撮像センサ38は、通常光が照明された観察対象を撮像することにより、B画素からBc画像信号を出力し、G画素からGc画像信号を出力し、R画素からRc画像信号を出力する。また、特殊モード又は指標値表示モードにおいては、撮像センサ38は、特殊光が照明された観察対象を撮像することにより、B画素からBs画像信号を出力し、G画素からGs画像信号を出力し、R画素からRs画像信号を出力する。
 撮像センサ38としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等を利用可能である。また、RGBの原色のカラーフィルタを設けた撮像センサ38の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号を出力する。このため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換させ、撮像センサ38と同様のRGB各色の画像信号を得ることができる。また、撮像センサ38の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
 CDS回路40は、撮像センサ38から受信したアナログの画像信号に、相関二重サンプリング(CDS:Correlated Double Sampling)を行う。CDS回路40を経た画像信号は、AGC回路42に入力される。AGC回路42は、入力された画像信号に対して、自動利得制御(AGC:Automatic Gain Control)を行う。AGC回路42(本発明の「ゲイン処理部」に対応する)において、自動利得制御を行う際には、プロセッサ装置16内のゲイン量設定部58で設定されたゲイン量に基づいて、画像信号に対してゲイン処理を施す。A/D(Analog to Digital)変換回路44は、AGC回路42を経たアナログ画像信号を、デジタルの画像信号に変換する。A/D変換回路44は、A/D変換後のデジタル画像信号を、プロセッサ装置16に入力する。
 プロセッサ装置16は、画像信号取得部50と、DSP(Digital Signal Processor)52と、明るさ検出部54と、調光信号設定部56と、ゲイン量設定部58と、ノイズ低減部60と、画像処理部62と、表示制御部64とを備えている。
 画像信号取得部50(本発明の「画像取得部」に相当する)は、構造を含む観察対象を撮像して得られる画像を取得する。画像信号取得部50は、内視鏡12から、観察モードに対応したデジタル画像信号を取得する。通常モードの場合には、Bc画像信号、Gc画像信号、及びRc画像信号を取得する。特殊モード又は指標値表示モードの場合には、Bs画像信号、Gs画像信号、及びRs画像信号を取得する。
 DSP52は、画像信号取得部50が取得した画像信号に対して、欠陥補正処理、オフセット処理、DSP用ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理は、撮像センサ38の欠陥画素の信号を補正する。オフセット処理は、欠陥補正処理した画像信号から暗電流成分を除き、正確なゼロレベルを設定する。DSP用ゲイン補正処理は、オフセット処理した画像信号に特定のDSP用ゲインを乗じることにより信号レベルを整える。
 リニアマトリクス処理は、DSP用ゲイン補正処理した画像信号の色再現性を高める。ガンマ変換処理は、リニアマトリクス処理した画像信号の明るさや彩度を整える。ガンマ変換処理した画像信号には、デモザイク処理(等方化処理、又は同時化処理とも言う)を施すことによって、各画素で不足した色の信号を補間によって生成する。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。
 明るさ検出部54は、DSP52から出力された画像信号に基づいて、観察対象の明るさを検出する。例えば、明るさ検出部54は、画像信号の信号値の平均値を算出することにより、観察対象の明るさを検出する。調光信号設定部56は、各LED20a~20dを構成する光源の制御に用いられる調光信号を設定する。調光信号設定部56は、明るさ検出部54により検出された観察対象の明るさと基準の明るさとに基づいて、調光信号を設定する。調光信号は、観察対象の明るさと基準の明るさとの差分に基づいて設定され、基準の明るさから離れるほど、調光信号は大きくなる。設定された調光信号は、光源制御部22に入力される。光源制御部22は、基準の明るさが得られるように、各LED20a~20dの発光量を制御する。
 ゲイン量設定部58は、明るさ検出部54により検出された観察対象の明るさと基準の明るさとに基づいて、ゲイン量を設定する。ゲイン量は、観察対象の明るさと基準の明るさとの差分に基づいて設定され、基準の明るさから離れるほど、ゲイン量は大きくなる。設定されたゲイン量は、AGC回路42に入力される。AGC回路42は、ゲイン量に基づくゲイン処理を画像信号に対して行うことによって、基準の明るさを持つ信号値となるように、画像信号の信号値を調整する。ノイズ低減部60は、DSP52によりデモザイク処理等を施された画像信号に対して、例えば、移動平均法やメディアンフィルタ法等によるノイズ低減処理を施し、ノイズを低減する。ノイズ低減後の画像信号は、画像処理部62に入力される。
 画像処理部62は、通常画像処理部66と、特殊画像処理部68と、指標値画像処理部70とを備えている。通常画像処理部66は、通常モードに設定されている場合に作動し、受信したBc画像信号、Gc画像信号、Rc画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理を行う。色変換処理では、RGB画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(Look Up Table)処理などにより色変換処理を行う。
 色彩強調処理は、色変換処理済みのRGB画像信号に対して行われる。構造強調処理は、観察対象の構造を強調する処理であり、色彩強調処理後のRGB画像信号に対して行われる。上記のような各種画像処理等を行うことによって、通常画像が得られる。通常画像は、紫色光V、青色光Bx、緑色光G及び赤色光Rそれぞれの光強度が一定以上である通常光に基づいて得られた画像であるため、自然な色合いの画像となっている。通常画像は、表示制御部64に入力される。
 特殊画像処理部68は、特殊モードに設定されている場合に作動する。特殊画像処理部68は、受信したBs画像信号、Gs画像信号、Rs画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理を行う。色変換処理、色彩強調処理、及び構造強調処理の処理内容は、通常画像処理部66における処理内容と同様である。上記のような各種画像処理を行うことによって、特殊画像が得られる。特殊画像は、血管のヘモグロビンの吸収係数が高い紫色光Vが、他の色の青色光Bx、緑色光G及び赤色光Rよりも大きい光強度となっている特殊光に基づいて得られた画像であるため、血管構造または腺管構造の解像度が他の構造よりも高くなっている。特殊画像は、表示制御部64に入力される。
 指標値画像処理部70は、指標値表示モードに設定されている場合に作動する。指標値画像処理部70は、受信したBs画像信号、Gs画像信号、Rs画像信号に基づいて、血管構造または腺管構造を含む観察対象の各種構造の指標値を算出する。指標値画像処理部70は、複数の指標値が算出可能である。また、指標値画像処理部70は、これら複数の指標値のうち、各種構造の明瞭度に応じて算出可能な指標値を選択する。また、指標値画像処理部70は、算出した指標値に基づいて指標値画像を生成する。指標値画像処理部70の詳細については、後述する。指標値画像は、表示制御部64に入力される。
 表示制御部64は、画像処理部62から入力された画像をモニタ18に表示するための表示制御を行う。通常モードに設定されている場合には、表示制御部64は、通常画像をモニタ18に表示する制御を行う。特殊モードに設定されている場合には、表示制御部64は、特殊画像をモニタ18に表示する制御を行う。指標値表示モードに設定されている場合には、表示制御部64は、指標値画像をモニタ18に表示する制御を行う。
 図6に示すように、指標値画像処理部70は、明瞭度算出部80と、指標値選択部82と、指標値算出部84と、指標値画像生成部86とを備えている。明瞭度算出部80は、画像信号取得部50が取得した画像に基づいて、構造の明瞭度を算出する。明瞭度算出部80は、血管構造または腺管構造などの構造の明瞭度を算出する。構造の明瞭度とは、モニタ18上で画像として表示される構造の明瞭度のことをいう。この構造の明瞭度は、画像のノイズ量によって変化することから、構造の明瞭度を画像のノイズ量で表す。このため、明瞭度算出部80は、画像のノイズ量を算出するノイズ量算出部90を備えている。
 ノイズ量算出部90は、3種類の第1~第3ノイズ算出処理を行うことが可能であり、これら第1~第3ノイズ算出処理のいずれかの処理によって、ノイズ量を算出する。なお、第1~第3ノイズ算出処理の全部又は一部を行って複数のノイズ量を算出し、それら複数のノイズ量を重み付け加算してもよい。
 第1ノイズ算出処理では、ノイズ量算出部90は、ゲイン量設定部58で設定したゲイン量に基づいて、ノイズ量を算出する。この第1ノイズ量算出処理を行う場合には、ノイズ量算出部90は、ゲイン量設定部58を参照して、ゲイン量を取得する。ゲイン量に基づくノイズ量の算出には、ゲイン量とノイズ量とを関連付けて記憶するノイズ量変換テーブル90aが用いられる。
 ノイズ量変換テーブル90aにおいては、図7に示すように、ゲイン量Ga1にはノイズ量Ns1が対応づけられ、ゲイン量Ga1より大きいゲイン量Ganにはノイズ量Ns1より大きいノイズ量Nsnが対応づけられている。したがって、ノイズ量変換テーブル90aにおいては、ゲイン量が大きくなる程、ノイズ量も大きくなるように、ゲイン量とノイズ量との対応付けが行われている。これは、ゲイン量が大きい場合には、観察対象のうち、診断に資する部分の明るさを明るくすることができる一方で、診断に不要なノイズ成分の明るさも大きくなるからである。
 なお、第1ノイズ算出処理においては、光源の発光量が特定発光量を超えた場合に、調光信号設定部56で設定した調光信号に従って、算出したノイズ量を変更してもよい。例えば、ノイズ量算出部90は、光源20を構成するLED20a~20dのうち少なくともいずれかのLEDの発光量が、特定発光量を超えた最大発光量となっている場合には、調光信号を参照して、算出したノイズ量を変更してもよい。ノイズ量算出部90は、ノイズ量変換テーブル90aを参照して取得したノイズ量に対して特定の補正係数を掛け合わせることが好ましい。なお、ノイズ量算出部90は、調光信号とノイズ量との関係を予め定めておいた上で、調光信号からノイズ量を算出するようにしてもよい。
 第2ノイズ量算出処理では、ノイズ量算出部90は、Bs画像信号、Gs画像信号またはRs画像信号のうちいずれかの画像信号の画素値の空間的変化量から、ノイズ量を算出する。すなわち、ノイズ量算出部90は、画像信号取得部50により取得された画像の画素値の空間的変化量から、ノイズ量を算出する。この第2ノイズ量算出処理によりノイズ量を算出する場合には、観察対象における反射率が高い光から得られる画像信号を用いることが好ましい。このような画像信号(以下、「特定明るさの画像信号」という)は、観察対象の明るさと連動して画素値が変化するからである。
 第2ノイズ量算出処理においては、ノイズ量算出部90は、特定明るさの画像信号のうち、画素値が一定値以上の高画素値領域を特定し、この高画素値領域の分散を測定する。そして、ノイズ量算出部90は、測定した分散から、ノイズ量を算出する。算出されるノイズ量は、高画素値領域の分散が大きいほど、大きくなっている。ノイズ量の算出には、高画素値領域の分散とノイズ量とを対応付けた変換テーブルを用いることが好ましい。なお、高画素値領域の分散を測定する際には、特定明るさの画像信号の全体を測定する他、画素値が特定範囲である特定領域(例えば、画素値が低画素値範囲に含まれる領域)の分散を測定するようにしてもよい。その他、コンソール19等によりユーザーが設定した領域の分散を測定してもよい。
 第3ノイズ量算出処理では、Bs画像信号、Gs画像信号またはRs画像信号のうちいずれかの画像信号の画素値の時間的変化量から、ノイズ量を算出する。すなわち、ノイズ量算出部90は、画像信号取得部50により取得された画像の画素値の時間的変化量から、ノイズ量を算出する。この第3ノイズ量算出処理によりノイズ量を算出する場合においても、第2ノイズ量算出処理と同様の理由で、特定明るさの画像信号を用いることが好ましい。第3ノイズ量算出処理においては、ノイズ量算出部90は、画素値の時間的変化量を算出するために、リアルタイムに取得した特定明るさの画像信号の他、数フレーム前から1フレーム前の間に取得した、すなわち過去に取得した複数フレーム分の特定明るさの画像信号を記憶しておく。
 第3ノイズ量算出処理においては、ノイズ量算出部90は、リアルタイム及び過去に取得した数フレーム分の特定明るさの画像信号から、画素値の時間的変化量を算出する。ノイズ量算出部90は、この画素値の時間的変化量から、ノイズ量を算出する。算出されるノイズ量は、画素値の時間的変化量が大きいほど、大きくなっている。なお、ノイズ量の算出には、画素値の時間的変化量とノイズ量とを対応付けた変換テーブルを用いることが好ましい。また、時間的変化量を算出する際には、第2ノイズ量算出処理と同様に、設定した領域内で算出を行ってもよい。
 指標値選択部82は、複数の指標値のうち、明瞭度算出部80により算出された構造の明瞭度に基づいて算出可能な指標値を選択する。構造の明瞭度をノイズ量で表した場合には、指標値選択部82は、複数の指標値のうち、ノイズ量算出部90により算出されたノイズ量に基づいて算出可能な指標値を選択する。指標値選択部82は、ノイズ量が特定のノイズ量用閾値を超える高ノイズ量である場合には、高ノイズ量を有するBs画像信号、Gs画像信号及びRs画像信号から算出可能な高ノイズ用の指標値を選択する。
 高ノイズ用の指標値は、ノイズの多さによって影響を受けない指標値であることが好ましい。例えば、血管面積又は血管密度など構造の面積又は構造の密度が挙げられる。また、観察対象の明るさの不足等によりノイズが多い場合は、図8の画像に示すように、構造のうち、細い表層血管V1など高周波の構造がノイズに埋もれて不明瞭になっていることがある。このように、観察対象の明るさが不足している状況下でも観察可能な構造として、太い中深層血管V2などの低周波の構造がある。また、低周波の構造としては、腺管構造なども挙げられる。このような低周波の構造に関する指標値(例えば、中深層血管または腺管構造の指標値)についても、高ノイズ用の指標値に含まれることになる。指標値選択部82は、ノイズ量が特定のノイズ量用閾値を超える場合に、低周波の構造に関する指標値を含む高ノイズ用の指標値を選択する。
 これに対して、ノイズ量が特定のノイズ量用閾値以下である低ノイズ量である場合には、指標値選択部82は、低ノイズ量を有するBs画像信号、Gs画像信号及びRs画像信号から算出可能な低ノイズ用の指標値を選択する。低ノイズ用の指標値は、高ノイズ用指標値には含まれない指標値、例えば、ノイズが多い場合に影響を受ける指標値であることが好ましい。低ノイズ用の指標値としては、構造の太さまたは構造の長さの他、細い表層血管V1など高周波の構造の指標値が挙げられる。指標値選択部82は、ノイズ量が特定のノイズ量用閾値以下である場合に、高周波の構造に関する指標値を含む低ノイズ用の指標値を選択する。なお、指標値選択部82では、図9に示すように、複数の指標値が高ノイズ用指標値又は低ノイズ用指標値のいずれに該当するかを記録した指標値分類テーブルを参照して、指標値を選択することが好ましい。
 指標値算出部84は、画像信号取得部50が取得した画像に基づいて、指標値選択部82により選択された指標値を算出する。指標値算出部84は、Bs画像信号、Gs画像信号、Rs画像信号に基づいて、指標値選択部82により選択された指標値を算出する。例えば、指標値選択部82により血管密度、血管面積及び血管の複雑度(血管太さの変化の複雑度)が選択された場合には、指標値算出部84は、Bs画像信号、Gs画像信号、Rs画像信号に基づいて、血管の画像を抽出する。血管の画像の抽出方法としては、Bs画像信号とGs画像信号の差分により、異なる深さにある複数の血管の画像を抽出する方法がある。血管の画像を抽出した後は、単位面積における血管の割合を血管密度として算出する。また、血管として抽出した画素をカウントすることによって、血管面積を算出する。また、抽出した血管の画像の径の変化率を算出することによって、血管の複雑度を算出する。
 なお、指標値算出部84では、指標値選択部82で選択された指標値の全てについて算出を行ってもよいが、選択された指標値のうち、予めコンソール19等により設定された診断目的によって絞り込んだ指標値についてのみ算出を行うようにしてもよい。例えば、診断目的が血管の観察である場合には、選択された指標値のうち血管の指標値だけを算出し、腺管構造など血管以外の指標値の算出は行わないようにする。
 また、指標値算出部84では、指標値選択部82で選択された複数の指標値に対して重み付けを行って、1つの血管パラメータとして算出するようにしてもよい。重み付けの係数は、診断目的によって定めることが好ましい。例えば、診断目的がバレット食道の診断で、血管密度と血管の複雑度が選択された場合には、血管密度と血管の複雑度とを1:1で重み付け加算して、バレット食道用の血管パラメータを算出することが好ましい。
 指標値画像生成部86は、指標値算出部84で算出した指標値に基づいて、指標値を画像化した指標値画像を生成する。指標値画像の生成方法としては、様々な画像生成方法が考えられるが、例えば、指標値をそのまま数値として表示した指標値画像の生成がある。この場合、例えば、指標値算出部84により血管密度、血管面積及び血管の複雑度が算出された場合には、図10に示すように、観察対象の側方に、血管密度、血管面積及び血管の複雑度が表示された指標値画像が生成される。
 また、指標値画像の生成方法として、指標値に応じて異なる色で表示した指標値画像を生成する方法がある。この場合には、例えば、指標値算出部84で血管密度、血管面積及び血管の複雑度を算出した場合には、指標値画像生成部86は、血管密度に応じて色付けした血管密度画像、血管面積に応じて色付けした血管面積画像、血管の複雑度に応じて色付けした血管複雑度画像を生成する。これら3つの血管密度画像、血管面積画像及び血管複雑度画像は、図11に示すように、モニタ18上に一度に表示してもよい。また、血管密度画像、血管面積画像及び血管複雑度画像は、図12に示すように、一定の時間間隔で交互に表示するようにしてもよい。
 また、指標値算出部84により算出された指標値の中で、構造の明瞭度によって正確性に差がある場合には、構造の明瞭度に応じて、生成した指標値画像の表示パターンを変えてもよい。例えば、複数の指標値画像を切り替えてモニタ18に表示する場合には、複数の指標値画像のうち、構造の明瞭度によって最も影響を受けにくい画像の表示時間を一番長くする一方、その他の画像の表示時間を短くすることが好ましい。
 また、指標値画像の生成方法として、広帯域の画像の色調を指標値に応じて変化させた指標値画像を生成する方法がある。例えば、広帯域の画像として通常画像を用いる場合には、指標値表示モードにおいて、特殊光を発光するフレームとは別のフレームで通常光を発光し、Bc画像信号、Gc画像信号及びRc画像信号を取得する。そして、これらBc画像信号、Gc画像信号及びRc画像信号に基づいて通常画像を生成し、指標値画像生成部86により、指標値に応じて通常画像の色調を変化させた指標値画像を生成する。
 次に、指標値表示モードについて、図13に示すフローチャートに沿って説明する。まず、モード切替部13cによって指標値表示モードに設定すると、ステップS1において、観察対象に対して特殊光が照射される。撮像センサ38は、特殊光が照明された観察対象を撮像することにより、Bs画像信号、Gs画像信号及びRs画像信号を出力する。ステップS2において、画像信号取得部50は、Bs画像信号、Gs画像信号及びRs画像信号を取得する。また、明るさ検出部54は、これらBs画像信号、Gs画像信号及びRs画像信号に基づいて、観察対象の明るさを検出する。また、調光信号設定部56は、明るさ検出部54により検出された観察対象の明るさに基づいて、調光信号を設定する。また、ゲイン量設定部58は、明るさ検出部54により検出された観察対象の明るさに基づいて、ゲイン量の設定を行う。
 次に、ステップS3において、明瞭度算出部80は、構造の明瞭度を算出する。構造の明瞭度として、ノイズ量算出部90は、ノイズ量を算出する。ノイズ量の算出は、Bs画像信号、調光信号またはゲイン量などを用いて、第1~第3ノイズ量算出処理のいずれかによって行う。ノイズ量が算出された後、ステップS4において、指標値選択部82は、複数の指標値のうち、明瞭度算出部80により算出された構造の明瞭度から算出可能な指標値を選択する。構造の明瞭度としてノイズ量を用いる場合は、ノイズ量が高ノイズ量である場合には、指標値選択部82は、高ノイズ量用指標値を選択する。一方、ノイズ量が低ノイズ量である場合は、指標値選択部82は、低ノイズ量用指標値を選択する。
 次に、ステップS5において、指標値算出部84は、Bs画像信号、Gs画像信号及びRs画像信号に基づき、指標値選択部82で選択された指標値を算出する。ステップS6において、指標値算出部84で算出した指標値に基づいて、指標値画像生成部86は、指標値を画像化した指標値画像を生成する。生成された指標値画像は、モニタ18に表示される。
 なお、上記実施形態では、構造の明瞭度として画像のノイズ量を用いているが、その他の変数を構造の明瞭度として用いてもよい。例えば、内視鏡の先端部12dと観察対象との距離を示す観察距離は、構造の明瞭度に大きく影響を与える。観察距離が遠い場合は、光が観察対象にまで十分届かず、暗い画像となるため、構造の明瞭度が低くなる。一方、観察距離が近い場合には、得られる画像も明るく鮮明であるため、構造の明瞭度が高くなる。このように、構造の明瞭度は観察距離によって変化することから、構造の明瞭度は、観察対象との距離を示す観察距離で表わされる。この場合には、図14に示すように、明瞭度算出部80は、画像信号取得部50により取得された画像に基づいて、観察距離を算出する観察距離算出部94を備えている。
 観察距離算出部94は、明るさ検出部54により検出された観察対象の明るさに基づいて、観察距離を算出する。算出される観察距離は、観察対象の明るさに略反比例し、観察対象の明るさが大きくなる程、観察距離は小さくなる。また、指標値選択部82は、複数の指標値のうち、算出された観察距離において得られたBs画像信号、Gs画像信号及びRs画像信号から算出可能な指標値を選択する。すなわち、指標値選択部82は、複数の指標値のうち、算出された観察距離において得られた画像から算出可能な指標値を選択する。
 指標値選択部82は、観察距離が特定の観察距離用閾値を超える第1観察距離である場合には、第1観察距離において得られたBs画像信号、Gs画像信号及びRs画像信号から算出可能な第1観察距離用の指標値を選択する。第1観察距離用の指標値には、画像の明るさによって影響を受けにくい指標値である、構造の面積又は構造の密度が含まれる。例えば、血管密度または血管面積などが含まれる。指標値選択部82は、観察距離が特定の観察距離用閾値を超える第1観察距離である場合に、低周波の構造に関する指標値を含む第1観察距離用の指標値を選択する。一方、観察距離が特定の観察距離用閾値以下である第2観察距離である場合には、指標値選択部82は、第2観察距離において得られたBs画像信号、Gs画像信号及びRs画像信号から算出可能な第2観察距離用の指標値を選択する。第2観察距離用指標値には、第1観察距離用指標値には含まれない指標値である、構造の太さ又は構造の長さが含まれる。例えば、第2観察距離用指標値は、観察距離の大きさによって影響を受けやすい指標値(血管太さまたは長さなど)であることが好ましい。指標値選択部82は、観察距離が特定の観察距離用閾値以下の第2観察距離である場合に、高周波の構造に関する指標値を含む第2観察距離用の指標値を選択するなお、指標値選択後に行う指標値の算出方法及び指標値画像の生成方法については、ノイズ量を用いた上記実施形態と同様であるため、説明を省略する。
 なお、上記実施形態においては、観察距離が近くなると、画像領域の一部に、画素値が極めて高くなるハレーションが発生している状況下においても、指標値を正確に算出できるようにすることが好ましい。この場合、プロセッサ装置16内にハレーション検出部(図示しない)を設け、ハレーション検出部によって、Bs画像信号、Gs画像信号及びRs画像信号におけるハレーション領域を検出する。ハレーション領域が検出された場合には、モニタ18に警告表示を出すことが好ましい。警告表示としては、例えば、ユーザーに対して、観察距離を遠ざけるように指示するガイダンス表示がある。また、ハレーション領域が検出された場合には、指標値算出部84は、ハレーション領域以外の領域の画素値に基づいて、指標値を算出するようにすることが好ましい。
 なお、上記実施形態では、指標値の具体例として、血管密度、血管面積、血管複雑度、血管太さ及び血管長さを示したが、その他の指標値を用いてもよい。例えば、血管の指標値としては、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さの変化、間隔、粘膜を基準とした深さ、高低差、傾き、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量などがある。
 血管の本数とは、内視鏡画像全体または関心領域内で抽出した血管の数である。血管の本数は、例えば、抽出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。
 血管の交差数とは、粘膜下の深さが異なる血管が内視鏡画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。
 血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管経の変化率(%)=最小径/最大径×100」から算出する。
 なお、過去の検査で観察対象を撮影して得た内視鏡画像と、その後の新たな検査で同じ観察対象を撮影して得た内視鏡画像と、を用いる場合、過去の検査で得た内視鏡画像から抽出した血管の太さに対して、その後の新たな検査で得た内視鏡画像から抽出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。
 また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」から算出する。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」から算出する。
 血管の間隔とは、抽出した血管のエッジ間にある粘膜を表す画素の画素数である。抽出した血管が1本の場合、血管の間隔は値を持たない。
 血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特殊観察画像の場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管情報算出部83は、血管として抽出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。
 血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差から算出する。深さが一定の場合、高低差は零である。
 血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」から算出する。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。
 血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV-YM)/(YV+YM)」から算出する。
 血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表すB画素の画素値の最大値と最小値の比、G画素の画素値の最大値と最小値の比、またはR画素の画素値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。
 血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。
 血管の血液濃度とは、血管を流れる血液に含まれるヘモグロビンの量に比例する血管情報である。血管を表すR画素の画素値に対するG画素の画素値の比(G/R)は、ヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。
 血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)を使用して観察対象を撮影した内視鏡画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表すB画素の画素値は、酸素飽和度と相関があるので、B画素の画素値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。
 動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈とは、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、抽出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。
 投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、Bs画像信号とGs画像信号の比率B/G、またはBs画像信号とRs画像信号の比率B/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。
 血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。
 血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。超音波プローブを内視鏡12の鉗子チャネル等を介して併用する場合等に、内視鏡画像の血管を表す各画素のドップラーシフト周波数を、超音波プローブで得る信号を用いて算出することにより、血管の血流量を算出することができる。
 [第2実施形態]
 第2実施形態では、上記第1実施形態で示した4色のLED20a~20dの代わりに、レーザ光源と蛍光体とを用いて観察対象の照明を行う。以下においては、第1実施形態と異なる部分のみ説明を行い、第1実施形態と略同様の部分については、説明を省略する。
 図15に示すように、第2実施形態の内視鏡システム100では、光源装置14の光源20において、4色のLED20a~20dの代わりに、中心波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記。LDは「Laser Diode」を表す。)104と、中心波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(「405LD」と表記)106とが設けられている。これら各光源104及び106の半導体発光素子からの発光は、光源制御部108により個別に制御されており、青色レーザ光源104の出射光と、青紫色レーザ光源106の出射光の光量比は、変更自在になっている。
 光源制御部108は、通常モードの場合には、青色レーザ光源104を点灯させる。これに対して、特殊モード又は指標値表示モードの場合には、青色レーザ光源104と青紫色レーザ光源106の両方を点灯させ、かつ、青色レーザ光の発光比率を青紫色レーザ光の発光比率よりも大きくなるように制御している。
 なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源104及び青紫色レーザ光源106は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードまたはGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
 照明光学系30aには、照明レンズ32の他に、ライトガイド24からの青色レーザ光又は青紫色レーザ光が入射する蛍光体110が設けられている。蛍光体110は、青色レーザ光によって励起され、蛍光を発する。また、青色レーザ光の一部は、蛍光体110を励起させることなく透過する。青紫色レーザ光は、蛍光体110を励起させることなく透過する。蛍光体110を出射した光は、照明レンズ32を介して、観察対象の体内を照明する。
 ここで、通常モードにおいては、主として青色レーザ光が蛍光体110に入射するため、図16に示すような、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した通常モード用の広帯域光が、通常光として、観察対象に照明される。この通常光により照明された観察対象を、撮像センサ38により撮像することによって、Bc画像信号、Gc画像信号及びRc画像信号からなる通常画像が得られる。
 一方、特殊モードにおいては、青紫色レーザ光と青色レーザ光の両方が蛍光体110に入射するため、図17に示すような、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した特殊モード用の広帯域光が、特殊光として、観察対象に照明される。この特殊光により照明された観察対象を、撮像センサ38により撮像することによって、Bs画像信号、Gs画像信号及びRs画像信号からなる特殊画像が得られる。また、指標値表示モードにおいては、特殊光で照明された観察対象を撮像センサ38で撮像してBs画像信号、Gs画像信号及びRs画像信号を取得し、かつ、これら3つの画像信号に基づいて、指標値の算出され、かつ指標値画像が生成される。
 なお、蛍光体110は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl1017)などの蛍光体)を含んで構成されることが好ましい。本構成例のように、半導体発光素子を蛍光体110の励起光源として用いれば、高い発光効率で高強度の白色光が得られる。また、半導体発光素子を蛍光体110の励起光源として用いれば、白色光の強度を容易に調整できる。さらに、半導体発光素子を蛍光体110の励起光源として用いれば、白色光の色温度及び色度の変化を小さく抑えることができる。
 [第3実施形態]
 第3実施形態では、4色のLED20a~20dの代わりに、キセノンランプ等の白色光光源と回転フィルタとを用いて観察対象の照明を行う。また、カラーの撮像センサ38に代えて、モノクロの撮像センサで観察対象の撮像を行っても良い。以下においては、第1実施形態と異なる部分のみ説明を行い、第1実施形態と略同様の部分については、説明を省略する。
 図18に示す内視鏡システム200では、光源装置14において、内視鏡システム10の各LED20a~20dに代えて、白色光光源202と、回転フィルタ204と、フィルタ切替部206とが設けられている。また、撮像光学系30bには、カラーの撮像センサ38の代わりに、カラーフィルタが設けられていないモノクロの撮像センサ208が設けられている。また、白色光光源202と回転フィルタ204との間には絞り203が設けられており、この絞り203は絞り制御部205によって開口部の面積が調整される。絞り制御部205は、プロセッサ装置16からの調光信号に基づいて絞り203の制御を行う。
 白色光光源202はキセノンランプまたは白色LED等であり、波長域が青色から赤色までの白色光を発する。回転フィルタ204は、回転軸に一番近い内側に設けた通常モード用フィルタ210と、この通常モード用フィルタ210の外側に設けた特殊モード又は指標値表示モード用フィルタ212とを備えている(図19参照)。
 フィルタ切替部206は、回転フィルタ204を径方向に移動する。具体的には、フィルタ切替部206は、モード切替部13cにより通常モードに設定された場合に、通常モード用フィルタ210を白色光の光路に挿入する。フィルタ切替部206は、特殊モード又は指標値表示モードに設定された場合に、特殊モード又は指標値表示モード用フィルタ212を白色光の光路に挿入する。
 図19に示すように、通常モード用フィルタ210には、周方向に沿って、Bbフィルタ210aと、Gフィルタ210bと、Rフィルタ210cとが設けられている。Bbフィルタ210aは、白色光のうち400~500nmの波長範囲を持つ広帯域の青色光Bbを透過する。Gフィルタ210bは、白色光のうち緑色光Gを透過する。Rフィルタ210cは、白色光のうち赤色光Rを透過する。したがって、通常モード時には、回転フィルタ204が回転することで、通常光として、広帯域の青色光Bb、緑色光G及び赤色光Rが、観察対象に向けて、順次照射される。
 特殊モード又は指標値表示モード用フィルタ212には、周方向に沿って、Bnフィルタ212aと、Gnフィルタ212bとが設けられている。Bnフィルタ212aは、白色光のうち400~450nmの青色狭帯域光Bnを透過する。Gnフィルタ212bは、白色光のうち530~570nmの緑色狭帯域光Gnを透過する。したがって、特殊モード時には、回転フィルタ204が回転することで、特殊光として、青色狭帯域光Bn及び緑色狭帯域光Gnが、観察対象に向けて、順次照射される。
 内視鏡システム200では、通常モード時には、広帯域の青色光Bb、緑色光G及び赤色光Rそれぞれにより観察対象を照明する毎にモノクロの撮像センサ208で観察対象を撮像する。これにより、広帯域の青色光Bbの照明時にBc画像信号が得られ、緑色光Gの照明時にGc画像信号が得られ、赤色光Rの照明時にRc画像信号が得られる。これらBn画像信号、Gc画像信号とRc画像信号によって、通常画像が構成される。
 特殊モード時には、青色狭帯域光Bn及び緑色狭帯域光Gnそれぞれにより観察対象を照明する毎にモノクロの撮像センサ208で観察対象を撮像する。これにより、青色狭帯域光Bnの照明時にBn画像信号が得られ、緑色狭帯域光Gnの照射時にGn画像信号が得られる。これらBn画像信号とGn画像信号とによって、特殊画像が構成される。また、指標値表示モードの場合には、青色狭帯域光Bnの照明時に得られるBn画像信号と、緑色狭帯域光Gnの照明時に得られるGn画像信号とに基づいて、指標値の算出と指標値画像の生成が行われる。なお、指標値表示モードにおいては、明るさ検出部54は、Gn画像信号に基づいて、観察対象の明るさを検出することが好ましい。
 上述の各実施形態において、AGC回路42は、内視鏡12に設けられるとした。しかしながら、AGC回路42は、プロセッサ装置16に設けられてもよい。
 上述の各実施形態において、画像信号取得部50、明るさ検出部54、調光信号設定部56、ゲイン量設定部58、ノイズ低減部60、画像処理部62、及び表示制御部64、並びにAGC回路42といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
13a アングルノブ
13b 静止画像取得部
13c モード切替部
13d ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20 光源
20a V-LED
20b B-LED
20c G-LED
20d R-LED
22 光源制御部
23 波長カットフィルタ
24 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
34 対物レンズ
36 拡大光学系
36a ズームレンズ
36b レンズ駆動部
38 撮像センサ
40 CDS回路
42 AGC回路
44 A/D変換回路
50 画像信号取得部
52 DSP
54 明るさ検出部
56 調光信号設定部
58 ゲイン量設定部
60 ノイズ低減部
62 画像処理部
64 表示制御部
66 通常画像処理部
68 特殊画像処理部
70 指標値画像処理部
80 明瞭度算出部
82 指標値選択部
83 血管情報算出部
84 指標値算出部
86 指標値画像生成部
90 ノイズ量算出部
90a ノイズ量変換テーブル
94 観察距離算出部
100 内視鏡システム
104 青色レーザ光源
106 青紫色レーザ光源
108 光源制御部
110 蛍光体
200 内視鏡システム
202 白色光光源
203 絞り
204 回転フィルタ
205 絞り制御部
206 フィルタ切替部
208 撮像センサ
210 通常モード用フィルタ
210a Bbフィルタ
210b Gフィルタ
210c Rフィルタ
212 特殊モード又は指標値表示モード用フィルタ
212a Bnフィルタ
212b Gnフィルタ

Claims (15)

  1.  構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、
     前記画像に基づいて、前記構造の明瞭度を算出する明瞭度算出部と、
     複数の指標値のうち、前記明瞭度算出部により算出された前記構造の明瞭度に基づいて算出可能な指標値を選択する指標値選択部と、
     前記画像に基づいて、前記指標値選択部により選択された指標値を算出する指標値算出部とを備えるプロセッサ装置。
  2.  前記構造の明瞭度は前記画像のノイズ量で表され、
     前記明瞭度算出部は、前記ノイズ量を算出するノイズ量算出部を有し、
     前記指標値選択部は、前記複数の指標値のうち、前記ノイズ量を有する前記画像から算出可能な指標値を選択する請求項1記載のプロセッサ装置。
  3.  前記画像に対してゲイン処理を施すゲイン処理部を有し、
     前記ノイズ量算出部は、前記ゲイン処理で使用するゲイン量から、前記ノイズ量を算出する請求項2記載のプロセッサ装置。
  4.  前記ノイズ量算出部で算出したノイズ量は、前記観察対象を照明する光を発する光源の発光量が特定発光量を超えた場合に、前記光源の制御に用いる調光信号に従って、変更される請求項2記載のプロセッサ装置。
  5.  前記ノイズ量算出部は、前記画像の画素値の空間的変化量から、前記ノイズ量を算出する請求項2ないし4いずれか1項記載のプロセッサ装置。
  6.  前記ノイズ量算出部は、前記画像の画素値の時間的変化量から、前記ノイズ量を算出する請求項2ないし4いずれか1項記載のプロセッサ装置。
  7.  前記指標値選択部は、前記ノイズ量が特定のノイズ量用閾値を超える場合に、低周波の構造に関する指標値を含む高ノイズ用の指標値を選択し、前記ノイズ量が前記特定のノイズ量用閾値以下である場合に、高周波の構造に関する指標値を含む低ノイズ用の指標値を選択する請求項2ないし6いずれか1項記載のプロセッサ装置。
  8.  前記高ノイズ用の指標値には、前記構造の面積又は前記構造の密度が含まれ、前記低ノイズ用の指標値には、前記構造の太さ又は前記構造の長さが含まれる請求項7記載のプロセッサ装置。
  9.  前記構造の明瞭度は、前記観察対象との距離を示す観察距離で表され、
     前記明瞭度算出部は、前記画像に基づいて、前記観察距離を算出する観察距離算出部を有し、
     前記指標値選択部は、前記複数の指標値のうち、算出された前記観察距離において得られた前記画像から算出可能な指標値を選択する請求項1記載のプロセッサ装置。
  10.  前記指標値選択部は、前記観察距離が特定の観察距離用閾値を超える第1観察距離である場合に、低周波の構造に関する指標値を含む第1観察距離用の指標値を選択し、前記観察距離が前記特定の観察距離用閾値以下の第2観察距離である場合に、高周波の構造に関する指標値を含む第2観察距離用の指標値を選択する請求項9記載のプロセッサ装置。
  11.  前記第1観察距離用の指標値には、前記構造の面積又は前記構造の密度が含まれ、前記第2観察距離用の指標値には、前記構造の太さ又は前記構造の長さが含まれる請求項10記載のプロセッサ装置。
  12.  前記構造は血管構造又は腺管構造である請求項1ないし11いずれか1項記載のプロセッサ装置。
  13.  構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、
     前記画像に基づいて、前記画像のノイズ量を算出するノイズ量算出部と、
     複数の指標値のうち、前記ノイズ量を有する前記画像から算出可能な指標値を選択する指標値選択部であって、前記ノイズ量が特定のノイズ量用閾値を超える場合に、低周波の構造に関する指標値を含む高ノイズ用の指標値を選択し、前記ノイズ量が前記特定のノイズ量用閾値以下である場合に、高周波の構造に関する指標値を含む低ノイズ用の指標値を選択する指標値選択部と、
     前記画像に基づいて、前記指標値選択部により選択された指標値を算出する指標値算出部とを備えるプロセッサ装置。
  14.  構造を含む観察対象を撮像して得られる画像を取得する画像取得部と、
     前記画像に基づいて、前記構造の明瞭度を算出する明瞭度算出部と、
     複数の指標値のうち、前記明瞭度算出部で算出した前記構造の明瞭度に基づいて算出可能な指標値を選択する指標値選択部と、
     前記画像に基づいて、前記指標値選択部で選択した指標値を算出する指標値算出部と、
     前記指標値を画像化した指標値画像を生成する指標値画像生成部と、
     前記指標値画像を表示する表示部とを備える内視鏡システム。
  15.  画像取得部が、構造を含む観察対象を撮像して得られる画像を取得するステップと、
     明瞭度算出部が、前記画像に基づいて、前記構造の明瞭度を算出するステップと、
     指標値選択部が、複数の指標値のうち、前記明瞭度算出部で算出した前記構造の明瞭度に基づいて算出可能な指標値を選択するステップと、
     指標値算出部が、前記画像に基づいて、前記指標値選択部で選択した指標値を算出するステップとを有するプロセッサ装置の作動方法。
PCT/JP2017/026814 2016-09-30 2017-07-25 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法 WO2018061434A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17855392.1A EP3520676A4 (en) 2016-09-30 2017-07-25 PROCESSOR DEVICE, ENDOSCOPE SYSTEM AND OPERATING METHOD FOR THE PROCESSOR DEVICE
US16/282,325 US20190183315A1 (en) 2016-09-30 2019-02-22 Processor device, endoscope system, and method of operating processor device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-192892 2016-09-30
JP2016192892A JP6538634B2 (ja) 2016-09-30 2016-09-30 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/282,325 Continuation US20190183315A1 (en) 2016-09-30 2019-02-22 Processor device, endoscope system, and method of operating processor device

Publications (1)

Publication Number Publication Date
WO2018061434A1 true WO2018061434A1 (ja) 2018-04-05

Family

ID=61760494

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/026814 WO2018061434A1 (ja) 2016-09-30 2017-07-25 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法

Country Status (4)

Country Link
US (1) US20190183315A1 (ja)
EP (1) EP3520676A4 (ja)
JP (1) JP6538634B2 (ja)
WO (1) WO2018061434A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116147A (ja) * 2019-01-24 2020-08-06 富士フイルム株式会社 内視鏡システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3533382A4 (en) 2016-10-27 2019-12-04 Fujifilm Corporation ENDOSCOPIC SYSTEM
EP3533380A4 (en) * 2016-10-27 2019-11-13 FUJIFILM Corporation PROCESSOR DEVICE AND ENDOSCOPIC SYSTEM
EP3544482A4 (en) 2016-11-28 2020-07-22 Adaptivendo LLC SEPARABLE DISPOSABLE SHAFT ENDOSCOPE
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
US20240099554A1 (en) * 2022-09-28 2024-03-28 Boston Scientific Scimed, Inc. Medical devices and related systems and methods for automatic image brightness control
CN115690003A (zh) * 2022-10-13 2023-02-03 广州医软智能科技有限公司 微循环图像清晰度评价方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066127A (ja) * 2013-09-27 2015-04-13 富士フイルム株式会社 内視鏡システム及びプロセッサ装置並びに作動方法並びに距離測定装置
JP2016019665A (ja) * 2014-07-15 2016-02-04 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016054794A (ja) * 2014-09-05 2016-04-21 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP2016116741A (ja) * 2014-12-22 2016-06-30 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
JP2016137008A (ja) * 2015-01-26 2016-08-04 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
WO2016151711A1 (ja) * 2015-03-20 2016-09-29 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2017057392A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5052189B2 (ja) * 2007-04-13 2012-10-17 オリンパス株式会社 映像処理装置及び映像処理プログラム
JP5521778B2 (ja) * 2010-05-26 2014-06-18 富士通株式会社 計測装置及び制御装置
JP5864880B2 (ja) * 2011-04-07 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2017203701A1 (ja) * 2016-05-27 2017-11-30 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066127A (ja) * 2013-09-27 2015-04-13 富士フイルム株式会社 内視鏡システム及びプロセッサ装置並びに作動方法並びに距離測定装置
JP2016019665A (ja) * 2014-07-15 2016-02-04 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016054794A (ja) * 2014-09-05 2016-04-21 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP2016116741A (ja) * 2014-12-22 2016-06-30 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
JP2016137008A (ja) * 2015-01-26 2016-08-04 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
WO2016151711A1 (ja) * 2015-03-20 2016-09-29 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2017057392A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3520676A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116147A (ja) * 2019-01-24 2020-08-06 富士フイルム株式会社 内視鏡システム
JP7195948B2 (ja) 2019-01-24 2022-12-26 富士フイルム株式会社 内視鏡システム

Also Published As

Publication number Publication date
EP3520676A4 (en) 2019-12-18
JP2018051128A (ja) 2018-04-05
JP6538634B2 (ja) 2019-07-03
US20190183315A1 (en) 2019-06-20
EP3520676A1 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
WO2018061434A1 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
US10959606B2 (en) Endoscope system and generating emphasized image based on color information
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP6039606B2 (ja) 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
US11064864B2 (en) Processor device, endoscope system, and method of operating processor device
US20180206738A1 (en) Endoscope system and method of operating endoscope system
US10702136B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP2016137008A (ja) 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP6924837B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
US10986980B2 (en) Image processing device, method for operating same, endoscope processor device, and method for operating same
JP6796725B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
US20190246874A1 (en) Processor device, endoscope system, and method of operating processor device
JPWO2020039932A1 (ja) 内視鏡システム
JPWO2019208235A1 (ja) 医療画像処理システム
JP6850358B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
JP6039605B2 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855392

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017855392

Country of ref document: EP

Effective date: 20190430