WO2016121811A1 - 画像処理装置及び画像処理方法、並びに内視鏡システム - Google Patents

画像処理装置及び画像処理方法、並びに内視鏡システム Download PDF

Info

Publication number
WO2016121811A1
WO2016121811A1 PCT/JP2016/052323 JP2016052323W WO2016121811A1 WO 2016121811 A1 WO2016121811 A1 WO 2016121811A1 JP 2016052323 W JP2016052323 W JP 2016052323W WO 2016121811 A1 WO2016121811 A1 WO 2016121811A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
image
blood
unit
image processing
Prior art date
Application number
PCT/JP2016/052323
Other languages
English (en)
French (fr)
Inventor
加來 俊彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015166101A external-priority patent/JP6336949B2/ja
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP16743414.1A priority Critical patent/EP3251582A4/en
Publication of WO2016121811A1 publication Critical patent/WO2016121811A1/ja
Priority to US15/605,913 priority patent/US10674892B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an endoscope system that calculate data such as numerical values used for diagnosis using an endoscopic image using an endoscopic image photographed by an endoscope.
  • diagnosis using an endoscope system including a light source device, an endoscope, and a processor device is widely performed.
  • diagnosis using an endoscope system an insertion portion of an endoscope is inserted into a subject, illumination light is irradiated from the distal end portion thereof, and an observation target (such as a mucous membrane in the subject) irradiated with illumination light.
  • an imaging sensor mounted on the distal end portion of the endoscope is imaged by an imaging sensor mounted on the distal end portion of the endoscope. Then, an image to be observed is generated using an image signal obtained by imaging and displayed on a monitor.
  • an image that allows observation of an observation target with natural colors by irradiating white illumination light (also referred to as normal light) and imaging the observation target is generally used (hereinafter referred to as a normal observation image). Is displayed. Furthermore, endoscope systems that obtain an image (hereinafter referred to as a special observation image) that emphasizes a blood vessel, a pit pattern, or the like to be observed by using light having a specific wavelength band as illumination light have become widespread. Since information on blood vessels, pit patterns, and the like is an important diagnostic material, special observation images that emphasize these are particularly useful for diagnosis.
  • an endoscopic image (a normal observation image or a special observation image, or an image signal for generating these images) taken with an endoscope is used to represent the depth, thickness, density, and blood vessel of the blood vessel.
  • An endoscope system and a diagnosis support apparatus that assist a doctor's diagnosis by calculating a diagnosis index obtained from the color balance of a pixel are also known (Japanese Patent Nos. 4493637 and 5395725).
  • Blood vessel information Information regarding blood vessels (hereinafter referred to as blood vessel information) that can be calculated using an endoscopic image as in Japanese Patent Nos. 4493937 and 5395725 is information useful for diagnosis as described above.
  • the doctor does not make a diagnosis based on one blood vessel information among blood vessel information such as a diagnostic index obtained from the depth, thickness, density, and color balance of a pixel representing the blood vessel.
  • a diagnosis is performed by taking into account a plurality of blood vessel information in a complex manner, including blood vessel information that is not digitized by a conventional endoscope system or the like.
  • the thickness of the blood vessel and the density of the blood vessel are each useful blood vessel information for diagnosis, but the observation is made only because the blood vessel thickness is a specific thickness or because the blood vessel density is a specific density. It does not distinguish the state of the target, but because the thickness of the blood vessel is not less than a specific thickness and the density of the blood vessel is not less than a specific value, the state of the observation target is a specific lesion. Diagnosis from a multifaceted and complex viewpoint by taking the information into consideration.
  • the present invention relates to an image processing apparatus that uses a plurality of blood vessel information and calculates a diagnosis support parameter (hereinafter referred to as a blood vessel parameter) based on the state of a blood vessel to be observed in accordance with the actual state of diagnosis using an endoscopic image, and
  • a diagnosis support parameter hereinafter referred to as a blood vessel parameter
  • the image processing apparatus of the present invention includes an image acquisition unit, a blood vessel extraction unit, a blood vessel information calculation unit, and a blood vessel parameter calculation unit.
  • the image acquisition unit acquires an endoscopic image photographed by the endoscope.
  • the blood vessel extraction unit extracts a blood vessel from an observation object shown in the endoscopic image using the endoscopic image.
  • the blood vessel information calculation unit is based on the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the thickness, the change in thickness, the complexity of the change in thickness, the length, the interval, and the mucous membrane.
  • the blood vessel parameter calculation unit calculates a blood vessel parameter by performing calculation using a plurality of pieces of blood vessel information.
  • the blood vessel information is preferably a statistic in the whole or a part of the endoscopic image.
  • the blood vessel information is preferably a maximum value, a minimum value, an average value, or a median value in all or a part of the endoscopic image.
  • the blood vessel parameter calculation unit calculates a blood vessel parameter by performing calculation by weighting a plurality of blood vessel information.
  • the blood vessel parameter calculation unit performs weighting using a coefficient determined in advance by machine learning.
  • the determination unit determines the state of the mucosa to be observed as one of three or more states including normal, adenoma, and cancer using the blood vessel parameter.
  • the determination unit may determine, using the blood vessel parameter, the state of the mucosa to be observed as one of a state including normal, hyperplastic polyp, SSA / P, adenoma, laterally developed tumor, and cancer. preferable.
  • the determination unit further determines the cancer stage using the blood vessel parameter when the state of the mucosa to be observed is cancer.
  • the endoscope system of the present invention includes an endoscope that captures an observation target and a processor device.
  • the processor device includes an image acquisition unit, a blood vessel extraction unit, a blood vessel information calculation unit, and a blood vessel parameter calculation unit.
  • the image acquisition unit acquires an endoscopic image photographed by the endoscope.
  • the blood vessel extraction unit uses the endoscopic image to extract a blood vessel to be observed that appears in the endoscopic image.
  • the blood vessel information calculation unit is based on the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the thickness, the change in thickness, the complexity of the change in thickness, the length, the interval, and the mucous membrane.
  • the blood vessel parameter calculation unit calculates a blood vessel parameter by performing calculation using a plurality of pieces of blood vessel information.
  • an image acquisition unit acquires an endoscopic image captured by an endoscope
  • a blood vessel extraction unit uses an endoscopic image to observe an endoscopic image.
  • Blood vessel extraction step from the blood vessel information calculation unit, the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the thickness, the change in thickness, the complexity of the thickness change, the length , Distance, depth relative to mucous membrane, elevation difference, slope, area, density, contrast, color, color change, degree of meandering, blood concentration, oxygen saturation, arterial ratio, vein ratio, administered pigment
  • Calculating a plurality of blood vessel information including at least two or more of the concentration, the running pattern, and the blood flow, and calculating a blood vessel parameter by calculating a blood vessel parameter using the plurality of blood vessel information.
  • the image processing apparatus, the image processing method, and the endoscope system according to the present invention calculate a plurality of blood vessel information using an endoscopic image, and calculate the plurality of calculated blood vessels according to the actual condition of diagnosis using the endoscopic image. Since the blood vessel parameter is calculated using the blood vessel information, it is possible to support a doctor's diagnosis more directly than before.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion 12d provided at the distal end side of the insertion portion 12a. have.
  • the angle knob 12e of the operation unit 12b By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. By this bending operation, the distal end portion 12d is directed in a desired direction.
  • the operation unit 12b is provided with a still image acquisition instruction unit 13a and a zoom operation unit 13b.
  • the still image acquisition instruction unit 13 a is used to input a still image acquisition instruction to the endoscope system 10.
  • the still image acquisition instruction includes a freeze instruction for displaying the still image to be observed on the monitor 18 and a release instruction for storing the still image in the storage.
  • the zoom operation unit 13b is used to input an imaging magnification change instruction for changing the imaging magnification.
  • the processor device 16 is electrically connected to the monitor 18 and the console 19.
  • the monitor 18 outputs and displays an image to be observed, information attached to the image, and the like.
  • the console 19 functions as a user interface that receives input operations such as function settings.
  • the light source device 14 includes a light source 20 that emits illumination light that irradiates an observation target, and a light source control unit 22 that controls the light source 20.
  • the light source 20 includes, for example, a semiconductor light source such as a multi-color LED (Light Emitting Diode), a combination of a laser diode and a phosphor, or a halogen light source such as a xenon lamp.
  • the light source 20 includes an optical filter for adjusting the wavelength band of light emitted from the LED or the like.
  • the light source control unit 22 controls the amount of illumination light by turning on / off the LED and adjusting the drive current and drive voltage of the LED.
  • the light source control unit 22 controls the wavelength band of the illumination light by changing the optical filter or the like.
  • the endoscope system 10 has two types of observation modes: a normal observation mode for observing an observation target with a normal observation image, and a special observation mode for observing the observation target with a special observation image.
  • the observation mode is the normal observation mode
  • the light source control unit 22 causes the light source 20 to generate substantially white illumination light.
  • the observation mode is the special observation mode
  • the light source controller 22 causes the light source 20 to generate illumination light having a specific narrow wavelength band (hereinafter referred to as narrow band light).
  • the observation mode is switched by a mode switch (not shown) provided on the operation unit 12b.
  • the illumination light emitted from the light source 20 is incident on the light guide 41 inserted into the insertion portion 12a.
  • the light guide 41 is incorporated in the endoscope 12 and the universal cord, and propagates the illumination light to the distal end portion 12d of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used as the light guide 41.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer serving as an outer shell can be used.
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 45, and the illumination light propagated by the light guide 41 is irradiated to the observation target through the illumination lens 45.
  • the imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an imaging sensor 48.
  • Various types of light such as reflected light, scattered light, and fluorescence from the observation target enter the image sensor 48 via the objective lens 46 and the zoom lens 47.
  • an image to be observed is formed on the image sensor 48.
  • the zoom lens 47 freely moves between the tele end and the wide end by operating the zoom operation unit 13b, and enlarges or reduces the observation target imaged on the image sensor 48.
  • the imaging sensor 48 is a color imaging sensor in which any one of R (red), G (green), and B (blue) color filters is provided for each pixel. Is output.
  • a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.
  • CMOS Complementary Metal-Oxide Semiconductor
  • a complementary color image sensor having complementary color filters of C (cyan), M (magenta), Y (yellow) and G (green) may be used.
  • the complementary color imaging sensor is used, four color image signals of CMYG are output.
  • the RGB image signal similar to that of the image sensor 48 can be obtained by converting the CMYG four-color image signal into the RGB three-color image signal by complementary color-primary color conversion.
  • a monochrome sensor without a color filter may be used instead of the imaging sensor 48.
  • the image signal output from the image sensor 48 is transmitted to the CDS / AGC circuit 51.
  • the CDS / AGC circuit 51 performs correlated double sampling (CDS: Correlated Double Sampling) and automatic gain control (AGC: Automatic Gain Control) on an image signal that is an analog signal.
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • the image signal that has passed through the CDS / AGC circuit 51 is converted into a digital image signal by an A / D (Analog-to-Digital) converter 52.
  • the digital image signal after A / D conversion is input to the processor device 16.
  • the processor device 16 includes an image signal acquisition unit 53, a DSP (Digital Signal Processor) 56, a noise removal unit 58, a memory 61, a signal processing unit 62, and a video signal generation unit 63.
  • DSP Digital Signal Processor
  • the image signal acquisition unit 53 acquires a digital image signal from the endoscope 12.
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the image signal acquired by the image signal acquisition unit 53.
  • defect correction process the signal of the defective pixel of the image sensor 48 is corrected.
  • offset process the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • the gain correction process the signal level is adjusted by multiplying the image signal after the offset process by a specific gain.
  • the image signal after gain correction processing is subjected to linear matrix processing to improve color reproducibility. After that, the brightness and saturation are adjusted by gamma conversion processing.
  • the image signal after the gamma conversion processing is subjected to demosaic processing (also referred to as isotropic processing or synchronization processing), and a signal of insufficient color at each pixel is generated by interpolation. By this demosaic processing, all the pixels have RGB signals.
  • the noise removing unit 58 performs noise removing processing on the image signal subjected to demosaic processing or the like by the DSP 56, for example, by a moving average method or a median filter method, and removes noise.
  • the image signal from which noise has been removed is stored in the memory 61.
  • the signal processing unit 62 acquires the image signal after noise removal from the memory 61. Then, the acquired image signal is subjected to signal processing such as color conversion processing, color enhancement processing, and structure enhancement processing as necessary to generate a color endoscope image in which the observation target is reflected.
  • the color conversion process is a process for performing color conversion on an image signal by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional LUT (look-up table) processing, and the like.
  • the color enhancement process is performed on the image signal that has been subjected to the color conversion process.
  • the structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a pit pattern, and is performed on the image signal after the color enhancement process.
  • the endoscope image generated by the signal processing unit 62 is a normal observation image when the observation mode is the normal observation mode, and is a special observation image when the observation mode is the special observation mode.
  • the contents of the process and the structure enhancement process differ depending on the observation mode.
  • the signal processing unit 62 In the normal observation mode, the signal processing unit 62 generates the normal observation image by performing the above-described various signal processes in which the observation target has a natural color.
  • the signal processing unit 62 In the case of the special observation mode, the signal processing unit 62 generates the special observation image by performing the above-described various signal processings that emphasize at least the blood vessel to be observed.
  • blood vessels at a relatively shallow position in the observation target with respect to the surface of the mucous membrane have a magenta color (for example, brown color).
  • a blood vessel at a relatively deep position in the observation target with respect to the surface has a cyan color (for example, green). For this reason, the blood vessel to be observed is emphasized by the color difference with respect to the mucous membrane expressed in pink.
  • the endoscopic image generated by the signal processing unit 62 is input to the video signal generation unit 63.
  • the video signal generation unit 63 converts the inputted endoscopic image into a video signal for output display on the monitor 18.
  • the signal processing unit 62 stores the generated endoscopic image in the storage 64.
  • the storage 64 is an external storage device connected to the processor device 16 such as a LAN (Local Area Network), for example, a file server of a system for filing endoscopic images such as PACS (Picture Archiving and Communication System), NAS ( Network (Attached Storage).
  • the endoscopic image stored in the storage 64 is used by the image processing device 65.
  • the image processing device 65 is a device that performs image processing on an endoscopic image and calculates blood vessel parameters for diagnosis support. As shown in FIG. 3, the image processing device 65 includes an image acquisition unit 81, a blood vessel extraction unit 82, a blood vessel information calculation unit 83, and a blood vessel parameter calculation unit 84. Further, the image processing apparatus 65 includes an input device 87 including a pointing device and a keyboard used for designating a region of interest (ROI: Region Of Interest), a monitor 88 for displaying an endoscopic image, blood vessel parameters, and the like. Is connected.
  • ROI Region Of Interest
  • the image acquisition unit 81 acquires an endoscopic image captured by the endoscope 12 from the storage 64.
  • Endoscopic images stored in the storage 64 include a normal observation image and a special observation image.
  • the image acquisition unit 81 acquires a special observation image in which blood vessels are emphasized from the storage 64. .
  • the blood vessel extraction unit 82 uses the endoscopic image acquired by the image acquisition unit 81 to extract a blood vessel from the observation target that appears in the endoscopic image.
  • the blood vessel extraction unit 82 extracts blood vessels from the endoscopic image using, for example, a frequency filter.
  • the blood vessel extraction unit 82 extracts blood vessels from the entire endoscopic image acquired by the image acquisition unit 81.
  • blood vessels may be extracted only within the specified region of interest. good.
  • the blood vessel information calculation unit 83 is based on the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the thickness, the change in thickness, the complexity of the change in thickness, the length, the interval, and the mucous membrane. Depth, elevation difference, slope, area, density, contrast, color, color change, meandering degree, blood concentration, oxygen saturation, arterial percentage, vein percentage, administered dye concentration, running pattern, and blood A plurality of blood vessel information including at least two of the flow rates is calculated. In the present embodiment, the blood vessel information calculation unit 83 calculates all the above-described blood vessel information as much as possible.
  • the number of blood vessels is the number of blood vessels extracted in the entire endoscopic image or in the region of interest.
  • the number of blood vessels is calculated using, for example, the number of extracted blood vessel branch points (the number of branches), the number of intersections with other blood vessels (the number of intersections), and the like.
  • the branch angle of a blood vessel is an angle formed by two blood vessels at a branch point.
  • the distance between branch points is a linear distance between an arbitrary branch point and an adjacent branch point, or a length along a blood vessel from an arbitrary branch point to the adjacent branch point.
  • the number of intersections of blood vessels is the number of intersections where blood vessels with different submucosal depth intersect on the endoscopic image. More specifically, the number of intersecting blood vessels is the number of blood vessels at a relatively shallow position below the mucosa crossing a blood vessel at a deep position.
  • the thickness of the blood vessel is the distance between the boundary line of the blood vessel and the mucous membrane. For example, the number of pixels is counted along the short direction of the blood vessel from the extracted blood vessel edge through the blood vessel. To count. Therefore, the thickness of the blood vessel is the number of pixels, but if the shooting distance or zoom magnification when the endoscopic image is taken is known, it is converted to a unit of length such as “ ⁇ m” as necessary. Is possible.
  • the change in the thickness of the blood vessel is blood vessel information regarding the variation in the thickness of the blood vessel, and is also referred to as the unequal diameter.
  • the change in the thickness of the blood vessel is, for example, a change rate of the blood vessel diameter (also referred to as a degree of expansion).
  • the change rate of the blood vessel diameter is calculated by using the thickness of the thinnest part of the blood vessel (minimum diameter) and the thickness of the thickest part of the blood vessel (maximum diameter). It calculates
  • the temporal change in the same blood vessel thickness extracted from the endoscopic image obtained in the subsequent new examination can be used as the blood vessel thickness change. Good.
  • the ratio of the small diameter part or the ratio of the large diameter part may be calculated as the change in the thickness of the blood vessel.
  • the small diameter portion is a portion whose thickness is equal to or less than a threshold value
  • the large diameter portion is a portion whose thickness is thicker than the threshold value.
  • the complexity of the change in the thickness of the blood vessel (hereinafter referred to as “complexity of the change in thickness”) is blood vessel information indicating how complicated the change is when the thickness of the blood vessel is changed.
  • the blood vessel information is calculated by combining a plurality of blood vessel information (that is, a blood vessel diameter change rate, a small diameter portion ratio, or a large diameter portion ratio) representing a change in the thickness of the blood vessel.
  • the complexity of the thickness change can be obtained, for example, by the product of the change rate of the blood vessel diameter and the ratio of the small diameter portion.
  • the length of the blood vessel is the number of pixels counted along the longitudinal direction of the extracted blood vessel.
  • the blood vessel interval is the number of pixels representing the mucous membrane between the extracted blood vessel edges. When there is one extracted blood vessel, the blood vessel interval has no value.
  • the depth of blood vessels is measured with reference to the mucosa (more specifically, the surface of the mucosa).
  • the blood vessel depth based on the mucous membrane can be calculated based on the color of the blood vessel, for example.
  • blood vessels that are close to the surface of the mucosa are represented by magenta color
  • blood vessels that are far from the surface of the mucosa and are deep under the mucosa are represented by cyan color.
  • the information calculation unit 83 calculates the depth of the blood vessel with respect to the mucous membrane for each pixel based on the balance of the R, G, and B color signals of the pixel extracted as the blood vessel.
  • the difference in the height of the blood vessel is the size of the difference in the depth of the blood vessel.
  • the height difference of one blood vessel of interest is obtained by the difference between the depth (maximum depth) of the deepest portion of the blood vessel and the depth (minimum depth) of the shallowest portion. When the depth is constant, the height difference is zero.
  • the blood vessel may be divided into a plurality of sections, and the inclination of the blood vessels may be calculated in each section.
  • the area of the blood vessel is a value proportional to the number of pixels extracted as blood vessels or the number of pixels extracted as blood vessels.
  • the area of the blood vessel is calculated within the region of interest, outside the region of interest, or for the entire endoscopic image.
  • the density of blood vessels is the proportion of blood vessels in a unit area.
  • a region having a specific size for example, a region having a unit area
  • the ratio of blood vessels to all the pixels in the region is calculated.
  • the contrast of the blood vessel is a relative contrast with respect to the mucosa to be observed.
  • the blood vessel contrast is calculated by using, for example, “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the luminance Y V of the blood vessel and the luminance Y M of the mucous membrane. To do.
  • the blood vessel color is an RGB value of a pixel representing a blood vessel.
  • the change in the color of the blood vessel is the difference or ratio between the maximum value and the minimum value of each RGB value of the pixel representing the blood vessel.
  • the ratio between the maximum value and the minimum value of the B value of the pixel representing the blood vessel, the ratio between the maximum value and the minimum value of the G value, or the ratio between the maximum value and the minimum value of the R value represents a change in the color of the blood vessel.
  • the color of the blood vessel and the change in the color of the blood vessel may be calculated for each value such as cyan, magenta, yellow, and green by converting to a complementary color.
  • the meandering degree of blood vessels is blood vessel information representing the size of the range in which the blood vessels meander and run.
  • the meandering degree of the blood vessel is, for example, the minimum rectangular area (number of pixels) including the blood vessel for which the meandering degree is calculated.
  • the ratio of the length of the blood vessel to the linear distance between the start point and the end point of the blood vessel may be used as the degree of meandering of the blood vessel.
  • the blood concentration of blood vessels is blood vessel information proportional to the amount of hemoglobin contained in the blood vessels. Since the ratio (G / R) of the G value to the R value of the pixel representing the blood vessel is proportional to the amount of hemoglobin, the blood concentration can be calculated for each pixel by calculating the value of G / R.
  • Vessel oxygen saturation is the amount of oxygenated hemoglobin relative to the total amount of hemoglobin (total amount of oxygenated hemoglobin and reduced hemoglobin).
  • the oxygen saturation is calculated by using an endoscopic image obtained by photographing an observation target with light in a specific wavelength band (for example, blue light having a wavelength of about 470 ⁇ 10 nm) having a large difference in absorption coefficient between oxyhemoglobin and reduced hemoglobin. be able to.
  • a specific wavelength band for example, blue light having a wavelength of about 470 ⁇ 10 nm
  • the B value of the pixel representing the blood vessel has a correlation with the oxygen saturation. Therefore, by using a table or the like that associates the B value with the oxygen saturation, each pixel representing the blood vessel is used. The oxygen saturation can be calculated.
  • the arterial ratio is the ratio of the number of arterial pixels to the total number of blood vessels.
  • the vein ratio is the ratio of the number of vein pixels to the number of pixels of all blood vessels.
  • Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is used as an artery and a blood vessel having an oxygen saturation of less than 70% is used as a vein, the extracted blood vessel can be divided into an artery and a vein. Can be calculated.
  • the concentration of the administered pigment is the concentration of the pigment sprayed on the observation object or the pigment injected into the blood vessel by intravenous injection.
  • dye is calculated by the ratio of the pixel value of pigment color with respect to the pixel value of pixels other than pigment color, for example. For example, when a blue coloring pigment is administered, B / G, B / R, etc. represent the concentration of the pigment fixed (or temporarily attached) to the observation target.
  • the blood vessel running pattern is blood vessel information related to the blood vessel running direction.
  • the blood vessel traveling pattern is, for example, an average angle (traveling direction) of a blood vessel with respect to an arbitrarily set reference line, dispersion of angles formed by the blood vessel with respect to an arbitrarily set reference line (variation in traveling direction), or the like.
  • the blood flow volume of blood vessels (also called blood flow velocity) is the number of red blood cells that pass through per unit time.
  • the blood vessel information calculation unit 83 calculates blood vessel information within the designated region of interest.
  • the blood vessel information calculation unit 83 calculates blood vessel information for the entire endoscopic image.
  • Some of the blood vessel information such as the blood vessel thickness, length, height difference, inclination, depth based on the mucous membrane, and interval differ depending on the position in the endoscopic image.
  • the blood vessel information calculation unit 83 uses the statistic such as the maximum value, the minimum value, the average value, or the median value as the value of the blood vessel information. And for example, if a statistic of a predetermined range (for example, a range of 99 ⁇ 99 pixels centered on an arbitrary pixel) is set to the value of blood vessel information at an arbitrary pixel, blood vessel information that is difficult to calculate for each pixel is also determined for each pixel. Can be sought.
  • a statistic of a predetermined range for example, a range of 99 ⁇ 99 pixels centered on an arbitrary pixel
  • the blood vessel parameter calculation unit 84 calculates a blood vessel parameter by performing an operation using the plurality of blood vessel information calculated by the blood vessel information calculation unit 83.
  • the blood vessel parameter calculation unit 84 calculates a blood vessel parameter by multiplying each of the plurality of blood vessel information calculated by the blood vessel information calculation unit 83 by a weighting coefficient and taking the sum.
  • the weighting coefficient of each blood vessel information is stored in the weighting coefficient table 91.
  • the weighting coefficient stored in the weighting coefficient table 91 is determined in advance by machine learning, for example.
  • the weighted sum of a plurality of blood vessel information is calculated as a blood vessel parameter as described above, but the blood vessel parameter calculation method is arbitrary.
  • the blood vessel parameter may be calculated not only by calculating the sum but also by performing a calculation in which addition, subtraction, multiplication and division are mixed, or the blood vessel parameter may be calculated using another function.
  • the blood vessel parameter Since the blood vessel parameter is calculated by adding blood vessel information having different dimensions (units), the blood vessel parameter has no physical meaning but functions as a diagnostic index. That is, the blood vessel parameter is a value having no physical meaning, which is different from the blood vessel information.
  • the image processing apparatus 65 acquires an endoscopic image from the storage 64 by the image acquisition unit 81 in accordance with an input operation of the input device 87 (S11), and displays the acquired endoscopic image on the monitor 88 (S12). .
  • the image acquisition unit 81 acquires a special observation image 101 in which blood vessels are emphasized by color from the storage 64, and therefore displays the special observation image 101 on the monitor 88 as shown in FIG.
  • the special observation image 101 is an endoscopic image in which blood vessels are emphasized by color.
  • the shape 102 of the mucosal surface to be observed can be observed, and the thin superficial blood vessels 103 that are relatively close to the mucosal surface are magenta.
  • the thick medium-thick blood vessel 104 which is represented by a system color and is relatively deep under the mucous membrane, is emphasized by being represented by a cyan color.
  • the region of interest 111 is designated as necessary (S13).
  • the region of interest 111 is designated as necessary (S13).
  • the region of interest 111 is designated as necessary (S13).
  • the blood vessel extraction unit 82 extracts a blood vessel to be observed from the special observation image 101 acquired by the image acquisition unit 81 (S14).
  • the blood vessel extraction unit 82 extracts the surface blood vessel 103 and the mid-deep blood vessel 104.
  • the blood vessel information calculating unit 83 calculates a plurality of pieces of blood vessel information using the blood vessels extracted by the blood vessel extracting unit 82 (S15). As described above, since the superficial blood vessel 103 and the intermediate deep blood vessel 104 are extracted from the special observation image 101, the blood vessel information calculation unit 83 determines the number of the superficial blood vessels 103 and the intermediate deep blood vessels 104 in the designated region of interest 111. , Thickness, length, height difference, slope, area, density, depth based on mucous membrane, and interval are calculated.
  • the blood vessel parameter calculation unit 84 calculates the blood vessel parameter by performing an operation using each of the blood vessel information calculated by the blood vessel information calculation unit 83 and the weighting coefficient stored in the weighting coefficient table 91 (S16).
  • the calculated blood vessel parameter is transmitted to the monitor 88, and is displayed on the blood vessel parameter display unit 114 set on the monitor 88 together with the special observation image 101 as shown in FIG.
  • the image processing apparatus 65 selects an endoscopic image (special observation image 101) from the storage 64, displays it on the monitor 88, and designates the region of interest 111, the surface blood vessel in the designated region of interest 111 is displayed.
  • the blood vessel parameters regarding the 103 and the middle deep blood vessel 104 are displayed together with the special observation image 101.
  • the blood vessel parameter is a numerical value calculated using a plurality of blood vessel information, imitating a diagnosis from a multifaceted and complex viewpoint of a doctor.
  • the state of the observation object can be accurately determined. That is, the image processing device 65 can support diagnosis by calculating blood vessel parameters calculated by calculation using a plurality of blood vessel information. For example, when compared with a case where a plurality of blood vessel information used for calculation of blood vessel parameters is presented to a doctor, the image processing device 65 presents more direct information with respect to the diagnosis contents called blood vessel parameters. Diagnosis can be supported.
  • the blood vessel parameter is displayed on the monitor 88.
  • the image processing apparatus 65 is provided with a determination unit 130 that determines the state of the mucous membrane to be observed using the blood vessel parameter.
  • the determination result by the determination unit 130 is preferably displayed on the monitor 88 instead of the blood vessel parameter.
  • the determination unit 130 acquires the blood vessel parameter from the blood vessel parameter calculation unit 84, and performs further calculation based on the value of the blood vessel parameter or using the blood vessel parameter to determine the state of the mucosa to be observed. For example, when the weighting coefficient used for calculating the blood vessel parameter is adjusted to a coefficient for determining the state of the mucous membrane into three types of states of normal, adenoma, and cancer, the determination unit 130 determines the blood vessel parameter first threshold value. In the following cases, it is determined that the mucosa to be observed is normal, and it is determined that there is a suspicion of adenoma when the blood vessel parameter is greater than the first threshold value and less than or equal to the second threshold value. When the blood vessel parameter is larger than the second threshold, it is determined that there is a possibility of progressing to cancer. The determination unit 130 displays the determination result on the determination result display unit 131 set on the monitor 88 together with the special observation image 101 as shown in FIG. Let
  • the determination unit 130 is provided in the image processing device 65, the state of the mucous membrane to be observed is determined using the blood vessel parameter, and the result is displayed, it is more directly than the case where the blood vessel parameter is displayed. Diagnosis can be supported.
  • the determination unit 130 preferably determines the state of the mucous membrane into three or more types of states including normal, adenoma, and cancer as in the above-described modification.
  • normal, hyperplastic polyp HP: Hyperplastic Polyp
  • SSA / P Sessile Serrated Adenoma / Polyp
  • TSA adenoma
  • LST Laterally Spreading Tumor
  • hyperplastic polyps were considered to have a low risk of canceration and need not be treated.
  • examples of cancerous SSA / P similar to hyperplastic polyps have been discovered.
  • the determination unit 130 can distinguish the hyperplastic polyp from the SSA / P.
  • the determination is made by combining the blood vessel parameter and the blood vessel information (the thickness and length of the blood vessel), the probability is higher.
  • SSA / P can be identified from hyperplastic polyps.
  • the determination unit 130 further determines the stage of cancer using the blood vessel parameter.
  • the determination result display unit 131 preferably displays the cancer stage determined by the determination unit 130. Thus, if the stage of the mucosa to be observed is determined to be cancer, the stage is further determined, and the result is displayed on the monitor 88, so that the diagnosis can be further supported.
  • the endoscope system 10 stores an endoscopic image in the storage 64, and the image processing device 65 later acquires the endoscopic image from the storage 64 and calculates blood vessel parameters.
  • the blood vessel parameters may be calculated almost in real time.
  • the processor device 16 is provided with an image acquisition unit 81, a blood vessel extraction unit 82, a blood vessel information calculation unit 83, and a blood vessel parameter calculation unit 84.
  • the configurations of the endoscope 12 and the light source device 14 are the same as those of the endoscope system 10 of the first embodiment.
  • the image acquisition unit 81 directly acquires an endoscopic image generated by the signal processing unit 62 from the signal processing unit 62 without using the storage 64.
  • the blood vessel extraction unit 82 extracts blood vessels from the endoscopic image acquired by the image acquisition unit 81, calculates a plurality of blood vessel information related to the blood vessels extracted by the blood vessel information calculation unit 83, and the blood vessel parameter calculation unit 84 calculates them.
  • the calculation using the plurality of blood vessel information and the weighting coefficient stored in the weighting coefficient table 91 to calculate the blood vessel parameter is the same as that of the image processing apparatus 65.
  • the blood vessel parameter calculation unit 84 transmits the calculated blood vessel parameter to the video signal generation unit 63 so that the blood vessel parameter is displayed on the monitor 18 together with the endoscopic image that the signal processing unit 62 can control.
  • the processor device 16 can operate the image processing device. It functions as 65. For this reason, the endoscope system 210 calculates and displays the blood vessel parameters while observing the observation target, so that diagnosis can be supported in real time.
  • the endoscope system 210 calculates and displays the blood vessel parameter at least when the signal processing unit 62 receives a still image acquisition instruction from the still image acquisition instruction unit 13a.
  • blood vessel parameters may be calculated and displayed when a moving image of an endoscopic image is displayed on the monitor 18 regardless of whether or not a still image acquisition instruction is input.
  • blood vessel parameters may be calculated and displayed for the endoscopic image of all frames of the moving image. Blood vessel parameters can be calculated and displayed in real time.
  • the blood vessel parameters are displayed on the monitor 88 of the image processing apparatus 65, but it is preferable to display blood vessel information and weighting coefficients used when calculating the blood vessel parameters.
  • the information display unit 250 is displayed in addition to the blood vessel parameter display unit 114.
  • the information display unit 250 displays the blood vessel information calculated by the blood vessel information calculation unit 84 and the weighting coefficient read from the weighting coefficient table 91 in association with each other. The same applies to the endoscope system 210.
  • the blood vessel parameter, blood vessel information used for calculating the blood vessel parameter, and a weighting coefficient are displayed on the monitor 18. In FIG.
  • both the blood vessel information and the weighting coefficient are displayed, but only the blood vessel information or only the weighting coefficient may be displayed in addition to the blood vessel parameter and the determination result. In this way, displaying the blood vessel information and the weighting coefficient used for calculating the blood vessel parameter makes it easier for the doctor to understand the meaning of the blood vessel parameter and the basis for the determination.
  • a “confirmation mode” for additionally displaying blood vessel information and weighting coefficients is provided, and the input device 87 or the like (in the case of the endoscope system 210, the operation unit 12b, the console 19, a foot pedal (not shown) or the like) is used.
  • the confirmation mode is set, the blood vessel information and the weighting coefficient may be displayed in addition to the blood vessel parameter and the determination result.
  • the weighting coefficient when the weighting coefficient is displayed in addition to the blood vessel parameter and the determination result, it is preferable that the weighting coefficient can be changed using the input device 87, the console 19, or the like.
  • the blood vessel parameter calculation unit 84 recalculates the blood vessel parameter using the changed weighting coefficient, and the determination unit 130 uses the blood vessel parameter calculated using the changed weighting coefficient. And make a decision again.
  • the weighting coefficient when the weighting coefficient is displayed and the weighting coefficient can be changed, it is possible to provide a method of adjusting the calculation method and determination method of the blood vessel parameter based on the experience of the doctor.
  • the present invention is implemented by the endoscope system 10 that performs observation by inserting the endoscope 12 provided with the imaging sensor 48 into the subject.
  • the present invention is also applied to a capsule endoscope system.
  • the capsule endoscope system includes at least a capsule endoscope 300 and a processor device (not shown).
  • the capsule endoscope 300 includes a light source 302, a light source control unit 303, an image sensor 304, an image signal acquisition processing unit 306, and a transmission / reception antenna 308.
  • the light source 302 is configured similarly to the light source 20 of the endoscope system 10, and emits illumination light under the control of the light source control unit 303.
  • the image signal acquisition processing unit 306 functions as the image signal acquisition unit 53, the DSP 56, the noise removal unit 58, and the signal processing unit 62.
  • the processor device of the capsule endoscope system is configured similarly to the processor device 16 of the endoscope system 210 and also functions as the image processing device 65.
  • the endoscopic image generated by the image signal acquisition processing unit 306 is transmitted to the processor device via the transmission / reception antenna 308.
  • the image signal acquisition processing unit 306 further functions as an image acquisition unit 81, a blood vessel extraction unit 82, a blood vessel information calculation unit 83, and a blood vessel parameter calculation unit 84. You can do it.

Abstract

 観察対象の血管の状態に基づいた診断支援パラメータを算出する画像処理装置及び画像処理方法、並びに内視鏡システムを提供する。 画像処理装置(65)は、内視鏡画像を取得する画像取得部(81)と、内視鏡画像を用いて血管を抽出する血管抽出部(82)と、血管情報算出部(83)と、血管パラメータ算出部(84)と、を備える。血管情報算出部(83)は、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出する。血管パラメータ算出部(84)は、複数の血管情報を用いて演算をすることにより血管パラメータを算出する。

Description

画像処理装置及び画像処理方法、並びに内視鏡システム
 本発明は、内視鏡で撮影した内視鏡画像を用いて、内視鏡画像を用いた診断に供する数値等のデータを算出する画像処理装置及び画像処理方法、並びに内視鏡システムに関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムを用いた診断では、内視鏡の挿入部を被検体内に挿入し、その先端部から照明光を照射し、照明光が照射された観察対象(被検体内の粘膜等)を、内視鏡の先端部に搭載した撮像センサで撮像する。そして、撮像によって得られた画像信号を用いて観察対象の画像を生成し、モニタに表示する。
 内視鏡システムでは、通常は、白色の照明光(通常光とも言う)を照射して観察対象を撮像することにより、観察対象を自然な色合いで観察可能な画像(以下、通常観察画像という)を表示する。さらに、特定の波長帯域を有する光を照明光として用いることで、観察対象の血管やピットパターン等を強調した画像(以下、特殊観察画像という)を得る内視鏡システムも普及している。血管やピットパターン等に関する情報は重要な診断材料であるため、これらを強調した特殊観察画像は、診断に特に有用である。
 また、近年では、内視鏡で撮影した内視鏡画像(通常観察画像または特殊観察画像、あるいはこれらを生成するための画像信号)を用いて、血管の深さや太さ、密度、血管を表す画素の色バランスから求められる診断指標等を算出することで、医師の診断をアシストする内視鏡システムや診断支援装置も知られている(特許第4493637号及び特許第5395725号)。
 特許第4493637号及び特許第5395725号のように内視鏡画像を用いて算出することができる血管に関する情報(以下、血管情報という)は、上記のように診断に有用な情報である。しかし、医師は、血管の深さや太さ、密度、血管を表す画素の色バランスから求められる診断指標等の血管情報のうち、一つの血管情報に基づいて診断するわけではなく、上記の血管情報の他、従来の内視鏡システム等によって数値化しないような血管情報を含め、複数の血管情報を複合的に考慮して診断する。例えば、血管の太さと血管の密度はそれぞれ診断に有用な血管情報であるが、血管の太さが特定の太さであるから、あるいは血管の密度が特定の密度であるからというだけで、観察対象の状態を鑑別するわけではなく、血管の太さが特定の太さ以上で、かつ、血管の密度が特定値以上であるから観察対象の状態が特定病変である、というように複数の血管情報を勘案することで、多面的で複合的な視点で診断をする。
 上記のような多面的で複合的な診断の実態にあわせて、近年では、内視鏡システムや内視鏡画像を解析するための画像処理装置が、特許第4493637号及び特許第5395725号において算出する血管情報よりもさらに直接的で有用な情報等を算出して、医師の診断を支援することが求められている。
 本発明は、複数の血管情報を用い、内視鏡画像を用いた診断の実態にあわせ、観察対象の血管の状態に基づいた診断支援パラメータ(以下、血管パラメータという)を算出する画像処理装置及び画像処理方法、並びに内視鏡システムを提供することを目的とする。
 本発明の画像処理装置は、画像取得部と、血管抽出部と、血管情報算出部と、血管パラメータ算出部と、を備える。画像取得部は、内視鏡で撮影した内視鏡画像を取得する。血管抽出部は、内視鏡画像を用いて、内視鏡画像に写る観察対象から血管を抽出する。血管情報算出部は、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出する。血管パラメータ算出部は、複数の血管情報を用いて演算をすることにより血管パラメータを算出する。
 血管情報は、内視鏡画像の全部または一部の領域における統計量であることが好ましい。
 血管情報は、内視鏡画像の全部または一部の領域における最大値、最小値、平均値、または中央値であることが好ましい。
 血管パラメータ算出部は、複数の血管情報に重み付けをして演算をし、血管パラメータを算出することが好ましい。
 血管パラメータ算出部は、重み付けを、機械学習により予め定められた係数を用いて行うことが好ましい。
 血管パラメータを用いて、観察対象の粘膜の状態を判定する判定部を備えることが好ましい。
 判定部は、血管パラメータを用いて、観察対象の粘膜の状態を、正常、腺腫、及びがんを含む3種類以上の状態のいずれかに判定することが好ましい。
 判定部は、血管パラメータを用いて、観察対象の粘膜の状態を、正常、過形成ポリープ、SSA/P、腺腫、側方発達型腫瘍、及びがんを含む状態のいずれかに判定することが好ましい。
 判定部は、観察対象の粘膜の状態ががんの場合に、血管パラメータを用いて、さらに、がんのステージを判定することが好ましい。
 本発明の内視鏡システムは、観察対象を撮影する内視鏡と、プロセッサ装置とを備える。プロセッサ装置は、画像取得部と、血管抽出部と、血管情報算出部と、血管パラメータ算出部と、を有する。画像取得部は、内視鏡で撮影した内視鏡画像を取得する。血管抽出部は、内視鏡画像を用いて、内視鏡画像に写る観察対象の血管を抽出する。血管情報算出部は、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出する。血管パラメータ算出部は、複数の血管情報を用いて演算をすることにより血管パラメータを算出する。
 本発明の画像処理方法は、画像取得部が、内視鏡で撮影した内視鏡画像を取得するステップと、血管抽出部が、内視鏡画像を用いて、内視鏡画像に写る観察対象から血管を抽出するステップと、血管情報算出部が、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出するステップと、血管パラメータ算出部が、複数の血管情報を用いて演算をすることにより血管パラメータを算出するステップと、を備える。
 本発明の画像処理装置及び画像処理方法、並びに内視鏡システムは、内視鏡画像を用いて複数の血管情報を算出し、内視鏡画像を用いた診断の実態にあわせ、算出した複数の血管情報を用いて血管パラメータを算出するので、従来よりもさらに直接的に医師の診断を支援することができる。
内視鏡システムの外観図である。 内視鏡システムの機能を示すブロック図である。 画像処理装置の機能を示すブロック図である。 画像処理装置の動作を示すフローチャートである。 特殊観察画像の説明図である。 特殊観察画像から抽出する血管を示す説明図である。 血管パラメータを表示するモニタを示す説明図である。 判定部を有する画像処理装置のブロック図である。 粘膜の状態の判定結果を表示するモニタを示す説明図である。 プロセッサ装置で血管パラメータを算出する内視鏡システムのブロック図である。 血管情報及び重み付け係数を表示するモニタを示す説明図である。 カプセル内視鏡の概略図である。
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。内視鏡12は光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続する。内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって、先端部12dが所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、静止画像取得指示部13a、ズーム操作部13bが設けられている。静止画像取得指示部13aは、内視鏡システム10に静止画像の取得指示を入力するために用いられる。静止画像の取得指示には、モニタ18に観察対象の静止画像を表示させるためのフリーズ指示と、静止画像をストレージに保存させるためのレリーズ指示がある。ズーム操作部13bは、撮像倍率を変更するための撮像倍率変更指示を入力するために用いられる。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続する。モニタ18は、観察対象の画像や、画像に付帯する情報等を出力表示する。コンソール19は、機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。
 図2に示すように、光源装置14は、観察対象に照射する照明光を発する光源20と、光源20を制御する光源制御部22とを備えている。光源20は、例えば、複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、またはキセノンランプ等のハロゲン光源で構成される。また、光源20には、LED等が発光した光の波長帯域を調整するための光学フィルタ等が含まれる。光源制御部22は、LED等のオン/オフや、LED等の駆動電流や駆動電圧の調整によって、照明光の光量を制御する。また、光源制御部22は、光学フィルタの変更等によって、照明光の波長帯域を制御する。
 内視鏡システム10は、観察対象を通常観察画像で観察するための通常観察モードと、観察対象を特殊観察画像で観察するための特殊観察モードの2種類の観察モードを有する。観察モードが通常観察モードの場合、光源制御部22は、光源20によってほぼ白色の照明光を発生させる。観察モードが特殊観察モードの場合、光源制御部22は、光源20によって、特定の狭い波長帯域を有する照明光(以下、狭帯域光という)を発生させる。観察モードは、操作部12bに設けられたモード切り替えスイッチ(図示しない)によって切り替えられる。
 光源20が発した照明光は、挿入部12a内に挿通したライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコードに内蔵しており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有しており、ライトガイド41によって伝搬した照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47、撮像センサ48を有している。観察対象からの反射光、散乱光、及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像する。ズームレンズ47は、ズーム操作部13bを操作することでテレ端とワイド端の間で自在に移動し、撮像センサ48に結像する観察対象を拡大または縮小する。
 撮像センサ48は、画素毎にR(赤色)、G(緑色)、またはB(青色)のカラーフィルタのいずれかが設けられたカラー撮像センサであり、観察対象を撮像してRGB各色の画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサを利用可能である。また、原色のカラーフィルタが設けられた撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの四色の画像信号が出力される。このため、補色-原色色変換によって、CMYGの四色の画像信号をRGBの三色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
 撮像センサ48が出力する画像信号は、CDS/AGC回路51に送信される。CDS/AGC回路51は、アナログ信号である画像信号に相関二重サンプリング(CDS:Correlated Double Sampling)や自動利得制御(AGC:Automatic Gain Control)を行う。CDS/AGC回路51を経た画像信号は、A/D(Analog to Digital)コンバータ52により、デジタル画像信号に変換される。A/D変換後のデジタル画像信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、画像信号取得部53と、DSP(Digital Signal Processor)56と、ノイズ除去部58と、メモリ61と、信号処理部62と、映像信号生成部63と、を備えている。
 画像信号取得部53は、内視鏡12からデジタル画像信号を取得する。DSP56は、画像信号取得部53が取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号を補正する。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除き、正確なゼロレベルを設定する。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルを整える。
 ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理を施す。その後、ガンマ変換処理によって明るさや彩度を整える。ガンマ変換処理後の画像信号には、デモザイク処理(等方化処理、または同時化処理とも言う)を施し、各画素で不足した色の信号を補間によって生成する。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。ノイズ除去部58は、DSP56でデモザイク処理等を施した画像信号に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ除去処理を施し、ノイズを除去する。ノイズを除去した画像信号は、メモリ61に記憶する。
 信号処理部62は、メモリ61からノイズ除去後の画像信号を取得する。そして、取得した画像信号に対して、必要に応じて、色変換処理、色彩強調処理、及び構造強調処理等の信号処理を施し、観察対象が写ったカラーの内視鏡画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(ルックアップテーブル)処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像信号に対して行う。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。信号処理部62が生成する内視鏡画像は、観察モードが通常観察モードの場合は通常観察画像であり、観察モードが特殊観察モードの場合は特殊観察画像であるため、色変換処理、色彩強調処理、及び構造強調処理の内容は、観察モードによって異なる。通常観察モードの場合、信号処理部62は、観察対象が自然な色合いになる上記各種信号処理を施して通常観察画像を生成する。特殊観察モードの場合、信号処理部62は、少なくとも観察対象の血管を強調する上記各種信号処理を施して特殊観察画像を生成する。信号処理部62が生成する特殊観察画像では、粘膜の表面を基準として観察対象内の比較的浅い位置にある血管(いわゆる表層血管)は、マゼンタ系の色(例えばブラウン色)になり、粘膜の表面を基準とし観察対象内の比較的深い位置にある血管(いわゆる中深層血管)は、シアン系の色(例えば緑色)になる。このため、ピンク系の色で表される粘膜に対して、観察対象の血管が色の違いで強調される。
 信号処理部62が生成した内視鏡画像は、映像信号生成部63に入力される。映像信号生成部63は、入力された内視鏡画像をモニタ18に出力表示するための映像信号に変換する。また、静止画像取得指示部13aの操作により、レリーズ指示を入力すると、信号処理部62は、生成した内視鏡画像をストレージ64に保存する。ストレージ64は、プロセッサ装置16にLAN(Local Area Network)等接続した外部記憶装置であり、例えば、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバや、NAS(Network Attached Storage)等である。ストレージ64に保存した内視鏡画像は、画像処理装置65で使用する。
 画像処理装置65は、内視鏡画像に画像処理を施し、診断支援のために、血管パラメータを算出する装置である。図3に示すように、画像処理装置65は、画像取得部81と、血管抽出部82と、血管情報算出部83と、血管パラメータ算出部84とを備える。また、画像処理装置65には、関心領域(ROI : Region Of Interest)の指定等に用いるポインティングデバイスやキーボードなどを含む入力デバイス87や、内視鏡画像や血管パラメータ等を表示するためのモニタ88が接続している。
 画像取得部81は、ストレージ64から内視鏡12で撮影した内視鏡画像を取得する。ストレージ64に保存されている内視鏡画像には、通常観察画像と特殊観察画像とがあるが、本実施形態では、画像取得部81は、血管を強調した特殊観察画像をストレージ64から取得する。
 血管抽出部82は、画像取得部81が取得した内視鏡画像を用いて、内視鏡画像に写る観察対象から、血管を抽出する。血管抽出部82は、例えば周波数フィルタ等によって内視鏡画像から血管を抽出する。本実施形態では、血管抽出部82は画像取得部81が取得した内視鏡画像の全体から血管を抽出するが、関心領域を指定した場合は指定した関心領域内でだけ血管を抽出しても良い。
 血管情報算出部83は、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち、少なくとも2以上を含む複数の血管情報を算出する。本実施形態では、血管情報算出部83は、可能な限り、上記の全ての血管情報を算出する。
 血管の本数とは、内視鏡画像全体または関心領域内で抽出した血管の数である。血管の本数は、例えば、抽出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。
 血管の交差数とは、粘膜下の深さが異なる血管が内視鏡画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。
 血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、抽出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。したがって、血管の太さは画素数であるが、内視鏡画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、必要に応じて「μm」等の長さの単位に換算可能である。
 血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管経の変化率(%)=最小径/最大径×100」で求める。
 なお、過去の検査で観察対象を撮影して得た内視鏡画像と、その後の新たな検査で同じ観察対象を撮影して得た内視鏡画像と、を用いる場合、過去の検査で得た内視鏡画像から抽出した血管の太さに対して、その後の新たな検査で得た内視鏡画像から抽出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。
 また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」で求める。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」で求める。
 血管の太さの変化の複雑度(以下、「太さ変化の複雑度」という)は、血管の太さ変化している場合に、その変化がどの程度複雑であるかを表す血管情報であり、血管の太さの変化を表す血管情報(すなわち血管径の変化率、細径部の割合、または太径部の割合)を複数組み合わせて算出する血管情報である。太さ変化の複雑度は、例えば、血管径の変化率と細径部の割合の積で求めることができる。
 血管の長さとは、抽出した血管の長手方向に沿って計数した画素数である。
 血管の間隔とは、抽出した血管のエッジ間にある粘膜を表す画素の画素数である。抽出した血管が1本の場合、血管の間隔は値を持たない。
 血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特殊観察画像の場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管情報算出部83は、血管として抽出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。
 血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差で求める。深さが一定の場合、高低差は零である。
 血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」で求める。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。
 血管の面積は、血管として抽出した画素の画素数、または、血管として抽出した画素の画素数に比例する値である。血管の面積は、関心領域内、関心領域外、または、内視鏡画像全体について算出する。
 血管の密度は、単位面積中にある血管の割合である。血管の密度を算出する画素を概ね中心に含む特定の大きさの領域(例えば単位面積の領域)を切り出し、この領域内の全画素に占める血管の割合を算出する。これを関心領域または内視鏡画像全体の全画素に対して行うことで、各画素の血管の密度を算出することができる。
 血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV-YM)/(YV+YM)」で算出する。
 血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表す画素のB値の最大値と最小値の比、G値の最大値と最小値の比、またはR値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。
 血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。
 血管の血液濃度とは、血管が含むヘモグロビンの量に比例する血管情報である。血管を表す画素のR値に対するG値の比(G/R)はヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。
 血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)で観察対象を撮影した内視鏡画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表す画素のB値は酸素飽和度と相関があるので、B値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。
 動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈は、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、抽出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。
 投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、B/GやB/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。
 血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。
 血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。超音波プローブを内視鏡12の鉗子チャネル等を介して併用する場合等に、内視鏡画像の血管を表す各画素のドップラーシフト周波数を、超音波プローブで得る信号を用いて算出する、血管の血流量を求めるができる。
 入力デバイス87の操作によって内視鏡画像の一部を関心領域に指定した場合、血管情報算出部83は、指定した関心領域内で血管情報を算出する。関心領域を指定していない場合や、内視鏡画像の全部を関心領域に指定している場合には、血管情報算出部83は、内視鏡画像の全体で血管情報を算出する。また、血管の太さ、長さ、高低差、傾き、粘膜を基準とした深さ、及び間隔等の上記血管情報のうち一部の血管情報は、内視鏡画像内の位置によって異なる。このため、血管情報算出部83は、内視鏡画像内の位置によって値が異なる血管情報を算出する場合、その最大値、最小値、平均値、または中央値等の統計量を血管情報の値とする。例えば、予め定めた範囲(例えば任意画素を中心とする99×99画素の範囲)の統計量を、任意画素における血管情報の値にすれば、画素毎には算出し難い血管情報も画素毎に求めることができる。
 血管パラメータ算出部84は、血管情報算出部83が算出した複数の血管情報を用いて演算をすることにより血管パラメータを算出する。本実施形態では、血管パラメータ算出部84は、血管情報算出部83が算出した複数の血管情報のそれぞれに重み付け係数をかけ、和をとることによって血管パラメータを算出する。各血管情報の重み付け係数は、重み付け係数テーブル91に記憶する。重み付け係数テーブル91に記憶した重み付け係数は、例えば機械学習によって予め定められる。
 なお、本実施形態では、上記のように複数の血管情報の重み付け和を血管パラメータとして算出するが、血管パラメータの算出方法は任意である。例えば、和を取るだけでなく、加減乗除が混在する演算をして血管パラメータを算出しても良いし、その他の関数を用いて血管パラメータを算出しても良い。
 血管パラメータは、互いに次元(単位)が異なる血管情報を加算等して算出するので、血管パラメータには物理的な意味は無いが、診断の指標として機能する。すなわち、血管パラメータは、物理的な意味がない値であることが血管情報との違いである。
 次に、画像処理装置65の動作の流れを図4のフローチャートに沿って説明する。まず、画像処理装置65は、入力デバイス87の入力操作にしたがって画像取得部81によってストレージ64から内視鏡画像を取得し(S11)、モニタ88に取得した内視鏡画像を表示する(S12)。本実施形態では、画像取得部81は、血管を色によって強調した特殊観察画像をストレージ64から取得するので、図5に示すように、特殊観察画像101をモニタ88に表示する。特殊観察画像101は、血管を色によって強調した内視鏡画像であり、例えば、観察対象の粘膜表面の形状102が観察できる他、粘膜の表面に比較的近い位置にある細い表層血管103はマゼンタ系の色で表され、粘膜下の比較的深い位置になる太い中深層血管104がシアン系の色で表されることにより強調されている。
 上記のようにモニタ88に特殊観察画像101を表示すると、必要に応じて関心領域111を指定する(S13)。例えば、図5の特殊観察画像101の場合、中央付近に病変の可能性がある箇所があるので、この病変の可能性がある箇所を含む特殊観察画像101の中央付近を関心領域111に指定する。
 一方、血管抽出部82は、画像取得部81によって取得した特殊観察画像101から観察対象の血管を抽出する(S14)。特殊観察画像101の場合、図6に示すように、表層血管103と中深層血管104を血管抽出部82が抽出する。
 血管抽出部82が血管を抽出すると、血管情報算出部83は、血管抽出部82による血管の抽出血管を用いて、複数の血管情報を算出する(S15)。上記のように、特殊観察画像101からは表層血管103と中深層血管104が抽出されるので、血管情報算出部83は、指定した関心領域111内において、表層血管103及び中深層血管104の本数、太さ、長さ、高低差、傾き、面積、密度、粘膜を基準とした深さ、及び間隔を算出する。
 その後、血管パラメータ算出部84が、血管情報算出部83によって算出した上記各血管情報と、重み付け係数テーブル91に記憶した重み付け係数とを用いて演算をすることにより血管パラメータを算出する(S16)。算出した血管パラメータは、モニタ88に送信され、図7に示すように、特殊観察画像101ともに、モニタ88上に設定した血管パラメータ表示部114に表示される。
 上記のように、画像処理装置65は、ストレージ64から内視鏡画像(特殊観察画像101)を選択し、モニタ88に表示させ、関心領域111を指定すると、指定した関心領域111内の表層血管103及び中深層血管104に関する血管パラメータが特殊観察画像101とともに表示される。そして、血管パラメータは、医師の多面的で複合的な視点で診断するのを模して、複数の血管情報を用いて算出した数値であるため、血管パラメータの数値を見れば、医師は素早くかつ正確に観察対象の状態を判断することができる。すなわち、画像処理装置65は、複数の血管情報を用いた演算によって算出した血管パラメータを算出することで、診断を支援することができる。例えば、医師に対して、血管パラメータの算出に使用する複数の血管情報をそれぞれ提示する場合と比較すると、画像処理装置65は、血管パラメータという診断内容に対してより直接的な情報を提示して診断を支援することができる。
 上記実施形態では、血管パラメータをモニタ88に表示しているが、図8に示すように、画像処理装置65には、血管パラメータを用いて観察対象の粘膜の状態を判定する判定部130を設け、血管パラメータの代わりに判定部130による判定結果をモニタ88に表示することが好ましい。
 判定部130は、血管パラメータ算出部84から血管パラメータを取得し、血管パラメータの値に基づいて、あるいは血管パラメータを用いてさらに演算をして、観察対象の粘膜の状態を判定する。例えば、血管パラメータの算出に用いる重み付け係数を、粘膜の状態を、正常、腺腫、がんの3種類の状態に判定するため係数に調整している場合、判定部130は、血管パラメータ第1閾値以下の場合に観察対象の粘膜が正常であると判定し、血管パラメータが第1閾値よりも大きく第2閾値以下の場合に腺腫の疑いがあると判定する。そして、血管パラメータが第2閾値よりも大きい場合は、がんに進行している可能性があると判定する。判定部130は、粘膜の状態についての判定結果をモニタ88に送信することで、図9に示すように、特殊観察画像101とともに、モニタ88上に設定した判定結果表示部131に判定結果を表示させる。
 上記のように、画像処理装置65に判定部130を設け、血管パラメータを用いて観察対象の粘膜の状態を判定し、その結果を表示すれば、血管パラメータを表示する場合よりもさらに直接的に診断を支援することができる。
 なお、判定部130は、粘膜の状態を、上記変形例のように、正常、腺腫、及びがんを含む3種類以上の状態に判定することが望ましい。特に、大腸の粘膜の状態を判定する場合には、正常、過形成ポリープ(HP:Hyperplastic Polyp)、SSA/P(Sessile Serrated Adenoma / Polyp)、腺腫(TSA:Traditional Serrated Adenoma)、側方発達型腫瘍(LST:Laterally Spreading Tumor)、及びがんを含むいずれかの状態に判定することが好ましい。このように、判定部130の判定結果を細分化する場合、判定部130は血管パラメータに加えて、血管情報を用いることが好ましい。従来、過形成ポリープはがん化のリスクが低く、処置の必要がないと考えられていたが、近年では、過形成ポリープに似たSSA/Pががん化した例も発見されているため、特に過形成ポリープとSSA/Pを鑑別することが重要になってきている。一方、過形成ポリープあるいはSSA/Pと思しき肥厚した粘膜下を中深層血管が横断していると、SSA/Pが形成される可能性が高いことが分かっている。血管パラメータを用いれば判定部130によって過形成ポリープとSSA/Pを鑑別することができるが、血管パラメータと血管情報(血管の太さ及び長さ)を組み合わせて判定をすれば、より高い確率で過形成ポリープからSSA/Pを鑑別することができる。
 また、観察対象の粘膜の状態ががんである場合、判定部130は、血管パラメータを用いて、さらに、がんのステージを判定することが好ましい。そして、判定結果表示部131には、判定部130が判定したがんのステージを表示することが好ましい。このように、観察対象の粘膜の状態をがんと判定した場合にさらにステージを判定して、その結果をモニタ88に表示すれば、さらに細やかに診断を支援することができる。
 上記実施形態では、内視鏡システム10が内視鏡画像をストレージ64に保存し、後に画像処理装置65がストレージ64から内視鏡画像を取得して血管パラメータを算出するが、観察対象を観察しながらほぼリアルタイムに血管パラメータを算出してもよい。この場合、図10に示す内視鏡システム210のように、プロセッサ装置16に、画像取得部81、血管抽出部82、血管情報算出部83、血管パラメータ算出部84を設ける。内視鏡12や光源装置14の構成は第1実施形態の内視鏡システム10と同様である。
 このようにプロセッサ装置16に、画像処理装置65の各部を設ける場合、画像取得部81は信号処理部62が生成する内視鏡画像を、ストレージ64を介さずに信号処理部62から直接取得する。血管抽出部82は、画像取得部81が取得した内視鏡画像から血管を抽出し、血管情報算出部83が抽出した血管に関する複数の血管情報を算出し、血管パラメータ算出部84が、算出した複数の血管情報と、重み付け係数テーブル91に記憶した重み付け係数とを用いて演算をし、血管パラメータを算出することは画像処理装置65と同様である。関心領域111を指定する場合には、入力デバイス87の代わりに、コンソール19または内視鏡12の操作部12bに設けられたボタン等(図示しない)を用いる。血管パラメータ算出部84は、算出した血管パラメータを映像信号生成部63に送信することで、信号処理部62が制し得した内視鏡画像とともに、モニタ18に血管パラメータを表示させる。
 上記のように、プロセッサ装置16に、画像処理装置65を構成する画像取得部81、血管抽出部82、血管情報算出部83、血管パラメータ算出部84を設ければ、プロセッサ装置16が画像処理装置65として機能する。このため、内視鏡システム210では、観察対象を観察しながら血管パラメータを算出し、表示するので、リアルタイムに診断を支援することができる。
 なお、内視鏡システム210は、少なくとも静止画像取得指示部13aによって信号処理部62が静止画像取得指示を受けた場合に、血管パラメータを算出及び表示することが好ましい。もちろん、静止画像取得指示の入力の有無に関係なく、内視鏡画像の動画をモニタ18に表示する場合に、血管パラメータを算出及び表示しても良い。内視鏡画像の動画をモニタ18に表示する場合、動画の全フレームの内視鏡画像について血管パラメータを算出及び表示しても良いが、数フレームおきに血管パラメータを算出及び表示してもほぼリアルタイムに血管パラメータを算出及び表示することができる。
 上記実施形態では、画像処理装置65のモニタ88に血管パラメータを表示しているが、さらに、血管パラメータを算出する際に用いる血管情報や重み付け係数を表示することが好ましい。例えば、図11に示すように、画像処理装置65の場合、血管パラメータ表示部114に加えて、情報表示部250を表示する。そして、情報表示部250に、血管情報算出部84が算出した血管情報と、重み付け係数テーブル91から読み出した重み付け係数とを対応付けて表示する。内視鏡システム210の場合も同様であり、判定血管130による判定結果に加えて、血管パラメータや、血管パラメータの算出に用いる血管情報や重み付け係数をモニタ18に表示する。図11では、血管情報と重み付け係数を両方表示しているが、血管情報だけ、あるいは重み付け係数だけを、血管パラメータや判定結果に加えて表示してもよい。このように、血管パラメータの算出に用いる血管情報や重み付け係数を表示することで、医師は血管パラメータの意味や判定の根拠を把握しやすくなる。
 また、例えば、血管情報や重み付け係数を追加表示する「確認モード」を設け、入力デバイス87等(内視鏡システム210の場合には操作部12bやコンソール19、図示しないフットペダル等)を用いて確認モードにセットした場合に、血管パラメータや判定結果に加えて血管情報や重み付け係数を表示しても良い。
 また、上記のように、血管パラメータや判定結果に加えて、重み付け係数を表示する場合、重み付け係数は、入力デバイス87やコンソール19等を用いて変更可能にしておくことが好ましい。そして、重み付け係数を変更した場合には、血管パラメータ算出部84は変更後の重み付け係数を用いて血管パラメータを再算出し、判定部130は変更後の重み付け係数を用いて算出した血管パラメータを用いて再度判定をする。このように、重み付け係数を表示し、かつ、重み付け係数を変更可能にしておくと、医師の経験に基づいて血管パラメータの算出方法や判定の方法を調整する方法を提供することができる。
 上記実施形態では、撮像センサ48が設けられた内視鏡12を被検体内に挿入して観察を行う内視鏡システム10によって本発明を実施しているが、カプセル内視鏡システムでも本発明は好適である。例えば、図12に示すように、カプセル内視鏡システムは、カプセル内視鏡300と、プロセッサ装置(図示しない)とを少なくとも有する。カプセル内視鏡300は、光源302と、光源制御部303と、撮像センサ304と、画像信号取得処理部306と、送受信アンテナ308とを備えている。光源302は、内視鏡システム10の光源20と同様に構成され、光源制御部303の制御によって、照明光を発光する。画像信号取得処理部306は、画像信号取得部53、DSP56、ノイズ除去部58、信号処理部62として機能する。カプセル内視鏡システムのプロセッサ装置は、内視鏡システム210のプロセッサ装置16と同様に構成され、画像処理装置65としても機能する。画像信号取得処理部306が生成する内視鏡画像は、送受信アンテナ308を介してプロセッサ装置に送信される。カプセル内視鏡300でリアルタイムに血管パラメータを算出する場合には、画像信号取得処理部306は、さらに画像取得部81、血管抽出部82、血管情報算出部83、血管パラメータ算出部84としても機能させれば良い。

Claims (11)

  1.  内視鏡で撮影した内視鏡画像を取得する画像取得部と、
     前記内視鏡画像を用いて、前記内視鏡画像に写る観察対象から血管を抽出する血管抽出部と、
     前記血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出する血管情報算出部と、
     複数の前記血管情報を用いて演算をすることにより血管パラメータを算出する血管パラメータ算出部と、
     を備える画像処理装置。
  2.  前記血管情報は、前記内視鏡画像の全部または一部の領域における統計量である請求項1に記載の画像処理装置。
  3.  前記血管情報は、前記内視鏡画像の全部または一部の領域における最大値、最小値、平均値、または中央値である請求項2に記載の画像処理装置。
  4.  前記血管パラメータ算出部は、複数の前記血管情報に重み付けをして演算をし、前記血管パラメータを算出する請求項1に記載の画像処理装置。
  5.  前記血管パラメータ算出部は、前記重み付けを、機械学習により予め定められた係数を用いて行う請求項4に記載の画像処理装置。
  6.  前記血管パラメータを用いて、前記観察対象の粘膜の状態を判定する判定部を備える請求項1に記載の画像処理装置。
  7.  前記判定部は、前記血管パラメータを用いて、前記観察対象の粘膜の状態を、正常、腺腫、及びがんを含む3種類以上の状態のいずれかに判定する請求項6に記載の画像処理装置。
  8.  前記判定部は、前記血管パラメータを用いて、前記観察対象の粘膜の状態を、正常、過形成ポリープ、SSA/P、腺腫、側方発達型腫瘍、及びがんを含む状態のいずれかに判定する請求項7に記載の画像処理装置。
  9.  前記判定部は、前記観察対象の粘膜の状態ががんの場合に、前記血管パラメータを用いて、さらに、がんのステージを判定する請求項6に記載の画像処理装置。
  10.  観察対象を撮影する内視鏡と、
     前記内視鏡で撮影した内視鏡画像を取得する画像取得部と、前記内視鏡画像を用いて、前記内視鏡画像に写る前記観察対象の血管を抽出する血管抽出部と、前記血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出する血管情報算出部と、複数の前記血管情報を用いて演算をすることにより血管パラメータを算出する血管パラメータ算出部と、を有するプロセッサ装置と、
     を備える内視鏡システム。
  11.  画像取得部が、内視鏡で撮影した内視鏡画像を取得するステップと、
     血管抽出部が、前記内視鏡画像を用いて、前記内視鏡画像に写る観察対象から血管を抽出するステップと、
     血管情報算出部が、前記血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうち少なくとも2以上を含む複数の血管情報を算出するステップと、
     血管パラメータ算出部が、複数の前記血管情報を用いて演算をすることにより血管パラメータを算出するステップと、
     を備える画像処理方法。
PCT/JP2016/052323 2015-01-29 2016-01-27 画像処理装置及び画像処理方法、並びに内視鏡システム WO2016121811A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16743414.1A EP3251582A4 (en) 2015-01-29 2016-01-27 Image processing device, image processing method, and endoscope system
US15/605,913 US10674892B2 (en) 2015-01-29 2017-05-25 Image processor, image processing method, and endoscope system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-015179 2015-01-29
JP2015015179 2015-01-29
JP2015-166101 2015-08-25
JP2015166101A JP6336949B2 (ja) 2015-01-29 2015-08-25 画像処理装置及び画像処理方法、並びに内視鏡システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/605,913 Continuation US10674892B2 (en) 2015-01-29 2017-05-25 Image processor, image processing method, and endoscope system

Publications (1)

Publication Number Publication Date
WO2016121811A1 true WO2016121811A1 (ja) 2016-08-04

Family

ID=56543421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052323 WO2016121811A1 (ja) 2015-01-29 2016-01-27 画像処理装置及び画像処理方法、並びに内視鏡システム

Country Status (1)

Country Link
WO (1) WO2016121811A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066318A1 (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP2020089712A (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
WO2020116115A1 (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置およびモデルの生成方法
WO2023085262A1 (ja) * 2021-11-09 2023-05-19 学校法人順天堂 消化管表層微小血管の血流速度測定内視鏡システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207541A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 医用画像読影支援装置
JP2010249835A (ja) * 2002-04-05 2010-11-04 Massachusetts Inst Of Technol <Mit> 生物学的組織の分光法のための系および方法
WO2013132400A1 (en) * 2012-03-08 2013-09-12 Koninklijke Philips N.V. Apparatus for determining a property of a tissue
WO2014192781A1 (ja) * 2013-05-30 2014-12-04 Hoya株式会社 生体組織中の生体物質の濃度分布を示す画像を生成する方法及び装置
WO2014200065A1 (ja) * 2013-06-14 2014-12-18 北海道公立大学法人札幌医科大学 大腸癌を治療および/または診断するための組成物ならびにその利用

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010249835A (ja) * 2002-04-05 2010-11-04 Massachusetts Inst Of Technol <Mit> 生物学的組織の分光法のための系および方法
JP2009207541A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 医用画像読影支援装置
WO2013132400A1 (en) * 2012-03-08 2013-09-12 Koninklijke Philips N.V. Apparatus for determining a property of a tissue
WO2014192781A1 (ja) * 2013-05-30 2014-12-04 Hoya株式会社 生体組織中の生体物質の濃度分布を示す画像を生成する方法及び装置
WO2014200065A1 (ja) * 2013-06-14 2014-12-18 北海道公立大学法人札幌医科大学 大腸癌を治療および/または診断するための組成物ならびにその利用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3251582A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066318A1 (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
US11064864B2 (en) 2016-10-05 2021-07-20 Fujifilm Corporation Processor device, endoscope system, and method of operating processor device
JP2020089712A (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP2020089710A (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP2020089711A (ja) * 2018-12-04 2020-06-11 Hoya株式会社 モデルの生成方法およびプログラム
WO2020116115A1 (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置およびモデルの生成方法
CN112399816A (zh) * 2018-12-04 2021-02-23 Hoya株式会社 信息处理装置和模型生成方法
JP7015275B2 (ja) 2018-12-04 2022-02-02 Hoya株式会社 モデルの生成方法、教師データの生成方法、および、プログラム
CN112399816B (zh) * 2018-12-04 2024-01-05 Hoya株式会社 信息处理装置和模型生成方法
WO2023085262A1 (ja) * 2021-11-09 2023-05-19 学校法人順天堂 消化管表層微小血管の血流速度測定内視鏡システム

Similar Documents

Publication Publication Date Title
JP6577088B2 (ja) 内視鏡システム
JP6633641B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
US10426318B2 (en) Image processing apparatus, endoscope system, and image processing method
JP6420492B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
US10959606B2 (en) Endoscope system and generating emphasized image based on color information
JP6640866B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP5395725B2 (ja) 電子内視鏡システム
JP6469558B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP2011194028A (ja) 電子内視鏡システム、電子内視鏡用のプロセッサ装置、および血管情報取得方法
JP6461760B2 (ja) 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム
WO2016121811A1 (ja) 画像処理装置及び画像処理方法、並びに内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16743414

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2016743414

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE