WO2017057574A1 - 画像処理装置、内視鏡システム、及び画像処理方法 - Google Patents

画像処理装置、内視鏡システム、及び画像処理方法 Download PDF

Info

Publication number
WO2017057574A1
WO2017057574A1 PCT/JP2016/078818 JP2016078818W WO2017057574A1 WO 2017057574 A1 WO2017057574 A1 WO 2017057574A1 JP 2016078818 W JP2016078818 W JP 2016078818W WO 2017057574 A1 WO2017057574 A1 WO 2017057574A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
index value
vessel index
image
unit
Prior art date
Application number
PCT/JP2016/078818
Other languages
English (en)
French (fr)
Inventor
徹郎 江畑
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017543560A priority Critical patent/JP6633641B2/ja
Priority to EP16851745.6A priority patent/EP3357406A4/en
Publication of WO2017057574A1 publication Critical patent/WO2017057574A1/ja
Priority to US15/937,871 priority patent/US10653295B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Definitions

  • the present invention relates to an image processing apparatus, an endoscope system, and an image processing method for assisting diagnosis by calculating data to be used for diagnosis using an endoscope image photographed by an endoscope.
  • an endoscope system including a light source device, an endoscope, and a processor device is widely performed.
  • the insertion part of the endoscope is inserted into the subject, the illumination light is irradiated from the tip, and the observation target (such as the mucous membrane in the subject) irradiated with the illumination light is detected.
  • an image is picked up by an image sensor mounted on the distal end portion of the endoscope.
  • an image to be observed hereinafter referred to as an endoscopic image
  • an image to be observed hereinafter referred to as an endoscopic image
  • an endoscope image (hereinafter referred to as normal light) in which an observation target can be observed in a natural color is usually obtained by imaging an observation target irradiated with white illumination light (also referred to as normal light). Image). Furthermore, an endoscope system that obtains an endoscopic image (hereinafter referred to as a special observation image) that emphasizes a blood vessel, a pit pattern, or the like to be observed by using light having a specific wavelength band as illumination light has become widespread. Yes. When making a diagnosis using an endoscopic image, information on blood vessels, pit patterns, and the like is an important diagnostic material, and thus special observation images that emphasize these are particularly useful for diagnosis.
  • Patent Documents 1 and 2 There is also a known system that supports diagnosis by displaying changes over time in blood vessel information (hereinafter referred to as blood vessel information) that can be calculated using an endoscopic image, such as blood vessel density (Patent Documents 3 and 4).
  • blood vessel information a temporal change in oxygen saturation, which is one of blood vessel information, is displayed on a monitor in real time.
  • the system of Patent Document 4 displays the change in the intensity of the fluorescence emitted from the observation object as a graph.
  • Patent Documents 5 and 6 an endoscope system that supports diagnosis by obtaining feature values of an endoscopic image and determining or classifying lesions using the obtained feature values is known. Furthermore, an endoscope system that enhances a lesion by changing the color of a pixel determined to be a lesion or superimposing an alert image on the lesion is known (Patent Documents 7 and 8).
  • Blood vessel information such as blood vessel density and oxygen saturation is extremely important information that can be a decisive factor in diagnosis using an endoscopic image. Therefore, as in the endoscope systems of Patent Documents 1 to 4, If blood vessel information is calculated, diagnosis can be supported.
  • Patent Documents 3 and 4 display changes over time in blood vessel information, and support diagnosis even in cases where it is not possible to make a definitive judgment unless you know the time change in blood vessel information, not just the value of blood vessel information. Therefore, the diagnosis support effect is particularly high.
  • Patent Documents 5 and 6 obtain feature amounts of endoscopic images, determine or classify lesions using the obtained feature amounts, and display the results (assumed diagnosis names, etc.). Information that is easy to lead to diagnosis is presented.
  • the feature amounts calculated by Patent Documents 5 and 6 are feature amounts relating to the color tone of the mucous membrane surface and the structural pattern (mainly directionality) of the pattern, the lesion whose blood vessel information serves as a diagnostic guideline can be determined or Classification is difficult.
  • the feature amount is calculated using a single endoscopic image, and the temporal change of the observation target (particularly blood vessel information) is not considered at all in the determination or classification of the lesion.
  • the present invention determines the state of the mucous membrane of the observation target in consideration of the temporal change of the blood vessel of the observation target, and displays the result, thereby enabling image processing that supports diagnosis more directly and more effectively than before.
  • An object is to provide an apparatus, an endoscope system, and an image processing method.
  • An image processing apparatus includes an image acquisition unit that acquires a plurality of endoscope images obtained by imaging an observation target at different times by an endoscope, and a blood vessel to be observed from the plurality of endoscope images, respectively.
  • a blood vessel extracting unit for extracting, a blood vessel index value calculating unit for calculating a blood vessel index value for each blood vessel extracted from the endoscopic image, a time change calculating unit for calculating a time change of the blood vessel index value, and a time of the blood vessel index value
  • a determination unit that determines the state of the mucous membrane to be observed using the change, and a display unit that displays the determination result of the determination unit.
  • Blood vessel index value calculation unit is the number of blood vessels extracted by the blood vessel extraction unit, thickness, change in thickness, complexity of change in thickness, length, change in length, number of branches, branch angle, between branch points Distance, number of intersections, slope, area, density, depth based on mucous membrane, elevation difference, spacing, contrast, color, color change, meandering degree, blood concentration, oxygen saturation, arterial ratio, vein ratio,
  • blood vessel information is calculated as a blood vessel index value among the concentration of the administered pigment, the running pattern, and the blood flow volume.
  • Blood vessel index value calculation unit is the number of blood vessels extracted by the blood vessel extraction unit, thickness, change in thickness, complexity of change in thickness, length, change in length, number of branches, branch angle, between branch points Distance, number of intersections, slope, area, density, depth based on mucous membrane, elevation difference, spacing, contrast, color, color change, meandering degree, blood concentration, oxygen saturation, arterial ratio, vein ratio,
  • a blood vessel information calculation unit that calculates blood vessel information of any one of the concentration of the administered pigment, a running pattern, and a blood flow volume, and a blood vessel parameter calculation unit that calculates a blood vessel parameter by calculating using a plurality of blood vessel information
  • the blood vessel index value calculation unit preferably uses the blood vessel parameter as a blood vessel index value.
  • the time change calculation unit calculates a difference, a ratio, or a change rate between a plurality of blood vessel index values.
  • the blood vessel index value calculation unit calculates a plurality of types of blood vessel index values
  • the time change calculation unit calculates a time change for each type of blood vessel index value
  • the determination unit calculates a time change for each type of blood vessel index value. It is preferable to use to determine the state of the mucosa to be observed.
  • the determination unit determines the state of the mucosa to be observed based on a combination of temporal changes in blood vessel index values in a plurality of time intervals.
  • the determination unit calculates a length of a period during which the blood vessel index value is equal to or greater than a threshold value or less than the threshold value, and determines the state of the mucosa to be observed based on the calculated length of the period.
  • the blood vessel index value calculation unit calculates the blood vessel index value outside the region of interest in addition to calculating the blood vessel index value of the region of interest, and the time change calculation unit
  • the spatial change of the blood vessel index value is calculated using the blood vessel index values inside and outside the region of interest, and further, the temporal change of the spatial change of the blood vessel index value is calculated. It is preferable to determine the state of the mucosa.
  • An endoscope system of the present invention includes an endoscope that images an observation target, an image acquisition unit that acquires a plurality of endoscope images obtained by imaging the observation target at different times by the endoscope, and a plurality of A blood vessel extraction unit that extracts each blood vessel to be observed from the endoscopic image, a blood vessel index value calculation unit that calculates a blood vessel index value for each blood vessel extracted from the endoscopic image, and a time change of the blood vessel index value
  • a processor unit having a time change calculation unit, a determination unit that determines the state of the mucous membrane to be observed using the time change of the blood vessel index value, and a display unit that displays a determination result of the determination unit;
  • the image acquisition unit acquires a plurality of endoscopic images obtained by imaging the observation target at different times by the endoscope, and the observation target is obtained from the plurality of endoscopic images.
  • a step of extracting each blood vessel a step of calculating a blood vessel index value for each blood vessel extracted from the endoscopic image by a blood vessel index value calculating unit, and a step of calculating a time change of the blood vessel index value by a time change calculating unit.
  • the image processing apparatus, the endoscope system, and the image processing method of the present invention determine the state of the mucosa of the observation target in consideration of the temporal change of the blood vessel of the observation target, and display the result. Can also support diagnosis directly and effectively.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion 12d provided at the distal end side of the insertion portion 12a. have.
  • the angle knob 12e of the operation unit 12b By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. By this bending operation, the distal end portion 12d is directed in a desired direction.
  • the operation unit 12b is provided with a still image acquisition instruction unit 13a and a zoom operation unit 13b.
  • the still image acquisition instruction unit 13 a is operated when inputting an instruction to acquire a still image to the endoscope system 10.
  • the still image acquisition instruction includes a freeze instruction for displaying the still image to be observed on the monitor 18 and a release instruction for saving the still image in the storage.
  • the zoom operation unit 13b is used to input an imaging magnification change instruction for changing the imaging magnification.
  • the processor device 16 is electrically connected to the monitor 18 and the console 19.
  • the monitor 18 outputs and displays an image to be observed, information attached to the image, and the like.
  • the console 19 functions as a user interface that receives input operations such as function settings.
  • the light source device 14 includes a light source 20 that emits illumination light that irradiates an observation target, and a light source control unit 22 that controls the light source 20.
  • the light source 20 includes, for example, a semiconductor light source such as a multi-color LED (Light Emitting Diode), a combination of a laser diode and a phosphor, or a halogen light source such as a xenon lamp.
  • the light source 20 includes an optical filter for adjusting the wavelength band of light emitted from the LED or the like.
  • the light source control unit 22 controls the amount of illumination light by turning on / off the LED and adjusting the drive current and drive voltage of the LED.
  • the light source control unit 22 controls the wavelength band of the illumination light by changing the optical filter or the like.
  • the endoscope system 10 has two types of observation modes: a normal observation mode for observing an observation target with a normal observation image, and a special observation mode for observing the observation target with a special observation image.
  • the observation mode is the normal observation mode
  • the light source control unit 22 causes the light source 20 to generate substantially white illumination light.
  • the observation mode is the special observation mode
  • the light source controller 22 causes the light source 20 to generate illumination light having a specific narrow wavelength band (hereinafter referred to as narrow band light).
  • the observation mode is switched by a mode switch (not shown) provided on the operation unit 12b.
  • the illumination light emitted from the light source 20 is incident on the light guide 41 inserted into the insertion portion 12a.
  • the light guide 41 is incorporated in the endoscope 12 and the universal cord, and propagates the illumination light to the distal end portion 12d of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used as the light guide 41.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer serving as an outer shell can be used.
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 45, and the illumination light propagated by the light guide 41 is irradiated to the observation target through the illumination lens 45.
  • the imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an imaging sensor 48.
  • Various types of light such as reflected light, scattered light, and fluorescence from the observation target enter the image sensor 48 via the objective lens 46 and the zoom lens 47.
  • an image to be observed is formed on the image sensor 48.
  • the zoom lens 47 freely moves between the tele end and the wide end by operating the zoom operation unit 13b, and enlarges or reduces the observation target imaged on the image sensor 48.
  • the imaging sensor 48 is a color imaging sensor in which any one of R (red), G (green), and B (blue) color filters is provided for each pixel. Is output.
  • a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.
  • CMOS Complementary Metal-Oxide Semiconductor
  • a complementary color image sensor having complementary color filters of C (cyan), M (magenta), Y (yellow) and G (green) may be used. .
  • CMYG complementary color image sensor
  • RGB image signals similar to those of the image sensor 48 can be obtained by converting the CMYG four-color image signals into the RGB three-color image signals by complementary color-primary color conversion. Further, instead of the imaging sensor 48, a monochrome sensor without a color filter may be used.
  • the image signal output from the image sensor 48 is transmitted to the CDS / AGC circuit 51.
  • the CDS / AGC circuit 51 performs correlated double sampling (CDS: Correlated Double Sampling) and automatic gain control (AGC: Automatic Gain Control) on an image signal that is an analog signal.
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • the image signal that has passed through the CDS / AGC circuit 51 is converted into a digital image signal by an A / D (Analog-to-Digital) converter 52.
  • the digital image signal after A / D conversion is input to the processor device 16.
  • the processor device 16 includes an image signal acquisition unit 53, a DSP (Digital Signal Processor) 56, a noise reduction unit 58, a memory 61, a signal processing unit 62, and a video signal generation unit 63.
  • DSP Digital Signal Processor
  • the image signal acquisition unit 53 acquires a digital image signal from the endoscope 12.
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the image signal acquired by the image signal acquisition unit 53.
  • defect correction process the signal of the defective pixel of the image sensor 48 is corrected.
  • offset process the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • the gain correction process the signal level is adjusted by multiplying the image signal after the offset process by a specific gain.
  • the image signal after gain correction processing is subjected to linear matrix processing to improve color reproducibility. After that, the brightness and saturation are adjusted by gamma conversion processing.
  • the image signal after the gamma conversion processing is subjected to demosaic processing (also referred to as isotropic processing or synchronization processing), and a signal of insufficient color at each pixel is generated by interpolation. By this demosaic processing, all the pixels have RGB signals.
  • the noise reduction unit 58 performs noise reduction processing by, for example, a moving average method or a median filter method on the image signal that has been demosaiced by the DSP 56 to reduce noise.
  • the image signal with reduced noise is stored in the memory 61.
  • the signal processing unit 62 acquires the image signal after noise reduction from the memory 61. Then, the acquired image signal is subjected to signal processing such as color conversion processing, color enhancement processing, and structure enhancement processing as necessary to generate a color endoscope image in which the observation target is reflected.
  • the color conversion process is a process for performing color conversion on an image signal by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional LUT (look-up table) processing, and the like.
  • the color enhancement process is performed on the image signal that has been subjected to the color conversion process.
  • the structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a pit pattern, and is performed on the image signal after the color enhancement process.
  • the endoscope image generated by the signal processing unit 62 is a normal observation image when the observation mode is the normal observation mode, and is a special observation image when the observation mode is the special observation mode.
  • the contents of the process and the structure enhancement process differ depending on the observation mode.
  • the signal processing unit 62 In the normal observation mode, the signal processing unit 62 generates the normal observation image by performing the above-described various signal processes in which the observation target has a natural color.
  • the signal processing unit 62 In the case of the special observation mode, the signal processing unit 62 generates the special observation image by performing the above-described various signal processings that emphasize at least the blood vessel to be observed.
  • blood vessels at a relatively shallow position in the observation target with respect to the surface of the mucous membrane have a magenta color (for example, brown color).
  • a blood vessel at a relatively deep position in the observation target with respect to the surface has a cyan color (for example, green). For this reason, the blood vessel to be observed is emphasized by the color difference with respect to the mucous membrane expressed in pink.
  • the signal processing unit 62 inputs the generated endoscopic image to the video signal generation unit 63.
  • the video signal generator 63 converts the endoscopic image into a video signal for output display on the monitor 18.
  • the signal processing unit 62 stores the generated endoscopic image in the storage 64.
  • the storage 64 is an external storage device connected to the processor device 16 such as a LAN (Local Area Network), for example, a file server of a system for filing endoscopic images such as PACS (Picture Archiving and Communication System), NAS ( Network (Attached Storage).
  • the endoscopic image stored in the storage 64 is used by the image processing device 65.
  • the image processing device 65 is a device that performs image processing on an endoscopic image, calculates blood vessel parameters for diagnosis support, and calculates blood vessel change indices using the blood vessel parameters. As illustrated in FIG. 3, the image processing device 65 includes an image acquisition unit 81, a blood vessel extraction unit 82, a blood vessel index value calculation unit 83, a time change calculation unit 84, and a determination unit 85. Further, the image processing device 65 displays an input device 87 including a pointing device and a keyboard used for designating a region of interest (ROI: Region Of Interest), an endoscope image, a determination result by the determination unit 85, and the like. A monitor 88 functioning as a display unit is connected.
  • ROI Region Of Interest
  • the image acquisition unit 81 acquires, from the storage 64, a plurality of endoscope images obtained by imaging the observation target with the endoscope at different times. Endoscopic images stored in the storage 64 include a normal observation image and a special observation image. In this embodiment, the image acquisition unit 81 acquires a special observation image in which blood vessels are emphasized from the storage 64. .
  • the storage 64 stores a plurality of endoscopic images 99 obtained by imaging the observation target at different times (year / month / day / time).
  • the image acquisition unit 81 acquires a plurality of endoscopic images obtained by imaging at different times from the plurality of endoscopic images 99 in accordance with a user setting input or the like.
  • the first endoscopic image 101 and the second endoscopic image 102 are acquired.
  • the first endoscopic image 101 is an endoscopic image obtained by imaging the observation target prior to the second endoscopic image 102.
  • the second endoscopic image 102 is an endoscopic image obtained by imaging the observation target after the first endoscopic image 101.
  • first and “second” represent the time before and after the acquisition time of the endoscopic image
  • the imaging target is imaged relatively first of the two endoscopic images acquired by the image acquisition unit 81.
  • the endoscopic image obtained in this way is the first endoscopic image 101
  • the endoscopic image obtained by imaging the observation object relatively later is the second endoscopic image 102.
  • the blood vessel extraction unit 82 extracts the blood vessels to be observed from the plurality of endoscopic images acquired by the image acquisition unit 81, respectively.
  • the blood vessel extraction method is, for example, a frequency filter.
  • the image acquisition unit 81 acquires two endoscopic images, that is, the first endoscopic image 101 and the second endoscopic image 102, so the blood vessel extracting unit 82 is the first endoscopic image 101.
  • the blood vessels to be observed are extracted from the second endoscopic image 102, respectively.
  • the blood vessel extracted from the first endoscopic image 101 is referred to as a first blood vessel
  • the blood vessel extracted from the second endoscopic image 102 is referred to as a second blood vessel.
  • the blood vessel extraction unit 82 extracts blood vessels from the entire endoscopic image acquired by the image acquisition unit 81. However, when a region of interest is specified, the blood vessel is extracted only within the specified region of interest. May be.
  • the blood vessel index value calculation unit 83 calculates a blood vessel index value Di for each blood vessel extracted from the endoscopic image. That is, in the present embodiment, the blood vessel index value calculation unit 83 uses the first blood vessel extracted from the first endoscopic image 101, and the first blood vessel index value Di1 that is the blood vessel index value Di of the first endoscopic image. And the second blood vessel index value Di2 that is the blood vessel index value Di of the second endoscopic image 102 is calculated using the second blood vessel extracted from the second endoscopic image 102.
  • the blood vessel index value Di is an index value related to the blood vessel to be observed, and is an index value that can be used for lesion determination or classification.
  • the blood vessel information Vi functions as the blood vessel index value Di.
  • the blood vessel index value Di can also be calculated using the blood vessel information Vi. Therefore, the blood vessel index value calculation unit 83 calculates the blood vessel information Vi or the index value P calculated using the blood vessel information Vi as the blood vessel index value Di.
  • the blood vessel index value calculation unit 83 since the blood vessel information Vi itself is used as the blood vessel index value Di, the blood vessel index value calculation unit 83 functions as a blood vessel information calculation unit that calculates the blood vessel information Vi.
  • the blood vessel index value calculation unit 83 calculates the first blood vessel index value Di1 and the second blood vessel index value Di2, and the first blood vessel index value Di1 and the second blood vessel index value Di2 are of the same type. It is a blood vessel index (determining or classifying lesions based on the same criteria).
  • the first blood vessel index value Di1 and the second blood vessel index value Di2 are basically different from each other except when they coincide by chance.
  • the difference between the value of the first blood vessel index value Di1 and the second blood vessel index value Di2 is that the observation target of the imaging time T1 of the first endoscopic image 101 and the imaging time T2 of the second endoscopic image 102 changes over time. Represents change.
  • the blood vessel information Vi is based on, for example, the number of blood vessels, the number of branches, the branch angle, the distance between branch points, the number of intersections, the thickness, the change in thickness, the complexity of the change in thickness, the length, the interval, and the mucous membrane. Depth, elevation difference, slope, area, density, contrast, color, color change, meandering degree, blood concentration, oxygen saturation, arterial percentage, vein percentage, administered dye concentration, running pattern, and One of the blood flow. These are examples of blood vessel information, and information regarding other blood vessels may be calculated as blood vessel information.
  • the number of blood vessels is the number of blood vessels extracted in the entire endoscopic image or in the region of interest.
  • the number of blood vessels is calculated using, for example, the number of extracted blood vessel branch points (the number of branches), the number of intersections with other blood vessels (the number of intersections), and the like.
  • the branch angle of a blood vessel is an angle formed by two blood vessels at a branch point.
  • the distance between branch points is a linear distance between an arbitrary branch point and an adjacent branch point, or a length along a blood vessel from an arbitrary branch point to the adjacent branch point.
  • the number of intersections of blood vessels is the number of intersections where blood vessels with different submucosal depth intersect on the endoscopic image. More specifically, the number of intersecting blood vessels is the number of blood vessels at a relatively shallow position below the mucosa crossing a blood vessel at a deep position.
  • the thickness of the blood vessel is the distance between the boundary line of the blood vessel and the mucous membrane. For example, the number of pixels is counted along the short direction of the blood vessel from the extracted blood vessel edge through the blood vessel. To count. Therefore, the thickness of the blood vessel is the number of pixels, but if the shooting distance or zoom magnification when the endoscopic image is taken is known, it is converted to a unit of length such as “ ⁇ m” as necessary. Is possible.
  • the change in the thickness of the blood vessel is blood vessel information regarding the variation in the thickness of the blood vessel, and is also referred to as the unequal diameter.
  • the change in the thickness of the blood vessel is, for example, a change rate of the blood vessel diameter (also referred to as a degree of expansion).
  • the change rate of the blood vessel diameter is calculated by using the thickness of the thinnest part of the blood vessel (minimum diameter) and the thickness of the thickest part of the blood vessel (maximum diameter). It calculates
  • the temporal change in the same blood vessel thickness extracted from the endoscopic image obtained in the subsequent new examination can be used as the blood vessel thickness change. Good.
  • the ratio of the small diameter part or the ratio of the large diameter part may be calculated as the change in the thickness of the blood vessel.
  • the small diameter portion is a portion whose thickness is equal to or less than a threshold value
  • the large diameter portion is a portion whose thickness is thicker than the threshold value.
  • the complexity of the change in the thickness of the blood vessel (hereinafter referred to as “complexity of the change in thickness”) is blood vessel information indicating how complicated the change is when the thickness of the blood vessel is changed.
  • the blood vessel information is calculated by combining a plurality of blood vessel information (that is, a blood vessel diameter change rate, a small diameter portion ratio, or a large diameter portion ratio) representing a change in the thickness of the blood vessel.
  • the complexity of the thickness change can be obtained, for example, by the product of the change rate of the blood vessel diameter and the ratio of the small diameter portion.
  • the length of the blood vessel is the number of pixels counted along the longitudinal direction of the extracted blood vessel.
  • the blood vessel interval is the number of pixels representing the mucous membrane between the extracted blood vessel edges. When there is one extracted blood vessel, the blood vessel interval has no value.
  • the depth of blood vessels is measured with reference to the mucosa (more specifically, the surface of the mucosa).
  • the blood vessel depth based on the mucous membrane can be calculated based on the color of the blood vessel, for example.
  • blood vessels that are close to the surface of the mucosa are represented by magenta color
  • blood vessels that are far from the surface of the mucosa and are deep under the mucosa are represented by cyan color.
  • the index value calculation unit 83 calculates the depth of the blood vessel with respect to the mucous membrane for each pixel based on the balance of the R, G, and B color signals of the pixel extracted as the blood vessel.
  • the difference in the height of the blood vessel is the size of the difference in the depth of the blood vessel.
  • the height difference of one blood vessel of interest is obtained by the difference between the depth (maximum depth) of the deepest portion of the blood vessel and the depth (minimum depth) of the shallowest portion. When the depth is constant, the height difference is zero.
  • the blood vessel may be divided into a plurality of sections, and the inclination of the blood vessels may be calculated in each section.
  • the area of the blood vessel is a value proportional to the number of pixels extracted as blood vessels or the number of pixels extracted as blood vessels.
  • the area of the blood vessel is calculated within the region of interest, outside the region of interest, or for the entire endoscopic image.
  • the density of blood vessels is the proportion of blood vessels in a unit area.
  • a region having a specific size for example, a region having a unit area
  • the ratio of the blood vessel to all the pixels in the region is calculated.
  • the contrast of the blood vessel is a relative contrast with respect to the mucous membrane to be observed.
  • the blood vessel contrast is calculated by using, for example, “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the luminance Y V of the blood vessel and the luminance Y M of the mucous membrane. To do.
  • the blood vessel color is an RGB value of a pixel representing a blood vessel.
  • the change in the color of the blood vessel is the difference or ratio between the maximum value and the minimum value of each RGB value of the pixel representing the blood vessel.
  • the ratio between the maximum value and the minimum value of the B value of the pixel representing the blood vessel, the ratio between the maximum value and the minimum value of the G value, or the ratio between the maximum value and the minimum value of the R value represents a change in the color of the blood vessel.
  • the color of the blood vessel and the change in the color of the blood vessel may be calculated for each value such as cyan, magenta, yellow, and green by converting to a complementary color.
  • the meandering degree of blood vessels is blood vessel information representing the size of the range in which the blood vessels meander and run.
  • the meandering degree of the blood vessel is, for example, the minimum rectangular area (number of pixels) including the blood vessel for which the meandering degree is calculated.
  • the ratio of the length of the blood vessel to the linear distance between the start point and end point of the blood vessel may be used as the degree of meandering of the blood vessel.
  • the blood concentration of blood vessels is blood vessel information proportional to the amount of hemoglobin contained in the blood vessels. Since the ratio (G / R) of the G value to the R value of the pixel representing the blood vessel is proportional to the amount of hemoglobin, the blood concentration can be calculated for each pixel by calculating the value of G / R.
  • Vessel oxygen saturation is the amount of oxygenated hemoglobin relative to the total amount of hemoglobin (total amount of oxygenated hemoglobin and reduced hemoglobin).
  • the oxygen saturation is calculated by using an endoscopic image obtained by photographing an observation target with light in a specific wavelength band (for example, blue light having a wavelength of about 470 ⁇ 10 nm) having a large difference in absorption coefficient between oxyhemoglobin and reduced hemoglobin. be able to.
  • a specific wavelength band for example, blue light having a wavelength of about 470 ⁇ 10 nm
  • the B value of the pixel representing the blood vessel has a correlation with the oxygen saturation. Therefore, by using a table or the like that associates the B value with the oxygen saturation, each pixel representing the blood vessel is used. The oxygen saturation can be calculated.
  • the arterial ratio is the ratio of the number of arterial pixels to the total number of blood vessels.
  • the vein ratio is the ratio of the number of vein pixels to the number of pixels of all blood vessels.
  • Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is used as an artery and a blood vessel having an oxygen saturation of less than 70% is used as a vein, the extracted blood vessel can be divided into an artery and a vein. Can be calculated.
  • the concentration of the administered pigment is the concentration of the pigment sprayed on the observation object or the pigment injected into the blood vessel by intravenous injection.
  • dye is calculated by the ratio of the pixel value of pigment color with respect to the pixel value of pixels other than pigment color, for example. For example, when a blue coloring pigment is administered, B / G, B / R, etc. represent the concentration of the pigment fixed (or temporarily attached) to the observation target.
  • the blood vessel running pattern is blood vessel information related to the blood vessel running direction.
  • the blood vessel traveling pattern is, for example, an average angle (traveling direction) of a blood vessel with respect to an arbitrarily set reference line, dispersion of angles formed by the blood vessel with respect to an arbitrarily set reference line (variation in traveling direction), or the like.
  • the blood flow volume of blood vessels (also called blood flow velocity) is the number of red blood cells that pass through per unit time.
  • the blood flow volume of the blood vessel can be calculated using the Doppler shift frequency of each pixel representing the blood vessel of the endoscopic image, for example, when an ultrasonic probe is used in combination via a forceps channel of the endoscope 12 or the like. .
  • the blood vessel index value calculation unit 83 calculates a plurality of types of blood vessel information Vi. That is, the blood vessel index value calculation unit 83 calculates a plurality of types of first blood vessel index values Di1, and calculates a plurality of types of second blood vessel index values Di2.
  • the plurality of types of first blood vessel index values Di1 and the plurality of types of second blood vessel index values Di2 are composed of the same elements.
  • the blood vessel index value calculation unit 83 calculates the “depth”, “thickness”, and “density” of the first blood vessel as the first blood vessel index value Di1, and the second blood vessel index value Di2 “ Calculate “depth”, “thickness”, and “density”.
  • the region of interest can be set for all or part of the endoscopic image by operating the input device 87.
  • the blood vessel index value calculation unit 83 calculates the blood vessel index value Di (blood vessel information Vi in this embodiment) in the region of interest.
  • the blood vessel index value calculation unit 83 sets the entire endoscopic image as the region of interest and sets the blood vessel index value. Di is calculated.
  • the blood vessel index value calculation unit 83 calculates a blood vessel index value Di for each pixel of the endoscopic image. For example, a blood vessel index of one pixel using data of pixels in a predetermined range including pixels for calculating the blood vessel index value Di (for example, a range of 99 ⁇ 99 pixels centering on a pixel for calculating the blood vessel index value Di).
  • the value Di is calculated.
  • blood vessel thickness blood vessel information Vi
  • the “blood vessel thickness” for each pixel is a statistic of the blood vessel thickness reflected in the predetermined range. is there.
  • the statistic is a so-called basic statistic, and is, for example, a maximum value, a minimum value, an average value, a median value, or a mode value.
  • statistics other than the exemplified values can also be used.
  • values calculated using so-called representative values such as maximum value, minimum value, average value, median value, or mode value (ratio of maximum value to minimum value, etc.), variance, standard deviation, coefficient of variation, etc.
  • a so-called spread degree can be used.
  • the blood vessel index value calculation unit 83 calculates a statistic of the blood vessel index value Di of each pixel included in the region of interest, and sets the value as the blood vessel index value Di of the region of interest. For example, when calculating the thickness of the blood vessel (blood vessel information Vi) as the blood vessel index value Di, when calculating the “blood vessel thickness” of each pixel as described above and setting the region of interest, A statistic of “blood vessel thickness” of each pixel included in the region of interest is calculated, and one “blood vessel thickness” is calculated for one set region of interest. The same applies when the entire endoscopic image is set as the region of interest.
  • the statistic when calculating the blood vessel index value for each pixel and the statistic when calculating the blood vessel index value of the region of interest may be the same statistic or different.
  • the average value of the blood vessel thickness of each pixel may be calculated, or the mode value of the blood vessel thickness of each pixel may be calculated.
  • the blood vessel index value Di is calculated for each pixel as described above, and then the statistic in the region of interest of the blood vessel index value Di calculated for each pixel is calculated. Is calculated, but the type of blood vessel index value Di to be calculated, the method of calculating the statistic when calculating the blood vessel index value Di for each pixel, and the method of calculating the statistic when calculating the blood vessel information of the region of interest Depending on the relationship, the calculation of the blood vessel index value Di for each pixel can be omitted.
  • blood vessel thickness the average value of the blood vessel thickness in the region of interest can be set to the blood vessel thickness of the region of interest.
  • the time change calculation unit 84 calculates the time change of the blood vessel index value Di.
  • the time change calculation unit 84 calculates the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1.
  • the difference ⁇ , the ratio R, or the change rate C per unit time may be the time change of the blood vessel index value Di.
  • the unit time is 1 year, 1 month, 1 day, 1 hour, 1 minute, 1 second, and the like.
  • “Calculating temporal change” of the blood vessel index value Di can calculate the difference ⁇ , the ratio R, or the change rate C in addition to actually calculating the difference ⁇ , the ratio R, or the change rate C. Holding the data of the first blood vessel index value Di and the second blood vessel index value Di in the state.
  • “Holding the data of the first blood vessel index value Di and the second blood vessel index value Di in a state where the difference ⁇ , the ratio R, or the change rate C can be calculated” means, for example, the first blood vessel index value Di1 and the first blood vessel index value Di1 A state in which the imaging time T1 of the endoscopic image 101 is associated, and the second blood vessel index value Di2 and the imaging time T2 of the second endoscopic image 102 are associated to create or display a graph of the blood vessel index value with respect to the imaging time. Say to be.
  • the blood vessel index value calculation unit 83 calculates the time change of the blood vessel index value Di for each blood vessel information Vi. For example, when calculating three types of blood vessel information Vi of “depth”, “thickness”, and “density” as the first blood vessel index value Di1 and the second blood vessel index value Di2, the time change calculation unit 84 A time change of “depth”, a time change of “thickness”, and a time change of “density” are calculated.
  • the determination unit 85 determines (or classifies) the state of the mucosa to be observed using the temporal change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1.
  • the “mucosal condition” to be observed is the overall status of the entire mucosa including blood vessels. For example, “normal”, “adenoma” (suspected adenoma), or “cancer” ( There is a suspicion).
  • the determination unit 85 determines the state of the mucosa to be observed from the difference ⁇ , the ratio R, or the change rate C between the first blood vessel index value Di1 and the second blood vessel index value Di2. For example, when “depth”, “thickness”, and “density” are calculated as the first blood vessel index value Di1 and the second blood vessel index value Di2, the determination unit 85 changes the “depth” with time, ”And time change of“ density ”are used to determine the state of the mucosa to be observed. The determination unit 85 determines the state of the mucous membrane to be observed by comparing the temporal change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 with a threshold value.
  • the determination unit 85 performs further calculation using the difference ⁇ , the ratio R, or the change rate C between the first blood vessel index value Di1 and the second blood vessel index value Di2, and according to the calculation result, the state of the mucosa to be observed Can be determined. In the present embodiment, the determination unit 85 determines the state of the mucosa to be observed based on the difference ⁇ between the first blood vessel index value Di1 and the second blood vessel index value Di2.
  • the threshold value used by the determination unit 85 in the present embodiment for determining the state of the mucosa to be observed is determined in advance, instead of using a predetermined threshold value as in the present embodiment,
  • the determination unit 85 uses statistics such as the blood vessel index value Di of each pixel of the first endoscopic image 101 and the average value of the blood vessel index value Di of each pixel of the second endoscopic image 102 to determine the mucosa to be observed. It can be used as a threshold value used for state determination.
  • the threshold is calculated using a part or all of the blood vessel index values Di of the endoscopic image.
  • the threshold value can be calculated using the blood vessel index value Di in the region of interest or the blood vessel index value Di in a predetermined range around the region of interest.
  • Other endoscopic images taken before and after 102 may be used.
  • the image processing device 65 displays the first endoscopic image 101 and the second endoscopic image 102 acquired by the image acquisition unit 81 and the determination result by the determination unit 85 on the monitor 88.
  • the monitor 88 includes a main window 115 and a sub window 116, and a determination result display unit 117.
  • the main window 115 and the sub window 116 display an endoscopic image
  • the determination result display unit 117 displays a determination result by the determination unit 85.
  • the main window 115 is an area for displaying an endoscopic image obtained by imaging the observation object relatively later
  • the sub-window 116 is an endoscope image obtained by imaging the observation object relatively earlier. This is the area to be displayed.
  • the image processing apparatus 65 displays the second endoscopic image 102 in the main window 115 and displays the first endoscopic image 101 in the sub window 116.
  • the monitor 88 is provided with the main window 115 and the sub window 116, but the sub window 116 is not necessarily required.
  • the first endoscopic image 101 and the second endoscopic image 102 may be switched and displayed on the main window 115 by a user operation or the like.
  • the image processing apparatus 65 acquires the first endoscopic image 101 and the second endoscopic image 102 from the storage 64 by the image acquisition unit 81 in accordance with the input operation of the input device 87 (S11), and displays them on the monitor 88. It is displayed (S12).
  • the image processing device 65 displays the first endoscope image 101 with the imaging time relatively ahead of the acquired first endoscope image 101 and the second endoscope image 102 on the sub-window 116, and the imaging time Displays the relatively second second endoscopic image 102 on the main window 115.
  • the doctor When the selected first endoscopic image 101 and second endoscopic image 102 are displayed on the monitor 88, the doctor operates the input device 87 so that the first endoscopic image 101 and the second endoscopic image are displayed.
  • Each region of interest is set in 102 (S13). For example, as shown in FIG. 7, there is a point of interest that requires diagnosis of whether or not there is a lesion (or the degree of progression of the lesion, etc.) in the vicinity of the center of the second endoscopic image 102 of the main window 115. For this reason, the doctor operates the input device 87 to set a region of interest 112 (hereinafter referred to as a second region of interest) 112 that includes the portion of interest in the second endoscopic image 102.
  • a region of interest 112 hereinafter referred to as a second region of interest
  • a region of interest (hereinafter referred to as a first region of interest) 111 including the same point of interest (or corresponding) to the point of interest of the second endoscopic image 102.
  • the blood vessel extracting unit 82 extracts the first blood vessel from the first endoscopic image 101 and extracts the second blood vessel from the second endoscopic image 102 (S14).
  • the second endoscopic image 102 is a special observation image in which blood vessels are emphasized by color.
  • the shape 122 of the mucosal surface to be observed can be observed, and is relatively close to the mucosal surface.
  • a thin superficial blood vessel 123 at a position is represented by a magenta color
  • a thick middle-thick blood vessel 124 at a relatively deep position below the mucosa is represented by a cyan color and is emphasized.
  • the blood vessel extraction unit 82 extracts the surface blood vessels 123 and the middle-deep blood vessels 124 as the second blood vessels as shown in the second blood vessel image 132 schematically shown in FIG. To do.
  • the blood vessel extraction unit 82 extracts the first blood vessel from the first endoscopic image 101 in the same manner as the extraction of the second blood vessel from the second endoscopic image 102.
  • the blood vessel index value calculation unit 83 sets the “depth”, “thickness”, “density”, and the like of the first blood vessel.
  • the plurality of types of blood vessel information Vi are calculated for each pixel, and the statistics of the first region of interest 111 are further calculated to calculate the plurality of types of first blood vessel index values Di1 in the first region of interest 111 ( S15).
  • the blood vessel index value calculation unit 83 sets a plurality of “depth”, “thickness”, “density”, and the like of the second blood vessel.
  • a plurality of types of second blood vessel index values Di2 are calculated in the second region of interest 112 by calculating the type of blood vessel information Vi for each pixel and further calculating the statistic of the second region of interest 112 (S15). .
  • the time change calculation unit 84 calculates the time change of these blood vessel index values (S16). Specifically, the blood vessel index value calculation unit 83 determines the depth, thickness, density, etc. of the first blood vessel (first blood vessel index value Di1) and the depth, thickness, density, etc. of the second blood vessel (first). 2 blood vessel index value Di2), the difference between the depth of the first blood vessel and the second blood vessel, the difference between the thickness of the first blood vessel and the thickness of the second blood vessel, and the density of the first blood vessel and the second blood vessel. The difference in blood vessel density is calculated.
  • the determination unit 85 calculates the difference between the depth of the first blood vessel and the second blood vessel calculated by the blood vessel index value calculation unit 83, the difference between the thickness of the first blood vessel and the thickness of the second blood vessel, and the first Using the difference between the density of the blood vessels and the density of the second blood vessels, the state of the mucosa to be observed is determined as “normal”, “adenoma”, “cancer”, or the like (S17).
  • the image processing device 65 displays the determination result of the determination unit 85 on the determination result display unit 117 of the monitor 88 (S18, see FIG. 5).
  • the image processing device 65 is the same as the image processing device 65 except for the selection of the first endoscopic image 101 and the second endoscopic image 102 and the setting of the first region of interest 111 and the second region of interest 112. Will do it automatically. For this reason, from the viewpoint of a doctor who uses the image processing device 65, when two endoscopic images are selected from the storage 64 and a region of interest is set for each of the endoscopic images selected on the monitor 88, The determination result relating to the state of the mucosa to be observed is automatically displayed on the determination result display unit 117. The doctor can immediately grasp the type of lesion to be suspected from this determination result, so that the diagnosis can be performed directly and more efficiently than when the blood vessel index value Di or the blood vessel information Vi is displayed, for example. That is, the image processing device 65 can support diagnosis more directly and effectively than a conventional endoscope system or the like.
  • the image processing device 65 determines the state of the mucous membrane to be observed from an unconventional point of view, that is, the time change of the blood vessel index value Di. For this reason, direct and effective diagnosis support can be performed even in a situation where it is difficult to make a definitive diagnosis only with the absolute value of the blood vessel index value Di (temporary value of the blood vessel index value Di).
  • the blood vessel index value calculation unit 83 calculates a plurality of types of blood vessel information Vi as the blood vessel index value Di. However, depending on the type of lesion, the time change of one type of blood vessel information Vi In some cases, it is possible to make a determination. For this reason, the blood vessel index value calculation unit 83 may calculate one type of blood vessel information Vi as the blood vessel index value Di.
  • the blood vessel index value calculation unit 83 calculates the blood vessel information Vi as the blood vessel index value Di, but as described above, an index value calculated using the blood vessel information Vi (hereinafter referred to as a blood vessel parameter). ) P can be a blood vessel index value Di.
  • the blood vessel index value calculation unit 83 includes a blood vessel information calculation unit 251 and a blood vessel parameter calculation unit 252.
  • the blood vessel information calculation unit 251 calculates a plurality of types of blood vessel information Vi regarding the blood vessels extracted by the blood vessel extraction unit 82, similarly to the blood vessel index value calculation unit 83 of the first embodiment. More specifically, blood vessel information Vi such as “depth”, “thickness”, and “density” of the first blood vessel extracted from the first endoscopic image 101 is calculated, and the second endoscopic image 102 is calculated. Blood vessel information Vi such as “depth”, “thickness”, and “density” of the second blood vessel extracted from is calculated. That is, the blood vessel information calculation unit 251 calculates a plurality of blood vessel information Vi of the same type (combination) for each of the first blood vessel and the second blood vessel.
  • the blood vessel parameter calculation unit 252 calculates an evaluation value called a blood vessel parameter by performing an operation using the plurality of blood vessel information Vi calculated by the blood vessel information calculation unit 251. Specifically, the blood vessel parameter calculation unit 252 calculates the blood vessel parameter P1 related to the first blood vessel by performing calculation using a plurality of types of blood vessel information Vi related to the first blood vessel. In addition, the blood vessel parameter calculation unit 252 calculates the blood vessel parameter P2 related to the second blood vessel by performing an operation using a plurality of types of blood vessel information Vi related to the second blood vessel.
  • the blood vessel parameter calculation unit 252 calculates a blood vessel parameter P1 by multiplying each of a plurality of types of blood vessel information Vi related to the first blood vessel by a weighting coefficient and taking the sum.
  • the weighting coefficient is stored in the weighting coefficient table 253 and is determined in advance by machine learning, for example.
  • the calculation for calculating the blood vessel parameter P2 using a plurality of types of blood vessel information Vi regarding the second blood vessel is the same as the calculation for calculating the blood vessel parameter P1, and the weighting coefficient used is also a weighting coefficient table used for calculating the blood vessel parameter P1. 253.
  • the blood vessel parameter P1 related to the first blood vessel and the blood vessel parameter P2 related to the second blood vessel are evaluation values for evaluating the state of the blood vessel to be observed by the same method (by the same calculation).
  • the values of the blood vessel parameter P1 and the blood vessel parameter P2 are basically different values except when they coincide by chance.
  • the difference between the blood vessel parameter P1 and the blood vessel parameter P2 reflects the difference between the imaging time T1 of the first endoscopic image 101 and the imaging time T2 of the second endoscopic image 102.
  • the blood vessel parameter calculation unit 252 calculates the weighted sum of the plurality of blood vessel information Vi as the blood vessel parameters P1 and P2 as described above, but the calculation method of the blood vessel parameters P1 and P2 is arbitrary.
  • the blood vessel parameters P1 and P2 may be calculated by performing a calculation in which addition, subtraction, multiplication, and division are mixed, or the blood vessel parameter may be calculated using another function.
  • the blood vessel parameters P1 and P2 are calculated by adding blood vessel information Vi having different dimensions (units), the blood vessel parameters P1 and P2 have no physical meaning, but function as a diagnostic index. That is, the blood vessel parameters P1 and P2 are different from the blood vessel information Vi in that they have values that have no physical meaning.
  • the blood vessel parameters P1 and P2 calculated as described above are suitable as the first blood vessel index value Di1 and the second blood vessel index value Di2, respectively.
  • the time change calculation unit 84 uses the difference ⁇ , the ratio R, or the blood vessel parameter P1 between the blood vessel parameter P1 and the blood vessel parameter P2.
  • the change rate C of the blood vessel parameter P2 with respect to is calculated.
  • the determination unit 85 determines the state of the mucosa to be observed based on the difference ⁇ , the ratio R between the blood vessel parameter P1 and the blood vessel parameter P2, or the change rate C of the blood vessel parameter P2 with respect to the blood vessel parameter P1.
  • the state of the mucous membrane is determined based on the temporal change of the blood vessel parameters P1 and P2
  • the state of the mucosa is determined more accurately than when the mucosal state is determined based on the temporal change of the blood vessel information Vi. Can do.
  • the endoscope system 10 stores the endoscope image in the storage 64, and the image processing device 65 later acquires the endoscope image from the storage 64 and calculates the blood vessel parameter.
  • the endoscope system 10 may determine the state of the mucous membrane almost in real time while observing the observation target.
  • the processor device 16 is provided with an image acquisition unit 81, a blood vessel extraction unit 82, a blood vessel index value calculation unit 83, a time change calculation unit 84, and a determination unit 85.
  • the configurations of the endoscope 12 and the light source device 14 are the same as those of the endoscope system 10 of the first embodiment.
  • the image acquisition unit 81 directly acquires the endoscopic image generated by the signal processing unit 62 from the signal processing unit 62 without using the storage 64. be able to. For this reason, the image acquisition unit 81 temporarily holds, for example, at least two or more endoscope images generated when a still image acquisition instruction is input, and the first endoscope image 101 of the first embodiment. And it inputs into the blood vessel extraction part 82 as the 2nd endoscopic image 102.
  • the oldest endoscope image (the endoscope image with the earliest imaging time) is used as the first endoscope image 101
  • the newest endoscopic image (the endoscopic image with the latest photographing time) can be used as the second endoscopic image 102.
  • the newest endoscopic image is used as the second endoscopic image 102, and the newest endoscopic image is taken as the first internal endoscope image taken before a predetermined time ⁇ with reference to the photographing time T2. It can also be used as the endoscopic image 101.
  • the operations of the blood vessel extraction unit 82, the blood vessel index value calculation unit 83, the time change calculation unit 84, and the determination unit 85 other than the image acquisition unit 81 are the same as those of the endoscope system 10 of the first embodiment.
  • the evaluation result by the determination unit 85 is displayed on the monitor 18 of the endoscope system 310 via the video signal generation unit 63.
  • the determination result display method is the same as in the first embodiment.
  • the processor device 16 also functions as the image processing device 65. For this reason, in the endoscope system 310, the state of the mucous membrane is determined while observing the observation target, so that diagnosis can be supported almost in real time.
  • the endoscope system 310 is suitable for observing the action when a drug is administered to an observation target or when the operation is performed on the observation target.
  • the image acquisition unit 81 directly acquires the endoscopic image generated by the signal processing unit 62, but instead of acquiring the endoscopic image directly from the signal processing unit 62, the first embodiment Similarly to the form and the like, the first endoscopic image 101 and the second endoscopic image 102 may be acquired from the storage 64.
  • an endoscopic image obtained by a past examination stored in the storage 64 may be used for the first endoscopic image 101.
  • the change in the state of the mucosa of the current observation target with respect to the state of the mucosa of the observation target in the past is the highest in the current examination. You can know in real time.
  • the endoscopic image acquired by the image acquisition unit 81 from the signal processing unit 62 is an endoscopic image generated when a still image acquisition instruction is input.
  • the state of the mucous membrane may be determined regardless of the image acquisition instruction.
  • the setting of the region of interest, the extraction of the blood vessel, the calculation of the blood vessel index value Di, the calculation of the time change of the blood vessel index value Di, and the determination of the state of the mucous membrane are automatically performed at preset time intervals. Is preferred.
  • the time interval for judging the state of the mucous membrane can be arbitrarily set by the doctor.
  • the state of the mucosa to be observed is determined using two endoscopic images of the first endoscopic image 101 and the second endoscopic image 102.
  • the state of the mucosa to be observed may be determined using the above endoscopic image.
  • the image acquisition unit 81 adds the first endoscope image 101 and the second endoscope image 102 from among the plurality of endoscope images 99 stored in the storage 64. Then, a third endoscopic image 403 obtained by imaging the observation target after the second endoscopic image 102 is acquired. That is, when the photographing time T1 of the first endoscopic image 101, the photographing time T2 of the second endoscopic image 102, and the photographing time T3 of the third endoscopic image 403 are compared, T1 ⁇ T2 ⁇ T3. .
  • the monitor 88 is provided with three endoscopic image display areas of a main window 414, a first sub window 415, and a second sub window 416. Then, when the image acquisition unit 81 acquires the first endoscopic image 101, the second endoscopic image 102, and the third endoscopic image 403, the image processing device 65 is relatively closest to the main window 414. A third endoscopic image 403 obtained by imaging the observation target later is displayed, a second endoscopic image 102 obtained by imaging the second observation target is displayed in the first subwindow 415, and the second subwindow is displayed. In 416, the first endoscopic image 101 obtained by imaging the observation target first is displayed.
  • the region of interest corresponding to is set in the same manner as in the first embodiment. That is, first, a region of interest (hereinafter, referred to as a third region of interest) 413 is set in the third endoscopic image 403, and the second endoscope image 102 is the same as the point of interest included in the third region of interest 413. A second region of interest 412 including a point of interest (or corresponding) is set. Similarly, the first region of interest 411 is set for the first endoscopic image 101.
  • the blood vessel extraction unit 82 starts from the first endoscopic image 101.
  • a first blood vessel is extracted, and a second blood vessel is extracted from the second endoscopic image 102.
  • the blood vessel to be observed is extracted from the third endoscopic image 403. Extract.
  • the blood vessel extracted from the third endoscopic image 403 is referred to as a third blood vessel.
  • the blood vessel index value calculation unit 83 calculates a plurality of types of blood vessel information Vi related to the first blood vessel as the first blood vessel index value Di1, and a plurality of types of blood vessel information Vi related to the second blood vessel as the second blood vessel index value Di2. Further, a plurality of types of blood vessel information Vi regarding the third blood vessel are calculated as the third blood vessel index value Di3.
  • the plurality of first blood vessel information, the plurality of second blood vessel information, and the plurality of third blood vessel information newly calculated in the present embodiment have the same type (combination of types).
  • the time change calculation unit 84 calculates the time change of the blood vessel index value in a plurality of time intervals, and the determination unit 85 determines the state of the mucosa to be observed by a combination of the time changes of the blood vessel index values in the plurality of time intervals. judge.
  • the plurality of time intervals are the interval from the imaging time T1 of the first endoscopic image 101 to the imaging time T2 of the second endoscopic image 102, and the imaging time T2 of the second endoscopic image 102. To the second endoscopic image 103 at the photographing time T3.
  • the time change calculation unit 84 calculates the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 and the time change of the third blood vessel index value Di3 with respect to the second blood vessel index value Di2. Then, the determination unit 85 uses the combination of the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 and the time change of the third blood vessel index value Di3 with respect to the second blood vessel index value Di2, Determine the state.
  • the time change calculation unit 84 calculates the difference ⁇ 21 between the second blood vessel index value Di2 and the first blood vessel index value Di1, and the difference between the third blood vessel index value Di3 and the second blood vessel index value Di2.
  • the determination unit 85 determines the state of the mucosa to be observed as “normal”, “adenoma”, “cancer” based on the positive / negative or absolute value of the difference ⁇ 21 and the positive / negative or absolute value of the difference ⁇ 32. And so on. More specifically, when the difference ⁇ 21 is positive and the difference ⁇ 32 is negative, the state of the mucosa to be observed is determined as “adenoma” or the like.
  • the state of the mucous membrane to be observed is determined using three or more endoscopic images, only two endoscopic images of the first endoscopic image 101 and the second endoscopic image 102 are obtained. It is possible to determine the state of the mucosa to be observed more accurately than when it is used.
  • the determination unit 85 calculates the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 and the time change of the third blood vessel index value Di3 with respect to the second blood vessel index value Di2.
  • the state of the mucous membrane may be determined by combining the values of the first blood vessel index value Di1, the second blood vessel index value Di2, and the third blood vessel index value Di3.
  • the time change calculation unit 84 changes the time of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 and the time change of the third blood vessel index value Di3 with respect to the second blood vessel index value Di2.
  • the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1 and the time change of the third blood vessel index value Di3 with respect to the first blood vessel index value Di1 may be calculated.
  • the time change of the first blood vessel index value Di1 with respect to the second blood vessel index value Di2 and the time change of the third blood vessel index value Di3 with respect to the second blood vessel index value Di2 may be calculated. Since these all represent substantially the same time change of the blood vessel index value Di, the determination unit 85 can determine the state of the mucosa to be observed in the same manner as in the fourth embodiment.
  • the determination unit 85 can determine the state of the mucous membrane by a method different from the above. For example, as shown in FIG. 15, the time change of the blood vessel index value Di from the first blood vessel index value Di1 to the third blood vessel index value Di3 is compared with the first threshold TH1, and the blood vessel index value Di is the first threshold TH1. The length of the period Et that is equal to or greater than (or less than the first threshold value TH1, greater than the first threshold value TH1, and less than the first threshold value TH1) is calculated. Then, the determination unit 85 determines the state of the mucous membrane to be observed based on the calculated length of the period Et.
  • the state of the mucous membrane to be observed is determined by dividing into a case where the calculated period Et is zero, a case where the period Et is equal to or greater than the second threshold TH2, and a case where the period Et is less than the second threshold TH2. Can do.
  • the method for determining the state of the mucosa to be observed based on the length of the period Et that satisfies the condition defined by the blood vessel index value Di uses three or more endoscopic images as in the fourth embodiment. This is particularly suitable for the case, but is also suitable for the case of using two endoscopic images as in the first to third embodiments.
  • the blood vessel index value calculation unit 83 calculates the blood vessel index value Di of the region of interest 111 and the region of interest 112 in addition to calculating the blood vessel index value Di of the region of interest 111 and the region of interest 112, It is preferable to determine the state of the mucosa to be observed in consideration of the blood vessel index value di of the region other than the region of interest 111 and the region of interest 112.
  • the blood vessel index value calculation unit 83 adds the hatching of the region of interest 111 outside the region of interest 111 for convenience in addition to the first blood vessel index value Di1 of the region Ri in the region of interest 111 of the first endoscopic image 101 shown in FIG.
  • the first blood vessel index value di1 is also calculated for the region Ro.
  • the blood vessel index value calculation unit 83 adds the second blood vessel index value di2 for the region outside the region of interest 112 in addition to the second blood vessel index value Di2 of the region within the region of interest 112 of the second endoscopic image 102. calculate.
  • the time change calculation unit 84 calculates the “space change of the blood vessel index value” using the blood vessel index values Di and di inside and outside the region of interest 111 and the region of interest 112, and further calculates the time of the “space change of the blood vessel index value”. Calculate the change.
  • the time change calculation unit 84 calculates the difference, ratio, or rate of change between the first blood vessel index values Di1 and di1 inside and outside the region of interest 111, and the second blood vessel index inside and outside the region of interest 112.
  • the difference, ratio, or rate of change between the values Di2 and di2 is calculated.
  • the difference, ratio, or rate of change between the first blood vessel index values Di1 and di1 inside and outside the region of interest 111 is the “space change of blood vessel index values” S1 related to the first endoscope image 101.
  • the difference, ratio, or rate of change between the second blood vessel index values Di2 and di2 inside and outside the region of interest 112 is the “space change in blood vessel index value” S2 regarding the second endoscopic image 102.
  • the temporal change calculation unit 84 calculates the temporal change of “the spatial change of the blood vessel index value”. That is, the difference, ratio, or rate of change between the two spatial changes S1, S2 is calculated.
  • the difference, ratio, or rate of change between the spatial changes S1 and S2 is the time change ⁇ of the “spatial change of blood vessel index value”.
  • the determination unit 85 determines the state of the mucosa to be observed based on the time change ⁇ of the “space change of the blood vessel index value”. In this way, the influence of the individual difference of the observation target on the determination result is reduced, and a more accurate determination result can be obtained.
  • the monitor 88 includes the determination result display unit 117 and displays the determination result by the determination unit 85 such as “adenoma” on the determination result display unit 117 (FIG. 5).
  • the determination result by the determination unit 85 may be displayed by another method.
  • the monitor 88 may pop up the determination result by the determination unit 85 instead of the determination result display unit 117.
  • a message indicating the determination result is displayed in a pop-up.
  • the time change value of the blood vessel index value Di, the value of the blood vessel index value Di, or the like is displayed as a determination result or together with the determination result. It may be displayed.
  • the display setting for the above pop-up display may be performed using the time change of the blood vessel index value.
  • the display color such as the outline color, character color, and background color of the pop-up display, the font and thickness of the character, the line type and thickness of the contour line, etc. are changed with time. It is preferable to change the display setting to make the display contents stand out depending on the magnitude of the time change of the blood vessel index value Di.
  • the monitor 88 uses the determination result of the determination unit 85 to display the first endoscopic image 101 or the second endoscopic image 102 in which the portion where the state of the mucous membrane has been determined is displayed. Results may be displayed. For example, as shown in FIG. 18, the region of interest 111 or 112 for which the state of the mucous membrane has been determined is colored. The color used to determine the condition of the mucous membrane is uncolored when the judgment result is “normal”, orange when the judgment result is “adenoma”, and when the judgment result is “cancer” Is changed according to the determination result of the determination unit 85, such as red. Thus, the determination result can be displayed with good visibility together with the first endoscopic image 101 or the second endoscopic image 102.
  • the image processing device 65 When displaying the first endoscopic image 101 or the second endoscopic image 102 in which the portion where the state of the mucous membrane is determined is displayed, as shown in FIG. 19, the image processing device 65 is provided with a coloring processing unit 501. .
  • the coloring processing unit 501 uses the information (positions and ranges of the region of interest 111 and the region of interest 112) related to the portion for which the state of the mucous membrane has been determined and the determination result by the determination unit 85 to determine whether the first endoscope image 101 or the second The above-described coloring process is performed on the endoscopic image 102.
  • the color used to color the portion for which the state of the mucous membrane has been determined uses the time change calculated by the time change calculation unit 84 (in the first embodiment, the time change of the second blood vessel index value Di2 with respect to the first blood vessel index value Di1). It is preferable to set.
  • the coloring processing unit 501 obtains information on the time change calculated by the time change calculation unit 84 from the time change calculation unit 84. Then, the value of the time change calculated by the time change calculation unit 84 is compared with a threshold (hereinafter referred to as a third threshold TH3), and the difference ⁇ between the value of the time change calculated by the time change calculation unit 84 and the third threshold TH3 is calculated.
  • a threshold hereinafter referred to as a third threshold TH3
  • the color of the portion of the first endoscopic image 101 or the second endoscopic image 102 that is displayed on the monitor 88 that has determined the state of the mucous membrane is proportional to the difference ⁇ , as shown by a solid line in FIG.
  • the value of the R channel (the red pixel of the image displayed on the monitor 88).
  • the B channel the blue pixel of the image displayed on the monitor 88
  • the G channel the green pixel of the image displayed on the monitor 88.
  • the relationship between the difference ⁇ and the value of each channel may be changed for each RGB channel.
  • the relationship between the difference ⁇ and each channel may be set as a curve as shown by a broken line in FIG. 20, or may be set stepwise as shown by a one-dot chain line. Further, the relationship between the difference ⁇ and each channel may be determined by other functions.
  • the regions of interest 111 and 112 are shaded, but only the frames of the regions of interest 111 and 112 are colored.
  • an abnormal portion in the region of interest 111 and 112 may be selectively colored.
  • An abnormal part can be selected by the value of the blood vessel index value Di of each pixel, for example.
  • the color of the portion where the state of the mucous membrane has been determined may be changed according to the blood vessel index value Di which is determined to be abnormal.
  • the blood vessel index value Di which is determined to be abnormal.
  • the time change of the blood vessel density is an abnormal value
  • the time change of the blood vessel thickness is an abnormal value
  • a priority is set in advance for the blood vessel index value Di, and when two or more blood vessel index values Di are abnormal values, the color set with the higher priority is adopted.
  • the monitor 88 displays the determination result by the determination unit 85 on the determination result display unit 117 (see FIG. 5). However, as shown in FIG. You may display the enlarged image 502 which expanded the part which carried out. In particular, when the enlarged image 502 is displayed when the determination result by the determination unit 85 is other than “normal” (in the case of a determination result indicating some abnormality), the portion where the state of the mucous membrane is determined is easily examined based on the determination result. can do. In FIG.
  • the enlarged image 502 obtained by enlarging the portion of the second endoscopic image 102 from which the state of mucosa has been determined is displayed on the monitor 88, but the portion of the first endoscopic image 101 from which the state of mucosa has been determined is displayed. You may display the enlarged image which expanded.
  • the enlargement ratio (the size of the enlarged image 502) of the portion where the state of the mucous membrane has been determined may be set using the time change of the blood vessel index value Di.
  • the larger the time change of the blood vessel index value Di the larger the enlargement ratio of the portion where the state of the mucosa was determined, so that the portion where the state of the mucosa was determined becomes more conspicuous.
  • the enlarged image 502 may not completely match the region of interest 112 that has determined the state of the mucous membrane. For example, an enlarged image including a normal part around the region of interest 112 for which the state of the mucous membrane has been determined may be displayed.
  • the enlarged image 502 is displayed instead of the sub-window 116 that displays the first endoscopic image 101, but the enlarged image 502 may be displayed in a pop-up manner, and the first endoscopic image 101, You may display on the display area different from the 2nd endoscopic image 102 and the determination result display part 117.
  • FIG. 21 the enlarged image 502 may not completely match the region of interest 112 that has determined the state of the mucous membrane.
  • an enlarged image including a normal part around the region of interest 112 for which the state of the mucous membrane has been determined may be displayed.
  • the enlarged image 502 is displayed instead of the sub-window 116 that displays the first endoscopic image 101, but the enlarged image 502 may be displayed in a pop
  • the determination unit 85 determines the state of the mucosa to be observed as one state, but the determination unit 85 can determine the state of the mucosa to be observed from a plurality of viewpoints. it can.
  • the blood vessel index value calculation unit 83 calculates a plurality of types of blood vessel index values Di (a plurality of types of blood vessel information Vi), and the time change calculation unit 84 calculates each time change of the plurality of types of blood vessel index values Di. Since the calculation is performed, the determination unit 85 can determine the mucous membrane to be observed from a plurality of viewpoints by combining each time change of the plurality of types of blood vessel index values Di.
  • the blood vessel index value calculation unit 83 calculates three types of blood vessel index values Di, that is, the blood vessel index value DiA, the blood vessel index value DiB, and the blood vessel index value DiC, and the time change calculation unit 84 calculates the time change of the blood vessel index value DiA.
  • ⁇ A, time change ⁇ B of blood vessel index value DiB, and time change ⁇ C of blood vessel index value DiC are calculated. If the time changes ⁇ A and ⁇ B are used, it can be determined whether or not the state of the mucosa to be observed is the lesion L1. If the time changes ⁇ A and ⁇ C are used, the state of the mucosa to be observed is determined as the lesion L2 (for example, the lesion L1).
  • the determination unit 85 determines the state of the mucous membrane as the observation target from the first viewpoint that determines whether or not the lesion is L1, and observes from the second viewpoint that determines whether or not the lesion is L2.
  • the state of the subject's mucosa can be determined.
  • the determination result display unit 117 of the monitor 88 shows the determination results from each viewpoint as shown in FIG. It is preferable to display a list 505 of determination results.
  • the determination result (“normal”) is displayed in the determination result list 505.
  • the determination result list 505 displays all the determination results including those with normal determination results. However, only the determination results indicating abnormality (determination results other than “normal”) are displayed in the list 505. Also good.
  • the display setting of the determination result list 505 may be performed using the time change of the blood vessel index value Di. That is, the display color such as the outline color, character color, and background color of the list 505, the font and thickness of the character, the line type and thickness of the outline line, etc. are used using the time change of the blood vessel index value Di. It is good to make the display contents stand out according to the magnitude of the time change.
  • the list 505 displays only the determination results from each viewpoint, it is preferable that the list 505 also displays information other than the determination results.
  • the coordinates in the endoscopic image of the mucous membrane to be determined, the blood vessel index value Di used for the determination, the blood vessel index value Di or the value of the time change thereof, and the like may be displayed together with the determination result.
  • the determination result indicates an abnormality (determination result other than “normal”), the determination result is first displayed.
  • the photographing time (start frame) of the endoscopic image at which the image becomes abnormal and the photographing time (end frame) of the endoscopic image whose determination result finally shows abnormality.
  • the blood vessel index value Di is a specific value. It is preferable to display the time when the condition is first satisfied (start time of the period Et) and the time when the blood vessel index value Di last satisfies the specific condition (end time of the period Et).
  • Various types of information that are preferably displayed in the list 505 together with the determination result may be displayed in a pop-up when the determination result in the list 505 in FIG. 22 is selected instead of displaying the determination result in the list 505 from the beginning. Good.
  • the operation menu 510 is operated so that the display required by the doctor can be selected from the display method of the determination results of the various modifications and the enlarged display of the portion where the state of the mucous membrane is determined.
  • the operation menu 510 is displayed in the second endoscopic image 102, but the display position of the operation menu 510 is arbitrary. Further, the display content and display color of the text of the operation menu 510 (“!!” in FIG. 23) are arbitrary.
  • the determination result by the determination unit 85 can be displayed.
  • the display color of the operation menu 510 (the color of the text displayed on the operation menu 510 or the color of the entire icon) is determined by the determination unit 85 in the same manner as when the mucosal state is determined (see FIG. 18). It is preferable to change by.
  • the determination unit 85 desirably determines the state of the mucous membrane into three or more types of states including normal, adenoma, and cancer.
  • normal, hyperplastic polyp HP: Hyperplastic Polyp
  • SSA / P Sessile Serrated Adenoma / Polyp
  • TSA adenoma
  • LST Laterally Spreading Tumor
  • the determination unit 85 preferably uses the value of the blood vessel index value Di in addition to the temporal change of the blood vessel index value Di.
  • hyperplastic polyps were considered to have a low risk of canceration and need not be treated.
  • examples of cancerous SSA / P similar to hyperplastic polyps have been discovered.
  • the determination unit 85 can distinguish between the hyperplastic polyp and the SSA / P.
  • the determination is made by combining the values of the blood vessel index value Di. By doing so, it is possible to distinguish SSA / P from the hyperplastic polyp with higher probability.
  • the determination unit 85 uses the time change of the blood vessel index value Di, or uses the time change of the blood vessel index value Di and the value of the blood vessel index value Di. Furthermore, it is preferable to determine the stage of cancer.
  • the determination result display unit 117 preferably displays the cancer stage determined by the determination unit 85. Thus, if the stage of the mucosa to be observed is determined to be cancer, the stage is further determined, and the result is displayed on the monitor 88, so that the diagnosis can be further supported.
  • one region of interest is set for each endoscopic image such as the first endoscopic image 101 displayed on the monitor 88.
  • the first region displayed on the monitor 88 is the first region of interest.
  • a plurality of regions of interest may be set for each endoscopic image such as the endoscopic image 101.
  • each region obtained by dividing the entire endoscopic image into meshes can be set as a region of interest, and the blood vessel index value Di and its temporal change can be calculated in each region of interest.
  • the doctor may be able to set an arbitrary number of regions of interest at arbitrary locations.
  • the endoscope system 10 (or the endoscope system 310) that performs observation by inserting the endoscope 12 provided with the imaging sensor 48 into the subject.
  • the present invention is also suitable for a capsule endoscope system.
  • the capsule endoscope system includes at least a capsule endoscope 600 and a processor device (not shown).
  • the capsule endoscope 600 includes a light source 602, a light source control unit 603, an image sensor 604, an image signal acquisition processing unit 606, and a transmission / reception antenna 608.
  • the light source 602 is configured similarly to the light source 20 of the endoscope system 10, and emits illumination light under the control of the light source control unit 603.
  • the image signal acquisition processing unit 606 functions as the image signal acquisition unit 53, the DSP 56, the noise reduction unit 58, and the signal processing unit 62.
  • the processor device of the capsule endoscope system is configured similarly to the processor device 16 of the endoscope system 310, and also functions as the image processing device 65.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Hematology (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

観察対象の血管の時間的な変化を考慮して観察対象の粘膜の状態を判定し、直接的かつ効果的に診断を支援する画像処理装置、内視鏡システム、及び画像処理方法を提供する。 画像処理装置(65)は、内視鏡(12)によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得する画像取得部(81)と、複数の内視鏡画像から血管を抽出する血管抽出部(82)と、内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出する血管指標値算出部(83)と、血管指標値の時間変化を算出する時間変化算出部(84)と、血管指標値の時間変化を用いて観察対象の粘膜の状態を判定する判定部(85)と、判定部(85)の判定結果を表示するモニタ(88)と、を備える。

Description

画像処理装置、内視鏡システム、及び画像処理方法
 本発明は、内視鏡で撮影した内視鏡画像を用いて、診断に供するデータを算出して診断を支援する画像処理装置、内視鏡システム、及び画像処理方法に関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムを用いた診断では、内視鏡の挿入部を被検体内に挿入して先端部から照明光を照射し、照明光が照射された観察対象(被検体内の粘膜等)を、内視鏡の先端部に搭載した撮像センサで撮像する。そして、撮像によって得られた画像信号を用いて観察対象の画像(以下、内視鏡画像という)を生成し、モニタに表示する。
 内視鏡システムでは、通常は、白色の照明光(通常光とも言う)が照射された観察対象を撮像することにより、観察対象を自然な色合いで観察可能な内視鏡画像(以下、通常光画像という)を表示する。さらに、特定の波長帯域を有する光を照明光として用いることで、観察対象の血管やピットパターン等を強調した内視鏡画像(以下、特殊観察画像という)を得る内視鏡システムも普及している。内視鏡画像を用いて診断をする場合、血管やピットパターン等に関する情報は重要な診断材料であるため、これらを強調した特殊観察画像は診断に特に有用である。
 さらに、近年では、単に血管を強調するだけでなく、内視鏡画像(あるいは内視鏡画像の生成に使用する画像信号)を用いて、血管の深さ、太さ、または密度等を算出することで、医師の診断をアシストする内視鏡システムや診断支援装置が知られている(特許文献1,2)。また、血管の密度等、内視鏡画像を用いて算出できる血管に関する情報(以下、血管情報という)の経時変化を表示して診断を支援するシステムも知られている(特許文献3,4)。例えば、特許文献3のシステムでは、血管情報の1つである酸素飽和度の時間変化をリアルタイムにモニタに表示する。特許文献4のシステムは、観察対象が発する蛍光の強度の時間変化をグラフにして表示する。
 また、内視鏡画像の特徴量を求め、求めた特徴量を用いて病変を判定または分類することにより、診断を支援する内視鏡システム等が知られている(特許文献5,6)。さらに、病変と判定した画素の色を変更したり、病変にアラート画像を重畳したりすることで、病変を強調する内視鏡システム等が知られている(特許文献7,8)。
特開2007-061638号公報 特開2011-217798号公報 特開2012-235926号公報 特開2015-066129号公報 特開2002-165757号公報 特開平10-014864号公報 特開2014-018333号公報 特開2011-255006号公報
 血管の密度や酸素飽和度等の血管情報は、内視鏡画像を用いる診断の決め手ともなり得る極めて重要度が高い情報であるため、特許文献1~4の内視鏡システム等のように、血管情報を算出すれば、診断を支援することができる。なかでも特許文献3,4は、血管情報の時間変化を表示しており、血管情報の値だけでなく、血管情報の時間変化がわからなければ確定的な判断を下せないケースでも診断を支援することができるので、診断支援効果は特に高い。
 しかし、内視鏡システム等が算出する血管情報をどのように捉えて病変の判定や分類をするかは、医師の知識や経験に委ねられており、診断時の負担はまだまだ大きい。このため、血管情報を算出する内視鏡システム等には、さらに直接的に診断に結びつく情報によって、より効果的に診断を支援することが求められる。
 一方、特許文献5,6は、内視鏡画像の特徴量を求め、求めた特徴量を用いて病変を判定または分類し、その結果(想定される診断名等)を表示するので、直接的に診断に結びつきやすい情報を提示している。しかし、特許文献5,6が算出する特徴量は、粘膜表面の色調や模様の構造パターン(主に方向性)に関する特徴量であるため、血管情報が診断の指針となる病変については、判定や分類は難しい。また、1枚の内視鏡画像を用いて特徴量を算出しており、病変の判定または分類には、観察対象(特に血管情報)の時間的な変化は全く考慮していない。
 本発明は、観察対象の血管の時間的な変化を考慮して観察対象の粘膜の状態を判定し、その結果を表示することにより、従来よりも直接的かつ効果的に診断を支援する画像処理装置、内視鏡システム、及び、画像処理方法を提供することを目的とする。
 本発明の画像処理装置は、内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得する画像取得部と、複数の内視鏡画像から観察対象の血管をそれぞれ抽出する血管抽出部と、内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出する血管指標値算出部と、血管指標値の時間変化を算出する時間変化算出部と、血管指標値の時間変化を用いて観察対象の粘膜の状態を判定する判定部と、判定部の判定結果を表示する表示部と、を備える。
 血管指標値算出部は、血管抽出部が抽出した血管の本数、太さ、太さの変化、太さの変化の複雑度、長さ、長さの変化、分岐数、分岐角度、分岐点間距離、交差数、傾き、面積、密度、粘膜を基準とした深さ、高低差、間隔、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうちいずれかの血管情報を血管指標値として算出する請求項1に記載の画像処理装置。
 血管指標値算出部は、血管抽出部が抽出した血管の本数、太さ、太さの変化、太さの変化の複雑度、長さ、長さの変化、分岐数、分岐角度、分岐点間距離、交差数、傾き、面積、密度、粘膜を基準とした深さ、高低差、間隔、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうちいずれかの血管情報を算出する血管情報算出部と、複数の血管情報を用いて演算をすることにより血管パラメータを算出する血管パラメータ算出部と、を備え、血管指標値算出部は、血管パラメータを血管指標値とすることが好ましい。
 時間変化算出部は、複数の血管指標値の差、比、または、変化率を算出することが好ましい。
 血管指標値算出部は、複数種類の血管指標値を算出し、時間変化算出部は、血管指標値の種類ごとに時間変化を算出し、判定部は、血管指標値の種類ごとの時間変化を用いて観察対象の粘膜の状態を判定することが好ましい。
 判定部は、複数の時間的区間における血管指標値の時間変化の組み合わせによって観察対象の粘膜の状態を判定することが好ましい。
 判定部は、血管指標値が閾値以上または閾値未満になる期間の長さを算出し、算出した期間の長さによって観察対象の粘膜の状態を判定することが好ましい。
 複数の内視鏡画像に関心領域を設定する場合、血管指標値算出部は、関心領域の血管指標値を算出することに加え、関心領域外の血管指標値を算出し、時間変化算出部は、関心領域内外の血管指標値を用いて血管指標値の空間変化を算出し、さらに、血管指標値の空間変化の時間変化を算出し、判定部は、血管指標値の空間変化の時間変化によって粘膜の状態を判定することが好ましい。
 表示部に、判定部の判定結果をポップアップ表示することが好ましい。
 血管指標値の時間変化を用いて、ポップアップ表示の表示設定をすることが好ましい。
 表示部に、判定部の判定結果を用いて粘膜の状態を判定した部分を着色した内視鏡画像を表示することが好ましい。
 表示部に、血管指標値の時間変化を用いて内視鏡画像を着色する部分の色を設定することが好ましい。
 表示部に、判定部の判定結果のリストを表示することが好ましい。
 血管指標値の時間変化を用いて、リストの表示設定をすることが好ましい。
 表示部に、内視鏡画像の粘膜の状態を判定した部分を拡大して表示することが好ましい。
 血管指標値の時間変化を用いて、内視鏡画像の粘膜の状態を判定した部分の拡大率を設定することが好ましい。
 本発明の内視鏡システムは、観察対象を撮像する内視鏡と、内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得する画像取得部と、複数の内視鏡画像から観察対象の血管をそれぞれ抽出する血管抽出部と、内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出する血管指標値算出部と、血管指標値の時間変化を算出する時間変化算出部と、血管指標値の時間変化を用いて観察対象の粘膜の状態を判定する判定部と、を有するプロセッサ装置と、判定部の判定結果を表示する表示部と、を備える。
 本発明の画像処理方法は、画像取得部が、内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得するステップと、複数の内視鏡画像から観察対象の血管をそれぞれ抽出するステップと、血管指標値算出部が、視鏡画像から抽出した血管についてそれぞれ血管指標値を算出するステップと、時間変化算出部が、血管指標値の時間変化を算出するステップと、判定部が、血管指標値の時間変化を用いて観察対象の粘膜の状態を判定するステップと、を備える。
 本発明の画像処理装置、内視鏡システム、及び画像処理方法は、観察対象の血管の時間的な変化を考慮して観察対象の粘膜の状態を判定し、その結果を表示するので、従来よりも直接的かつ効果的に診断を支援することができる。
内視鏡システムの外観図である。 内視鏡システムのブロック図である。 画像処理装置のブロック図である。 ストレージに保存した内視鏡画像を示す説明図である。 モニタの表示画面である。 画像処理装置の動作を示すフローチャートである。 関心領域の設定方法を示す説明図である。 第2内視鏡画像の模式図である。 抽出した第2血管を表す第2血管画像である。 第2実施形態の血管指標値算出部のブロック図である。 第3実施形態の内視鏡システムのブロック図である。 第4実施形態で用いる第3内視鏡画像を示す説明図である。 第4実施形態におけるモニタの表示画面である。 第1~第3血管指標値の時間変化を示すグラフである。 血管指標値が特定の条件を満たす期間Etを示すグラフである。 関心領域の内外の領域を示す説明図である。 判定結果をポップアップ表示する表示形態の説明図である。 粘膜の状態を判定した部分を着色して判定結果を表示する表示形態の説明図である。 粘膜の状態を判定した部分を着色する場合の画像処理装置のブロック図である。 閾値との差δとRチャンネルの値の対応関係を示すグラフである。 粘膜の状態を判定した部分を拡大表示する表示形態の説明図である。 判定結果のリストを表示する表示形態の説明図である。 判定結果を表示するための操作メニューを示す説明図である。 カプセル内視鏡の概略図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。内視鏡12は光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続する。内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって、先端部12dが所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、静止画像取得指示部13a、ズーム操作部13bが設けられている。静止画像取得指示部13aは、内視鏡システム10に静止画像の取得指示を入力する場合に操作する。静止画像の取得指示には、モニタ18に観察対象の静止画像を表示するフリーズ指示と、静止画像をストレージに保存するレリーズ指示がある。ズーム操作部13bは、撮像倍率を変更するための撮像倍率変更指示を入力するために用いられる。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続する。モニタ18は、観察対象の画像や、画像に付帯する情報等を出力表示する。コンソール19は、機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。
 図2に示すように、光源装置14は、観察対象に照射する照明光を発する光源20と、光源20を制御する光源制御部22とを備えている。光源20は、例えば、複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、またはキセノンランプ等のハロゲン光源で構成される。また、光源20には、LED等が発光した光の波長帯域を調整するための光学フィルタ等が含まれる。光源制御部22は、LED等のオン/オフや、LED等の駆動電流や駆動電圧の調整によって、照明光の光量を制御する。また、光源制御部22は、光学フィルタの変更等によって、照明光の波長帯域を制御する。
 内視鏡システム10は、観察対象を通常観察画像で観察するための通常観察モードと、観察対象を特殊観察画像で観察するための特殊観察モードの2種類の観察モードを有する。観察モードが通常観察モードの場合、光源制御部22は、光源20によってほぼ白色の照明光を発生させる。観察モードが特殊観察モードの場合、光源制御部22は、光源20によって、特定の狭い波長帯域を有する照明光(以下、狭帯域光という)を発生させる。観察モードは、操作部12bに設けられたモード切り替えスイッチ(図示しない)によって切り替えられる。
 光源20が発した照明光は、挿入部12a内に挿通したライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコードに内蔵しており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有しており、ライトガイド41によって伝搬した照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47、及び撮像センサ48を有している。観察対象からの反射光、散乱光、及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像する。ズームレンズ47は、ズーム操作部13bを操作することでテレ端とワイド端の間で自在に移動し、撮像センサ48に結像する観察対象を拡大または縮小する。
 撮像センサ48は、画素毎にR(赤色)、G(緑色)、またはB(青色)のカラーフィルタのいずれかが設けられたカラー撮像センサであり、観察対象を撮像してRGB各色の画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサを利用可能である。また、原色のカラーフィルタが設けられた撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号が出力される。このため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
 撮像センサ48が出力する画像信号は、CDS/AGC回路51に送信される。CDS/AGC回路51は、アナログ信号である画像信号に相関二重サンプリング(CDS:Correlated Double Sampling)や自動利得制御(AGC:Automatic Gain Control)を行う。CDS/AGC回路51を経た画像信号は、A/D(Analog to Digital)コンバータ52により、デジタル画像信号に変換される。A/D変換後のデジタル画像信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、画像信号取得部53と、DSP(Digital Signal Processor)56と、ノイズ低減部58と、メモリ61と、信号処理部62と、映像信号生成部63と、を備えている。
 画像信号取得部53は、内視鏡12からデジタル画像信号を取得する。DSP56は、画像信号取得部53が取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号を補正する。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除き、正確なゼロレベルを設定する。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルを整える。
 ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理を施す。その後、ガンマ変換処理によって明るさや彩度を整える。ガンマ変換処理後の画像信号には、デモザイク処理(等方化処理、または同時化処理とも言う)を施し、各画素で不足した色の信号を補間によって生成する。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。ノイズ低減部58は、DSP56でデモザイク処理等を施した画像信号に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ低減処理を施し、ノイズを低減する。ノイズを低減した画像信号は、メモリ61に記憶する。
 信号処理部62は、メモリ61からノイズ低減後の画像信号を取得する。そして、取得した画像信号に対して、必要に応じて、色変換処理、色彩強調処理、及び構造強調処理等の信号処理を施し、観察対象が写ったカラーの内視鏡画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(ルックアップテーブル)処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像信号に対して行う。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。信号処理部62が生成する内視鏡画像は、観察モードが通常観察モードの場合は通常観察画像であり、観察モードが特殊観察モードの場合は特殊観察画像であるため、色変換処理、色彩強調処理、及び構造強調処理の内容は、観察モードによって異なる。通常観察モードの場合、信号処理部62は、観察対象が自然な色合いになる上記各種信号処理を施して通常観察画像を生成する。特殊観察モードの場合、信号処理部62は、少なくとも観察対象の血管を強調する上記各種信号処理を施して特殊観察画像を生成する。信号処理部62が生成する特殊観察画像では、粘膜の表面を基準として観察対象内の比較的浅い位置にある血管(いわゆる表層血管)は、マゼンタ系の色(例えばブラウン色)になり、粘膜の表面を基準とし観察対象内の比較的深い位置にある血管(いわゆる中深層血管)は、シアン系の色(例えば緑色)になる。このため、ピンク系の色で表される粘膜に対して、観察対象の血管が色の違いで強調される。
 信号処理部62は、生成した内視鏡画像を映像信号生成部63に入力する。映像信号生成部63は、内視鏡画像をモニタ18に出力表示するための映像信号に変換する。また、静止画像取得指示部13aの操作により、レリーズ指示を入力すると、信号処理部62は、生成した内視鏡画像をストレージ64に保存する。ストレージ64は、プロセッサ装置16にLAN(Local Area Network)等接続した外部記憶装置であり、例えば、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバや、NAS(Network Attached Storage)等である。ストレージ64に保存した内視鏡画像は、画像処理装置65で使用する。
 画像処理装置65は、内視鏡画像に画像処理を施して、診断支援のために、血管パラメータを算出し、かつ、血管パラメータを用いて血管変化指標を算出する装置である。図3に示すように、画像処理装置65は、画像取得部81と、血管抽出部82と、血管指標値算出部83と、時間変化算出部84と、判定部85と、を備える。また、画像処理装置65には、関心領域(ROI : Region Of Interest)の指定等に用いるポインティングデバイスやキーボードなどを含む入力デバイス87や、内視鏡画像や判定部85による判定結果等を表示する表示部として機能するモニタ88が接続している。
 画像取得部81は、内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を、ストレージ64から取得する。ストレージ64に保存されている内視鏡画像には、通常観察画像と特殊観察画像とがあるが、本実施形態では、画像取得部81は、血管を強調した特殊観察画像をストレージ64から取得する。
 図4に示すように、ストレージ64には、時間的に異なる時刻(年月日時)に観察対象を撮像して得た複数の内視鏡画像99を保存している。画像取得部81は、ユーザの設定入力等にしたがって、これら複数の内視鏡画像99から、互いに異なる時刻に撮像して得た複数の内視鏡画像を取得する。本実施形態では、簡単のため、第1内視鏡画像101と第2内視鏡画像102を取得する。第1内視鏡画像101は、第2内視鏡画像102よりも先に観察対象を撮像して得た内視鏡画像である。逆に、第2内視鏡画像102は、第1内視鏡画像101よりも後に観察対象を撮像して得た内視鏡画像である。すなわち、「第1」及び「第2」は内視鏡画像の取得時刻の先後を表し、画像取得部81が取得する2つの内視鏡画像のうち、相対的に先に観察対象を撮像して得た内視鏡画像が第1内視鏡画像101であり、相対的に後に観察対象を撮像して得た内視鏡画像が第2内視鏡画像102である。第1内視鏡画像101の撮影時刻T1と、第2内視鏡画像102の撮影時刻T2とを比較すると、T1<T2である。
 血管抽出部82は、画像取得部81が取得した複数の内視鏡画像から観察対象の血管をそれぞれ抽出する。血管の抽出方法は、例えば周波数フィルタ等である。本実施形態では、画像取得部81は、第1内視鏡画像101と第2内視鏡画像102の2つの内視鏡画像を取得するので、血管抽出部82は第1内視鏡画像101及び第2内視鏡画像102から観察対象の血管をそれぞれ抽出する。以下、第1内視鏡画像101から抽出した血管を第1血管といい、第2内視鏡画像102から抽出した血管を第2血管という。また、本実施形態では、血管抽出部82は画像取得部81が取得した内視鏡画像の全体から血管を抽出するが、関心領域を指定した場合は指定した関心領域内でだけ血管を抽出しても良い。
 血管指標値算出部83は、内視鏡画像から抽出した血管についてそれぞれ血管指標値Diを算出する。すなわち、本実施形態では、血管指標値算出部83は、第1内視鏡画像101から抽出した第1血管を用いて第1内視鏡画像の血管指標値Diである第1血管指標値Di1を算出し、かつ、第2内視鏡画像102から抽出した第2血管を用いて第2内視鏡画像102の血管指標値Diである第2血管指標値Di2を算出する。
 血管指標値Diとは、観察対象の血管に関する指標値であり、かつ、病変の判定または分類に利用可能な指標値である。例えば、血管情報Viは、血管指標値Diとして機能する。また、血管指標値Diは、血管情報Viを用いて算出することもできる。したがって、血管指標値算出部83は、血管指標値Diとして、血管情報Vi、または、血管情報Viを用いて算出する指標値Pを算出する。本実施形態では、血管情報Viそのものを血管指標値Diとして利用するので、血管指標値算出部83は血管情報Viを算出する血管情報算出部として機能する。
 なお、具体的には、血管指標値算出部83は、第1血管指標値Di1と第2血管指標値Di2を算出するが、これら第1血管指標値Di1と第2血管指標値Di2は同じ種類(病変を同じ基準で判定または分類する)の血管指標である。第1血管指標値Di1と第2血管指標値Di2は、偶然に一致する場合を除いて基本的には互いに異なる値になる。第1血管指標値Di1の値と第2血管指標値Di2の違いは、第1内視鏡画像101の撮影時刻T1と第2内視鏡画像102の撮影時刻T2との観察対象の経時的な変化を表す。
 血管情報Viとは、例えば、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さ、太さの変化、太さの変化の複雑度、長さ、間隔、粘膜を基準とした深さ、高低差、傾き、面積、密度、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のいずれかである。これらは血管情報の例であり、その他の血管に関する情報を血管情報として算出してもよい。
 血管の本数とは、内視鏡画像全体または関心領域内で抽出した血管の数である。血管の本数は、例えば、抽出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。
 血管の交差数とは、粘膜下の深さが異なる血管が内視鏡画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。
 血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、抽出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。したがって、血管の太さは画素数であるが、内視鏡画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、必要に応じて「μm」等の長さの単位に換算可能である。
 血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管経の変化率(%)=最小径/最大径×100」で求める。
 なお、過去の検査で観察対象を撮影して得た内視鏡画像と、その後の新たな検査で同じ観察対象を撮影して得た内視鏡画像と、を用いる場合、過去の検査で得た内視鏡画像から抽出した血管の太さに対して、その後の新たな検査で得た内視鏡画像から抽出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。
 また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」で求める。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」で求める。
 血管の太さの変化の複雑度(以下、「太さ変化の複雑度」という)は、血管の太さ変化している場合に、その変化がどの程度複雑であるかを表す血管情報であり、血管の太さの変化を表す血管情報(すなわち血管径の変化率、細径部の割合、または太径部の割合)を複数組み合わせて算出する血管情報である。太さ変化の複雑度は、例えば、血管径の変化率と細径部の割合の積で求めることができる。
 血管の長さとは、抽出した血管の長手方向に沿って計数した画素数である。
 血管の間隔とは、抽出した血管のエッジ間にある粘膜を表す画素の画素数である。抽出した血管が1本の場合、血管の間隔は値を持たない。
 血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特殊観察画像の場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管指標値算出部83は、血管として抽出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。
 血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差で求める。深さが一定の場合、高低差は零である。
 血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」で求める。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。
 血管の面積は、血管として抽出した画素の画素数、または、血管として抽出した画素の画素数に比例する値である。血管の面積は、関心領域内、関心領域外、または、内視鏡画像全体について算出する。
 血管の密度は、単位面積中にある血管の割合である。血管の密度を算出する画素を概ね中心に含む特定の大きさの領域(例えば単位面積の領域)を切り出し、この領域内の全画素に占める血管の割合を算出する。これを関心領域または内視鏡画像全体の全画素に対して行うことで、各画素の血管の密度を算出することができる。
 血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV-YM)/(YV+YM)」で算出する。
 血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表す画素のB値の最大値と最小値の比、G値の最大値と最小値の比、またはR値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。
 血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。
 血管の血液濃度とは、血管が含むヘモグロビンの量に比例する血管情報である。血管を表す画素のR値に対するG値の比(G/R)はヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。
 血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)で観察対象を撮影した内視鏡画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表す画素のB値は酸素飽和度と相関があるので、B値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。
 動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈は、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、抽出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。
 投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、B/GやB/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。
 血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。
 血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。血管の血流量は、例えば超音波プローブを内視鏡12の鉗子チャネル等を介して併用する場合等に、内視鏡画像の血管を表す各画素のドップラーシフト周波数を用いて算出することができる。
 本実施形態では、血管指標値算出部83は複数種類の血管情報Viを算出する。すなわち血管指標値算出部83は、複数種類の第1血管指標値Di1を算出し、かつ、複数種類の第2血管指標値Di2を算出する。但し、複数種類の第1血管指標値Di1と複数種類の第2血管指標値Di2は同じ要素から構成される。例えば、血管指標値算出部83は、第1血管指標値Di1として第1血管の「深さ」と「太さ」と「密度」を算出し、第2血管指標値Di2として第2血管の「深さ」と「太さ」と「密度」を算出する。
 なお、画像処理装置65では、入力デバイス87の操作によって内視鏡画像の全部または一部に関心領域を設定することができる。例えば、内視鏡画像の一部を関心領域に設定した場合、血管指標値算出部83は関心領域内で血管指標値Di(本実施形態では血管情報Vi)を算出する。関心領域を指定していない場合や、内視鏡画像の全部を関心領域に設定した場合には、血管指標値算出部83は、内視鏡画像の全部を関心領域に設定して血管指標値Diを算出する。
 また、血管指標値算出部83は、内視鏡画像の画素毎に血管指標値Diを算出する。例えば、血管指標値Diを算出する画素を含む予め定めた範囲(例えば血管指標値Diを算出する画素を中心とする99×99画素の範囲)の画素のデータを用いて1つの画素の血管指標値Diを算出する。例えば、血管指標値Diとして、「血管の太さ」(血管情報Vi)を算出する場合、画素毎の「血管の太さ」は、上記予め定めた範囲に写る血管の太さの統計量である。統計量とは、いわゆる基本統計量であり、例えば、最大値、最小値、平均値、中央値、または最頻値である。もちろん、例示する値以外の統計量を使用することもできる。例えば、最大値、最小値、平均値、中央値、または最頻値等のいわゆる代表値を用いて演算した値(最大値と最小値の比等)や、分散や標準偏差、変動係数等のいわゆる散布度を使用することができる。
 関心領域を設定する場合には、血管指標値算出部83は、関心領域に含まれる各画素の血管指標値Diの統計量を算出し、その値を関心領域の血管指標値Diとする。例えば、血管指標値Diとして血管の太さ(血管情報Vi)を算出する場合、上記のように各画素の「血管の太さ」を算出し、関心領域を設定している場合には、さらに関心領域に含まれる各画素の「血管の太さ」の統計量を算出し、設定した1つの関心領域に対して1つの「血管の太さ」を算出する。内視鏡画像の全体を関心領域に設定する場合も同様である。
 なお、画素毎の血管指標値を算出する場合の統計量と、関心領域の血管指標値を算出する場合の統計量は、同じ統計量であっても良いし、異なっていても良い。例えば、画素毎の血管の太さを算出する場合には「予め定めた範囲」に写る血管の太さの平均値を算出し、その後、関心領域の血管の太さを算出する場合にも、各画素の血管の太さの平均値を算出してもよいし、各画素の血管の太さの最頻値を算出しても良い。
 また、本実施形態では、上記のように画素毎に血管指標値Diを算出し、その後、画素毎に算出した血管指標値Diの関心領域内の統計量を算出して、関心領域の血管情報を算出するが、算出する血管指標値Diの種類や、画素毎の血管指標値Diを算出する場合の統計量の計算の仕方と関心領域の血管情報を算出する場合の統計量の計算の仕方の関係等によっては、画素毎の血管指標値Diの算出を省略することができる。「血管の太さ」であれば、関心領域に写る血管の太さの平均値を、関心領域の血管の太さにすることができる。
 時間変化算出部84は、血管指標値Diの時間変化を算出する。本実施形態では、時間変化算出部84は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化を算出する。血管指標値Diの「時間変化」とは、第1血管指標値Di1と第2血管指標値Di2の差Δ(Δ=Di2-Di1またはΔ=Di1-Di2)、比R(R=Di2/Di1またはR=Di1/Di2)、または、第1血管指標値Di1に対する第2血管指標値Di2の変化率C(C=(Di2-Di1)/Di1、C=(Di1-Di2)/Di2、またはC=(Di2-Di1)/(T2-T1))である。また、経過時間を考慮して、単位時間あたりの差Δ、比R、または変化率Cを血管指標値Diの時間変化としてもよい。単位時間とは、1年、1月、1日、1時間、1分、1秒、等である。
 血管指標値Diの「時間変化を算出する」とは、上記差Δ、比R、または変化率Cを実際に算出することの他、上記差Δ、比R、または変化率Cを算出可能な状態で第1血管指標値Di及び第2血管指標値Diのデータを保持することを含む。「差Δ、比R、または変化率Cを算出可能な状態で第1血管指標値Di及び第2血管指標値Diのデータを保持する」とは、例えば、第1血管指標値Di1と第1内視鏡画像101の撮影時刻T1を関連付け、かつ、第2血管指標値Di2と第2内視鏡画像102の撮影時刻T2を関連付け、撮影時刻に対する血管指標値のグラフを作成または表示可能な状態にすることを言う。
 なお、本実施形態では血管指標値Diとして複数種類の血管情報Viを算出するので、血管指標値算出部83は、血管指標値Diの時間変化を血管情報Viごとに算出する。例えば、第1血管指標値Di1及び第2血管指標値Di2として、「深さ」、「太さ」、及び「密度」の3種の血管情報Viを算出する場合、時間変化算出部84は、「深さ」の時間変化と、「太さ」の時間変化と、「密度」の時間変化と、を算出する。
 判定部85は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化を用いて観察対象の粘膜の状態を判定(または分類)する。観察対象の「粘膜の状態」とは、血管を含む粘膜全体としての総合的なステータスであり、例えば、「正常」、「腺腫」(腺腫の疑いがある)、または、「がん」(がんの疑いがある)等である。
 より具体的には、判定部85は、第1血管指標値Di1及び第2血管指標値Di2の差Δ、比R、または変化率Cから観察対象の粘膜の状態を判定する。例えば、第1血管指標値Di1及び第2血管指標値Di2として「深さ」と「太さ」と「密度」を算出する場合、判定部85は、「深さ」の時間変化、「太さ」の時間変化、及び「密度」の時間変化を用いて観察対象の粘膜の状態を判定する。また、判定部85は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化を閾値と比較することにより、観察対象の粘膜の状態を判定する。
 なお、判定部85は、第1血管指標値Di1及び第2血管指標値Di2の差Δ、比R、または変化率Cを用いてさらに演算をし、その演算結果にしたがって観察対象の粘膜の状態を判定することができる。本実施形態では、判定部85は、第1血管指標値Di1及び第2血管指標値Di2の差Δによって観察対象の粘膜の状態を判定する。また、本実施形態で判定部85が観察対象の粘膜の状態の判定に用いる閾値の値は予め定められているが、本実施形態のように予め値が定められた閾値を使用する代わりに、判定部85は、第1内視鏡画像101の各画素の血管指標値Diや第2内視鏡画像102の各画素の血管指標値Diの平均値等の統計量を、観察対象の粘膜の状態の判定に用いる閾値に使用することができる。血管指標値Diの統計量を閾値に使用する場合、内視鏡画像の一部または全部の血管指標値Diを用いて、閾値(統計量)を算出する。関心領域を設定する場合には、関心領域内の血管指標値Di、または、関心領域周辺の所定範囲の血管指標値Diを使用して、閾値(統計量)を算出することができる。また、閾値の算出には、第1内視鏡画像101と第2内視鏡画像102の間に撮影した他の内視鏡画像や、第1内視鏡画像101または第2内視鏡画像102の前後に撮影した他の内視鏡画像を用いても良い。
 画像処理装置65は、画像取得部81で取得した第1内視鏡画像101及び第2内視鏡画像102と、判定部85による判定結果をモニタ88に表示する。図5に示すように、モニタ88は、メインウィンドウ115及びサブウィンドウ116と、判定結果表示部117とを有する。メインウィンドウ115及びサブウィンドウ116は内視鏡画像を表示し、判定結果表示部117は判定部85による判定結果を表示する。メインウィンドウ115は、相対的に後に観察対象を撮像して得た内視鏡画像を表示する領域であり、サブウィンドウ116は、相対的に先に観察対象を撮像して得た内視鏡画像を表示する領域である。このため、画像処理装置65は、メインウィンドウ115に第2内視鏡画像102を表示し、サブウィンドウ116に第1内視鏡画像101を表示する。なお、本実施形態では、モニタ88にメインウィンドウ115とサブウィンドウ116を設けているが、必ずしもサブウィンドウ116は必要ではない。例えば、メインウィンドウ115に、ユーザ操作等により第1内視鏡画像101及び第2内視鏡画像102を切り替えて表示するようにしても良い。
 次に、画像処理装置65の動作の流れを図6のフローチャートに沿って説明する。まず、画像処理装置65は、入力デバイス87の入力操作にしたがって、画像取得部81によってストレージ64から第1内視鏡画像101及び第2内視鏡画像102を取得し(S11)、モニタ88に表示する(S12)。画像処理装置65は、取得した第1内視鏡画像101と第2内視鏡画像102のうち、撮像時刻が相対的に先の第1内視鏡画像101をサブウィンドウ116に表示し、撮像時刻が相対的に後の第2内視鏡画像102をメインウィンドウ115に表示する。
 選択した第1内視鏡画像101及び第2内視鏡画像102がモニタ88に表示されると、医師は入力デバイス87を操作して、第1内視鏡画像101及び第2内視鏡画像102に関心領域をそれぞれ設定する(S13)。例えば、図7に示すように、メインウィンドウ115の第2内視鏡画像102の概ね中央付近に病変か否か(あるいは病変の進行度合い等)の診断を要する注目箇所がある。このため、医師は入力デバイス87を操作して、第2内視鏡画像102に注目箇所を含む関心領域(以下、第2関心領域という)112を設定する。また、サブウィンドウ116の第1内視鏡画像101に対しては、第2内視鏡画像102の注目箇所と同じ(あるいは対応する)注目箇所を含む関心領域(以下、第1関心領域という)111を設定する。
 一方、血管抽出部82は、第1内視鏡画像101から第1血管を抽出し、かつ、第2内視鏡画像102から第2血管を抽出する(S14)。図8に示すように、第2内視鏡画像102は、血管を色によって強調した特殊観察画像であり、例えば、観察対象の粘膜表面の形状122が観察できる他、粘膜の表面に比較的近い位置にある細い表層血管123がマゼンタ系の色で表され、粘膜下の比較的深い位置にある太い中深層血管124はシアン系の色で表され、強調されている。この第2内視鏡画像102の場合、血管抽出部82は、図9に模式的に画像化して示す第2血管画像132のように、表層血管123と中深層血管124を第2血管として抽出する。血管抽出部82は、上記第2内視鏡画像102からの第2血管の抽出と同様に、第1内視鏡画像101から第1血管を抽出する。
 上記のように、血管抽出部82が第1内視鏡画像101から第1血管を抽出すると、血管指標値算出部83は、第1血管の「深さ」「太さ」及び「密度」等の複数種類の血管情報Viを画素毎に算出し、さらに第1関心領域111の統計量を算出することで、第1関心領域111のなかで複数種類の第1血管指標値Di1を算出する(S15)。同様に、血管抽出部82が第2内視鏡画像102から第2血管を抽出すると、血管指標値算出部83は、第2血管の「深さ」「太さ」及び「密度」等の複数種類の血管情報Viを画素毎に算出し、さらに第2関心領域112の統計量を算出することで、第2関心領域112のなかで複数種類の第2血管指標値Di2を算出する(S15)。
 血管指標値算出部83が第1血管指標値Di1及び第2血管指標値Di2を算出すると、時間変化算出部84は、これら血管指標値の時間変化を算出する(S16)。具体的には、血管指標値算出部83は、第1血管の深さ、太さ、及び密度等(第1血管指標値Di1)と第2血管の深さ、太さ、及び密度等(第2血管指標値Di2)を用いて、第1血管の深さと第2血管の深さの差、第1血管の太さと第2血管の太さの差、及び、第1血管の密度と第2血管の密度の差等を算出する。
 その後、判定部85は、血管指標値算出部83が算出した第1血管の深さと第2血管の深さの差、第1血管の太さと第2血管の太さの差、及び、第1血管の密度と第2血管の密度の差等を用いて、観察対象の粘膜の状態を、「正常」、「腺腫」、または「がん」等のいずれかに判定する(S17)。画像処理装置65は判定部85の判定結果を、モニタ88の判定結果表示部117に表示する(S18,図5参照)。
 上記のように、画像処理装置65は、第1内視鏡画像101及び第2内視鏡画像102の選択と、第1関心領域111及び第2関心領域112の設定以外は、画像処理装置65が自動的に行う。このため、画像処理装置65を使用する医師からしてみれば、ストレージ64から2枚の内視鏡画像を選択し、モニタ88上で選択した内視鏡画像のそれぞれに関心領域を設定すると、自動的に観察対象の粘膜の状態に関する判定結果が判定結果表示部117に表示される。医師は、この判定結果を見れば、疑うべき病変の種類等を直ちに把握できるので、例えば血管指標値Diや血管情報Viを表示する場合よりも直接的かつ効率的に診断をすることができる。すなわち、画像処理装置65は、従来の内視鏡システム等よりも直接的かつ効果的に診断を支援することができる。
 特に、画像処理装置65は、血管指標値Diの時間変化という従来にない観点で観察対象の粘膜の状態を判定する。このため、直接的かつ効果的な診断支援を、血管指標値Diの絶対値(血管指標値Diの一時的な値)だけでは確定的な診断をし難いような状況でも行うことができる。
 なお、上記第1実施形態では、血管指標値算出部83は血管指標値Diとして複数種類の血管情報Viを算出しているが、病変の種類等によっては、1種類の血管情報Viの時間変化で判定をすることができる場合がある。このため、血管指標値算出部83は血管指標値Diとして1種類の血管情報Viを算出してもよい。
 [第2実施形態]
 上記第1実施形態では、血管指標値算出部83は、血管指標値Diとして血管情報Viを算出しているが、前述のとおり、血管情報Viを用いて算出する指標値(以下、血管パラメータという)Pを血管指標値Diにすることができる。この場合、例えば図10に示すように、血管指標値算出部83には、血管情報算出部251と血管パラメータ算出部252を設ける。
 血管情報算出部251は、上記第1実施形態の血管指標値算出部83と同様に、血管抽出部82が抽出した血管に関して複数種類の血管情報Viを算出する。より具体的には、第1内視鏡画像101から抽出した第1血管の「深さ」「太さ」及び「密度」等の血管情報Viを算出し、かつ、第2内視鏡画像102から抽出した第2血管の「深さ」「太さ」及び「密度」等の血管情報Viを算出する。すなわち、血管情報算出部251は、第1血管と第2血管のそれぞれについて、同じ種類(組み合わせ)の複数の血管情報Viを算出する。
 血管パラメータ算出部252は、血管情報算出部251が算出した複数の血管情報Viを用いて演算をすることにより血管パラメータと称する評価値を算出する。具体的には、血管パラメータ算出部252は、第1血管に関する複数種類の血管情報Viを用いて演算をすることにより、第1血管に関する血管パラメータP1を算出する。また、血管パラメータ算出部252は、第2血管に関する複数種類の血管情報Viを用いて演算をすることにより、第2血管に関する血管パラメータP2を算出する。
 血管パラメータ算出部252は、第1血管に関する複数種類の血管情報Viにそれぞれに重み付け係数をかけ、和をとることによって血管パラメータP1を算出する。重み付け係数は、重み付け係数テーブル253に記憶しており、例えば機械学習によって予め定める。第2血管に関する複数種類の血管情報Viを用いて血管パラメータP2を算出する演算は、上記血管パラメータP1を算出する演算と同じであり、使用する重み付け係数も血管パラメータP1の算出に用いる重み付け係数テーブル253である。
 第1血管に関する血管パラメータP1と第2血管に関する血管パラメータP2は、観察対象の血管の状態を同じ手法で(同じ演算によって)評価する評価値である。もちろん、血管パラメータP1と血管パラメータP2の値は、偶然に一致する場合を除いて、基本的には異なる値になる。この血管パラメータP1と血管パラメータP2の値の違いは、第1内視鏡画像101の撮影時刻T1と第2内視鏡画像102の撮影時刻T2の違いを反映している。
 本実施形態では、血管パラメータ算出部252は、上記のように複数の血管情報Viの重み付け和を血管パラメータP1及びP2として算出するが、血管パラメータP1及びP2の算出方法は任意である。例えば、重み付け和を取るだけでなく、加減乗除が混在する演算をして血管パラメータP1及びP2を算出しても良いし、その他の関数を用いて血管パラメータを算出しても良い。
 血管パラメータP1及びP2は、互いに次元(単位)が異なる血管情報Viを加算等して算出するので、血管パラメータP1及びP2には物理的な意味は無いが、診断の指標として機能する。すなわち、血管パラメータP1及びP2は、物理的な意味がない値であることが血管情報Viとの違いである。
 上記のように算出した血管パラメータP1及びP2は、それぞれ第1血管指標値Di1及び第2血管指標値Di2として好適である。血管パラメータP1及びP2を第1血管指標値Di1及び第2血管指標値Di2として利用する場合、時間変化算出部84は、血管パラメータP1と血管パラメータP2の差Δ、比R、または、血管パラメータP1に対する血管パラメータP2の変化率Cを算出する。そして、判定部85は、血管パラメータP1と血管パラメータP2の差Δ、比R、または、血管パラメータP1に対する血管パラメータP2の変化率Cによって、観察対象の粘膜の状態を判定する。
 本実施形態のように、血管パラメータP1及びP2の時間変化によって粘膜の状態を判定すると、血管情報Viの時間変化によって粘膜の状態を判定する場合よりも、さらに正確に粘膜の状態を判定することができる。
 [第3実施形態]
 上記第1実施形態及び第2実施形態では、内視鏡システム10が内視鏡画像をストレージ64に保存し、後に画像処理装置65がストレージ64から内視鏡画像を取得して血管パラメータを算出するが、観察対象を観察しながらほぼリアルタイムに内視鏡システム10が粘膜の状態を判定してもよい。この場合、図11に示す内視鏡システム310のように、プロセッサ装置16に画像取得部81、血管抽出部82、血管指標値算出部83、時間変化算出部84、及び、判定部85を設ける。内視鏡12や光源装置14の構成は第1実施形態の内視鏡システム10と同様である。
 上記のようにプロセッサ装置16に画像処理装置65の各部を設ける場合、画像取得部81は信号処理部62が生成する内視鏡画像を、ストレージ64を介さずに信号処理部62から直接取得することができる。このため、画像取得部81は、例えば静止画像の取得指示が入力された際に生成された内視鏡画像を少なくとも2以上一時的に保持し、第1実施形態の第1内視鏡画像101及び第2内視鏡画像102として血管抽出部82に入力する。
 画像取得部81が一時的に保持する複数の内視鏡画像のうち、どの内視鏡画像を第1実施形態の第1内視鏡画像101及び第2内視鏡画像102として使用するかは、第1実施形態で入力デバイス87を用いたのと同様に、内視鏡システム310のコンソール19を用いて医師が選択することができる。また、コンソール19を用いて、第1内視鏡画像101及び第2内視鏡画像102として使用する内視鏡画像を予め設定しておくこともできる。例えば、画像取得部81が一時的に保持する複数の内視鏡画像のうち、最も古い内視鏡画像(最も撮影時刻が早い内視鏡画像)を第1内視鏡画像101として使用し、最も新しい内視鏡画像(最も撮影時刻が遅い内視鏡画像)を第2内視鏡画像102として使用することができる。最も新しい内視鏡画像を第2内視鏡画像102として使用し、この最も新しい内視鏡画像が撮影時刻T2を基準に、予め定めた時刻τ前に撮影した内視鏡画像を第1内視鏡画像101として使用することもできる。
 画像取得部81以外の血管抽出部82、血管指標値算出部83、時間変化算出部84、及び、判定部85の動作は、第1実施形態の内視鏡システム10と同様である。判定部85による評価結果は、映像信号生成部63を介して内視鏡システム310のモニタ18に表示する。判定結果の表示方法は、第1実施形態と同様である。
 上記のように、プロセッサ装置16に、画像処理装置65の各部を設ければ、プロセッサ装置16が画像処理装置65としても機能する。このため、内視鏡システム310では、観察対象を観察しながら粘膜の状態を判定するので、ほぼリアルタイムに診断を支援することができる。内視鏡システム310は、観察対象に対して薬剤を投与等し、あるいは観察対象に施術した場合に、その作用を観察する場合に好適である。
 なお、上記第3実施形態では、画像取得部81は信号処理部62が生成する内視鏡画像を直接取得するが、信号処理部62から内視鏡画像を直接取得する代わりに、第1実施形態等と同様に、ストレージ64から第1内視鏡画像101及び第2内視鏡画像102を取得してもよい。特に、第1内視鏡画像101については、ストレージ64に保存してある過去の検査で得た内視鏡画像を用いるとよい。過去の検査で得た内視鏡画像を第1内視鏡画像101に使用すると、過去の観察対象の粘膜の状態に対する現在の観察対象の粘膜の状態の変化を、現在行っている検査の最中にリアルタイムに知ることができる。
 また、上記第3実施形態では、画像取得部81が信号処理部62から取得する内視鏡画像は、静止画像の取得指示が入力された際に生成された内視鏡画像であるが、静止画像の取得指示に関係なく、粘膜の状態を判定してもよい。この場合、関心領域の設定、血管の抽出、血管指標値Diの算出、血管指標値Diの時間変化の算出、及び、粘膜の状態の判定を、予め設定する時間間隔毎に自動的に行うことが好ましい。粘膜の状態を判定する時間間隔は医師が任意に設定可能である。
 [第4実施形態]
 上記第1~第3実施形態では、第1内視鏡画像101と第2内視鏡画像102の2つの内視鏡画像を使用して観察対象の粘膜の状態を判定しているが、3以上の内視鏡画像を使用して観察対象の粘膜の状態を判定してもよい。
 例えば、図12に示すように、画像取得部81が、ストレージ64に保存している複数の内視鏡画像99のなかから、第1内視鏡画像101及び第2内視鏡画像102に加え、第2内視鏡画像102よりも後に観察対象を撮像して得る第3内視鏡画像403を取得する。すなわち、第1内視鏡画像101の撮影時刻T1、第2内視鏡画像102の撮影時刻T2、及び、第3内視鏡画像403の撮影時刻T3を比較すると、T1<T2<T3である。
 この場合、図13に示すように、モニタ88には、メインウィンドウ414、第1サブウィンドウ415、及び、第2サブウィンドウ416の3つの内視鏡画像の表示領域を設ける。そして、画像取得部81が第1内視鏡画像101、第2内視鏡画像102、及び第3内視鏡画像403を取得すると、画像処理装置65は、メインウィンドウ414に、相対的に最も後に観察対象を撮像して得た第3内視鏡画像403を表示し、第1サブウィンドウ415に2番目に観察対象を撮像して得た第2内視鏡画像102を表示し、第2サブウィンドウ416には相対的に最も先に観察対象を撮像して得た第1内視鏡画像101を表示する。
 画像処理装置65が、モニタ88に、第1内視鏡画像101、第2内視鏡画像102、及び第3内視鏡画像403を表示すると、医師がこれらの内視鏡画像に対してそれぞれに対応する関心領域を設定するのは第1実施形態等と同様である。すなわち、まず、第3内視鏡画像403には関心領域(以下、第3関心領域という)413を設定し、第2内視鏡画像102には、第3関心領域413が含む注目箇所と同じ(あるいは対応する)注目箇所を含む第2関心領域412を設定する。第1内視鏡画像101についても同様に第1関心領域411を設定する。
 上記のように、第1内視鏡画像101、第2内視鏡画像102、及び第3内視鏡画像403に関心領域を設定すると、血管抽出部82は、第1内視鏡画像101から第1血管を抽出し、第2内視鏡画像102から第2血管を抽出する。そして、第1内視鏡画像101から第1血管を抽出し、第2内視鏡画像102から第2血管を抽出するのと同様にして、第3内視鏡画像403から観察対象の血管を抽出する。以下、第3内視鏡画像403から抽出した血管を第3血管という。
 その後、血管指標値算出部83は、第1血管指標値Di1として、第1血管に関する複数種類の血管情報Viを算出し、第2血管指標値Di2として、第2血管に関する複数種類の血管情報Viを算出し、さらに、第3血管指標値Di3として、第3血管に関する複数種類の血管情報Viを算出する。複数の第1血管情報、複数の第2血管情報、及び、本実施形態で新たに算出する複数の第3血管情報は、種類(種類の組み合わせ)が同じである。
 時間変化算出部84は、複数の時間的区間における血管指標値の時間変化を算出し、判定部85は、複数の時間的区間における血管指標値の時間変化の組み合わせによって観察対象の粘膜の状態を判定する。本実施形態では、複数の時間的区間は、第1内視鏡画像101の撮影時刻T1から第2内視鏡画像102の撮影時刻T2の区間と、第2内視鏡画像102の撮影時刻T2から第3内視鏡画像103の撮影時刻T3の区間の2区間である。したがって、時間変化算出部84は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化と、第2血管指標値Di2に対する第3血管指標値Di3の時間変化と、を算出する。そして、判定部85は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化と、第2血管指標値Di2に対する第3血管指標値Di3の時間変化との組み合わせによって観察対象の粘膜の状態を判定する。
 例えば、図14に示すように、時間変化算出部84は、第1血管指標値Di1に対する第2血管指標値Di2の差Δ21と、第2血管指標値Di2に対する第3血管指標値Di3の差Δ32を算出すると、判定部85は、差Δ21の正負や絶対値と、差Δ32の正負や絶対値によって、観察対象の粘膜の状態を、「正常」、「腺腫」、「がん」等に判定する。より具体的には、差Δ21が正で差Δ32が負の場合に、観察対象の粘膜の状態が「腺腫」等と判定する。
 上記のように、3以上の内視鏡画像を使用して観察対象の粘膜の状態を判定すると、第1内視鏡画像101と第2内視鏡画像102の2つの内視鏡画像だけを用いる場合よりも正確に観察対象の粘膜の状態を判定することができる。
 上記第4実施形態では3枚の内視鏡画像を使用しているが、4以上の内視鏡画像を使用する場合も同様である。また、第2実施形態のように、血管パラメータを血管指標値Diに用いる場合も同様である。
 また、上記第4実施形態では、判定部85は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化と、第2血管指標値Di2に対する第3血管指標値Di3の時間変化との組み合わせによって粘膜の状態を判定しているが、さらに、第1血管指標値Di1、第2血管指標値Di2、及び第3血管指標値Di3の値を組み合わせて粘膜の状態を判定してもよい。
 なお、上記第4実施形態では、時間変化算出部84は、第1血管指標値Di1に対する第2血管指標値Di2の時間変化と、第2血管指標値Di2に対する第3血管指標値Di3の時間変化と、を算出するが、第1血管指標値Di1に対する第2血管指標値Di2の時間変化と、第1血管指標値Di1に対する第3血管指標値Di3の時間変化を算出してもよい。また、第2血管指標値Di2に対する第1血管指標値Di1の時間変化と、第2血管指標値Di2に対する第3血管指標値Di3の時間変化を算出してもよい。これらは全て実質的に同じ血管指標値Diの時間変化を表すので、判定部85は上記第4実施形態と同様にして観察対象の粘膜の状態を判定することができる。
 判定部85は上記とは別の方法で粘膜の状態を判定することができる。例えば、図15に示すように、血管指標値Diの第1血管指標値Di1から第3血管指標値Di3への時間変化を、第1閾値TH1と比較し、血管指標値Diが第1閾値TH1以上になる(あるいは、第1閾値TH1以下になる、第1閾値TH1より大きい、第1閾値TH1未満になる)期間Etの長さを算出する。そして、判定部85は、算出した期間Etの長さによって観察対象の粘膜の状態を判定する。例えば、算出した期間Etが零の場合と、期間Etが第2閾値TH2以上の場合と、期間Etが第2閾値TH2未満の場合とに分けることで、観察対象の粘膜の状態を判定することができる。このように、血管指標値Diが定めた条件を満たす期間Etの長さによって観察対象の粘膜の状態を判定する方法は、上記第4実施形態のように3以上の内視鏡画像を使用する場合に特に好適であるが、第1~第3実施形態のように2枚の内視鏡画像を使用する場合にも好適である。
 また、上記第1~第4実施形態では、関心領域111及び関心領域112を設定した場合、関心領域111及び関心領域112の中で血管指標値Diを算出し、その時間変化によって粘膜の状態を判定しているが、血管指標値算出部83は、関心領域111及び関心領域112の血管指標値Diを算出することに加え、関心領域111及び関心領域112外の血管指標値diを算出し、関心領域111及び関心領域112以外の領域の血管指標値diも考慮して観察対象の粘膜の状態を判定することが好ましい。例えば、血管指標値算出部83は、図16に示す第1内視鏡画像101の関心領域111内の領域Riの第1血管指標値Di1に加え、便宜的にハッチングを施した関心領域111外の領域Roについても第1血管指標値di1を算出する。同様に、血管指標値算出部83は、第2内視鏡画像102の関心領域112内の領域の第2血管指標値Di2に加え、関心領域112外の領域についても第2血管指標値di2を算出する。
 時間変化算出部84は、関心領域111及び関心領域112内外の血管指標値Di及びdiを用いて「血管指標値の空間変化」を算出し、さらに、この「血管指標値の空間変化」の時間変化を算出する。
 具体的には、時間変化算出部84は、関心領域111の内外の第1血管指標値Di1及びdi1の差、比、または変化率を算出し、かつ、関心領域112の内外の第2血管指標値Di2及びdi2の差、比、または変化率を算出する。関心領域111の内外の第1血管指標値Di1及びdi1の差、比、または変化率が、第1内視鏡画像101に関する「血管指標値の空間変化」S1である。同様に、関心領域112の内外の第2血管指標値Di2及びdi2の差、比、または変化率が、第2内視鏡画像102に関する「血管指標値の空間変化」S2である。
 上記のように、血管指標値の空間変化を算出すると、時間変化算出部84は、「血管指標値の空間変化」の時間変化を算出する。すなわち、2つの空間変化S1,S2の差、比、または変化率を算出する。空間変化S1,S2の差、比、または変化率が、「血管指標値の空間変化」の時間変化γである。判定部85は、この「血管指標値の空間変化」の時間変化γによって、観察対象の粘膜の状態を判定する。こうすると、判定結果への観察対象の個体差による影響を低減し、より正確な判定結果が得られる。
 なお、上記第1~第4実施形態では、モニタ88は、判定結果表示部117を設け、判定結果表示部117に「腺腫」等の判定部85による判定結果を表示しているが(図5参照)、別の方法で判定部85による判定結果を表示してもよい。例えば、図17に示すように、モニタ88は、判定結果表示部117の代わりに、判定部85による判定結果をポップアップ表示してもよい。図17では、判定結果を示すメッセージをポップアップ表示しているが、代わりに、血管指標値Diの時間変化の値や、血管指標値Diの値等を、判定結果として、または判定結果とともに、ポップアップ表示してもよい。
 上記ポップアップ表示の表示設定は、血管指標値の時間変化を用いて行うと良い。例えば、上記ポップアップ表示の輪郭の色、文字の色、及び背景の色等の表示色や、文字のフォントや太さ、輪郭線の線種や太さ等を、血管指標値Diの時間変化を用いて表示設定を変更し、血管指標値Diの時間変化が大きさによって、表示内容を目立たせると良い。
 モニタ88は、判定部85の判定結果を用いて、粘膜の状態を判定した部分を着色した第1内視鏡画像101または第2内視鏡画像102を表示することで、判定部85の判定結果を表示してもよい。例えば、図18に示すように、粘膜の状態を判定した関心領域111または112を着色する。粘膜の状態を判定した着色する色は、判定結果が「正常」の場合には無着色とし、判定結果が「腺腫」の場合にはオレンジ色に着色し、判定結果が「がん」の場合には赤色にする等、判定部85の判定結果によって変更する。こうすると、第1内視鏡画像101または第2内視鏡画像102とともに視認性良く判定結果を表示することができる。
 粘膜の状態を判定した部分を着色した第1内視鏡画像101または第2内視鏡画像102を表示する場合、図19に示すように、画像処理装置65には、着色処理部501を設ける。着色処理部501は、粘膜の状態を判定した部分に関する情報(関心領域111及び関心領域112の位置や範囲)と、判定部85による判定結果を用いて、第1内視鏡画像101または第2内視鏡画像102に上記着色処理をする。
 粘膜の状態を判定した部分を着色する色は、時間変化算出部84が算出する時間変化(第1実施形態では、第1血管指標値Di1に対する第2血管指標値Di2の時間変化)を用いて設定することが好ましい。この場合、着色処理部501は、時間変化算出部84から、時間変化算出部84が算出した時間変化の情報を得る。そして、時間変化算出部84が算出した時間変化の値を閾値(以下、第3閾値TH3という)と比較し、時間変化算出部84が算出した時間変化の値と第3閾値TH3との差δを求める。
 その後、モニタ88に表示する第1内視鏡画像101または第2内視鏡画像102の粘膜の状態を判定した部分の色は、例えば、図20に実線で示すように、差δに比例してRチャンネル(モニタ88に表示する画像の赤色画素)の値を設定する。図20では、差δとRチャンネルの関係だけを示しているが、Bチャンネル(モニタ88に表示する画像の青色画素)やGチャンネル(モニタ88に表示する画像の緑色画素)も同様である。但し、RGB各チャンネルで差δと各チャンネルの値の関係は変えて良い。また、差δと各チャンネルの関係は、図20に破線で示すように曲線で設定してもよく、一点鎖線で示すように段階的に設定してもよい。また、その他の関数等によって差δと各チャンネルの関係を定めても良い。
 なお、上記のように粘膜の状態を判定した部分を着色する場合、図18では関心領域111及び112内を網掛けにして着色しているが、関心領域111及び112の枠だけを着色してもよく、関心領域111及び112の全体ではなく、関心領域111及び112内の異常部分(判定結果が「正常」以外の部分)を選択的に着色してもよい。異常部分は、例えば、各画素の血管指標値Diの値によって選択することができる。
 また、上記のように粘膜の状態を判定した部分を着色する場合、異常と判定するもとになった血管指標値Diによって粘膜の状態を判定した部分の色を変更してもよい。例えば、血管密度の時間変化が異常値の場合には赤色系の色で着色し、血管の太さの時間変化が異常値の場合には緑色系の色で着色する等である。この場合、血管指標値Diに優先順位を予め設定しておき、2以上の血管指標値Diが異常値である場合には、優先順位が高い方に設定した色を採用する。
 上記第1~第4実施形態では、モニタ88は、判定結果表示部117に判定部85による判定結果を表示しているが(図5参照)、図21に示すように、粘膜の状態を判定した部分を拡大した拡大画像502を表示しても良い。特に、判定部85による判定結果が「正常」以外の場合(なんらかの異常を示す判定結果の場合)に拡大画像502を表示すると、判定結果に基づいて、粘膜の状態を判定した部分を容易に精査することができる。図21では、モニタ88に第2内視鏡画像102の粘膜の状態を判定した部分を拡大した拡大画像502を表示しているが、第1内視鏡画像101の粘膜の状態を判定した部分を拡大した拡大画像を表示してもよい。
 粘膜の状態を判定した部分の拡大率(拡大画像502の大きさ)は、血管指標値Diの時間変化を用いて設定すると良い。例えば、血管指標値Diの時間変化が大きいほど、粘膜の状態を判定した部分の拡大率を大きくして、粘膜の状態を判定した部分がより目立つようにすると良い。
 なお、拡大画像502は、粘膜の状態を判定した関心領域112に完全に一致していなくても良い。例えば、粘膜の状態を判定した関心領域112の周囲にある正常な部分を含めた拡大画像を表示しても良い。また、図21では、第1内視鏡画像101を表示するサブウィンドウ116の代わりに拡大画像502を表示しているが、拡大画像502はポップアップ表示しても良く、第1内視鏡画像101、第2内視鏡画像102、及び判定結果表示部117とは別の表示領域に表示してもよい。
 上記第1~第4実施形態では、判定部85は観察対象の粘膜の状態を1つの状態に判定しているが、判定部85は観察対象の粘膜の状態を複数の観点で判定することができる。具体的には、血管指標値算出部83は複数種類の血管指標値Di(複数種類の血管情報Vi)を算出し、時間変化算出部84は複数種類の血管指標値Diの各々の時間変化を算出するので、判定部85は複数種類の血管指標値Diの各々の時間変化の組み合わせ方によって、複数の観点で観察対象の粘膜を判定することができる。
 例えば、血管指標値算出部83が、血管指標値DiA、血管指標値DiB、血管指標値DiCの3種類の血管指標値Diを算出し、時間変化算出部84は、血管指標値DiAの時間変化ΔA、血管指標値DiBの時間変化ΔB、血管指標値DiCの時間変化ΔCをそれぞれ算出する。そして、時間変化ΔA及びΔBを用いれば、観察対象の粘膜の状態が、病変L1か否かを判定でき、時間変化ΔA及びΔCを用いれば、観察対象の粘膜の状態を病変L2(例えば病変L1との関連性が低い別の病変)か否かを判定できるとする。このような場合に、判定部85は、病変L1か否かを判定する第1の観点で観察対象を粘膜の状態を判定し、かつ、病変L2か否かを判定する第2の観点で観察対象の粘膜の状態を判定することができる。
 上記のように、判定部85が複数の観点で観察対象の粘膜の状態を判定する場合、図22に示すように、モニタ88の判定結果表示部117には、各観点での判定結果を示す判定結果のリスト505を表示することが好ましい。図22では、時間変化ΔA及びΔBを用いる第1の観点(「観点1」)での判定結果(「腺腫」)と、時間変化ΔA及びΔCを用いる第2の観点(「観点2」)での判定結果(「正常」)を、判定結果のリスト505に表示している。
 判定結果のリスト505には、判定結果が正常のものも含めて全ての判定結果を表示しているが、異常を示す判定結果(「正常」以外の判定結果)だけをリスト505に表示しても良い。
 なお、血管指標値Diの時間変化を用いて、上記判定結果のリスト505の表示設定をすると良い。すなわち、リスト505の輪郭の色、文字の色、及び背景の色等の表示色や、文字のフォントや太さ、輪郭線の線種や太さ等を、血管指標値Diの時間変化を用いて変更し、時間変化が大きさによって表示内容を目立たせると良い。
 また、リスト505では各観点での判定結果だけを表示しているが、リスト505には判定結果以外の情報も併せて表示することが好ましい。例えば、判定対象にした粘膜の内視鏡画像内での座標、判定に用いる血管指標値Di、血管指標値Diまたはその時間変化の値、等を判定結果とともに表示すると良い。第4実施形態のように、3以上の内視鏡画像を用いて粘膜の状態を判定する場合に、異常を示す判定結果(「正常」以外の判定結果)の場合には、最初に判定結果が異常になる内視鏡画像の撮影時刻(開始フレーム)や、最後に判定結果が異常を示した内視鏡画像の撮影時刻(終了フレーム)を表示することが好ましい。同様に、第4実施形態の変形例のように、血管指標値Diが特定の条件を満たす期間Etの長さで観察対象の粘膜の状態を判定する場合には、血管指標値Diが特定の条件を最初に満たした時刻(期間Etの開始時刻)や血管指標値Diが特定の条件を最後に満たした時刻(期間Etの終了時刻)を表示することが好ましい。判定結果とともにリスト505に表示することが好ましい各種情報は、リスト505に判定結果とともに最初から表示しておく代わりに、図22のリスト505の判定結果を選択した場合にポップアップ表示するようにしてもよい。
 上記各種変形例の判定結果の表示や粘膜の状態を判定した部分の拡大表示の代わりに、図23に示すように、モニタ88に操作メニュー510(図23では「!!」のアイコン)を表示してもよい。そして、操作メニュー510を操作することで、上記各種変形例の判定結果の表示方法や粘膜の状態を判定した部分の拡大表示等から、医師が必要とする表示を選択できるようにすることが好ましい。図23では第2内視鏡画像102内に操作メニュー510を表示しているが、操作メニュー510の表示位置は任意である。また、操作メニュー510のテキスト(図23では「!!」)の表示内容や表示色は任意である。操作メニュー510には、判定部85による判定結果を表示することができる。操作メニュー510の表示色(操作メニュー510に表示するテキストの色やアイコン全体の色)は、粘膜の状態を判定した部分に着色する場合(図18参照)と同様に、判定部85による判定結果によって変更することが好ましい。
 なお、判定部85は、粘膜の状態を、正常、腺腫、及びがんを含む3種類以上の状態に判定することが望ましい。特に、大腸の粘膜の状態を判定する場合には、正常、過形成ポリープ(HP:Hyperplastic Polyp)、SSA/P(Sessile Serrated Adenoma / Polyp)、腺腫(TSA:Traditional Serrated Adenoma)、側方発達型腫瘍(LST:Laterally Spreading Tumor)、及びがんを含むいずれかの状態に判定することが好ましい。このように、判定部85の判定結果を細分化する場合、判定部85は血管指標値Diの時間変化に加えて、血管指標値Diの値を用いることが好ましい。従来、過形成ポリープはがん化のリスクが低く、処置の必要がないと考えられていたが、近年では、過形成ポリープに似たSSA/Pががん化した例も発見されているため、特に過形成ポリープとSSA/Pを鑑別することが重要になってきている。一方、過形成ポリープあるいはSSA/Pと思しき肥厚した粘膜下を中深層血管124が横断していると、SSA/Pが形成される可能性が高いことが分かっている。血管指標値Diの時間変化を用いれば、判定部85によって過形成ポリープとSSA/Pを鑑別することができるが、血管指標値Diの時間変化に加え、血管指標値Diの値を組み合わせて判定をすれば、より高い確率で過形成ポリープからSSA/Pを鑑別することができる。
 また、観察対象の粘膜の状態ががんである場合、判定部85は、血管指標値Diの時間変化を用いて、または、血管指標値Diの時間変化と血管指標値Diの値を組み合わせて用いて、さらに、がんのステージを判定することが好ましい。そして、判定結果表示部117には、判定部85が判定したがんのステージを表示することが好ましい。このように、観察対象の粘膜の状態をがんと判定した場合にさらにステージを判定して、その結果をモニタ88に表示すれば、さらに細やかに診断を支援することができる。
 上記第1~第4実施形態では、モニタ88に表示する第1内視鏡画像101等の各内視鏡画像に対して1つの関心領域を設定しているが、モニタ88に表示する第1内視鏡画像101等の各内視鏡画像に対して複数の関心領域を設定してもよい。例えば、内視鏡画像の全体をメッシュに区切った各領域を関心領域に設定し、各関心領域で血管指標値Di及びその時間変化を算出することができる。また、医師が任意箇所に任意個数の関心領域を設定できるようにしても良い。
 上記第1~第4実施形態及び各種変形例では、撮像センサ48が設けられた内視鏡12を被検体内に挿入して観察を行う内視鏡システム10(または内視鏡システム310)によって本発明を実施しているが、カプセル内視鏡システムでも本発明は好適である。例えば、図24に示すように、カプセル内視鏡システムは、カプセル内視鏡600と、プロセッサ装置(図示しない)とを少なくとも有する。カプセル内視鏡600は、光源602と、光源制御部603と、撮像センサ604と、画像信号取得処理部606と、送受信アンテナ608とを備えている。光源602は、内視鏡システム10の光源20と同様に構成され、光源制御部603の制御によって、照明光を発光する。画像信号取得処理部606は、画像信号取得部53、DSP56、ノイズ低減部58、信号処理部62として機能する。カプセル内視鏡システムのプロセッサ装置は、内視鏡システム310のプロセッサ装置16と同様に構成され、画像処理装置65としても機能する。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 13a 静止画像取得指示部
 13b ズーム操作部
 14 光源装置
 16 プロセッサ装置
 18 モニタ
 19 コンソール
 20 光源
 22 光源制御部
 30a 照明光学系
 30b 撮像光学系
 41 ライトガイド
 45 照明レンズ
 46 対物レンズ
 47 ズームレンズ
 48 撮像センサ
 51 CDS/AGC回路
 52 A/Dコンバータ
 53 画像信号取得部
 56 DSP
 58 ノイズ低減部
 61 メモリ
 62 信号処理部
 63 映像信号生成部
 64 ストレージ
 65 画像処理装置
 81 画像取得部
 82 血管抽出部
 83 血管指標値算出部
 84 時間変化算出部
 85 判定部
 87 入力デバイス
 88 モニタ
 99 内視鏡画像
 101 第1内視鏡画像
 102 第2内視鏡画像
 103 第3内視鏡画像
 111 第1関心領域
 112 第2関心領域
 115 メインウィンドウ
 116 サブウィンドウ
 117 判定結果表示部
 122 粘膜表面の形状
 123 表層血管
 124 中深層血管
 132 第2血管画像
 251 血管情報算出部
 252 血管パラメータ算出部
 253 重み付け係数テーブル
 310 内視鏡システム
 403 第3内視鏡画像
 411 第1関心領域
 412 第2関心領域
 413 第3関心領域
 414 メインウィンドウ
 415 第1サブウィンドウ
 416 第2サブウィンドウ
 501 着色処理部
 502 拡大画像
 505 判定結果のリスト
 510 操作メニュー
 600 カプセル内視鏡
 602 光源
 603 光源制御部
 604 撮像センサ
 606 画像信号取得処理部
 608 送受信アンテナ
 di 血管指標値
 Di 血管指標値
 Di 第1血管指標値
 Di 第2血管指標値
 di1 第1血管指標値
 Di1 第1血管指標値
 di2 第2血管指標値
 Di2 第2血管指標値
 Di3 第3血管指標値
 DiA 血管指標値
 DiB 血管指標値
 DiC 血管指標値
 Et 期間
 L1 病変
 L2 病変
 P 指標値
 P1 血管パラメータ
 P2 血管パラメータ
 Ri 領域
 Ro 領域
 T1 撮影時刻
 T2 撮影時刻
 T3 撮影時刻
 TH1 第1閾値
 TH2 第2閾値
 TH3 第3閾値
 Vi 血管情報

Claims (18)

  1.  内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得する画像取得部と、
     複数の前記内視鏡画像から前記観察対象の血管をそれぞれ抽出する血管抽出部と、
     前記内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出する血管指標値算出部と、
     前記血管指標値の時間変化を算出する時間変化算出部と、
     前記血管指標値の時間変化を用いて前記観察対象の粘膜の状態を判定する判定部と、
     前記判定部の判定結果を表示する表示部と、
     を備える画像処理装置。
  2.  血管指標値算出部は、前記血管抽出部が抽出した血管の本数、太さ、太さの変化、太さの変化の複雑度、長さ、長さの変化、分岐数、分岐角度、分岐点間距離、交差数、傾き、面積、密度、粘膜を基準とした深さ、高低差、間隔、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうちいずれかの血管情報を前記血管指標値として算出する請求項1に記載の画像処理装置。
  3.  血管指標値算出部は、
     前記血管抽出部が抽出した血管の本数、太さ、太さの変化、太さの変化の複雑度、長さ、長さの変化、分岐数、分岐角度、分岐点間距離、交差数、傾き、面積、密度、粘膜を基準とした深さ、高低差、間隔、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量のうちいずれかの血管情報を算出する血管情報算出部と、
     複数の前記血管情報を用いて演算をすることにより血管パラメータを算出する血管パラメータ算出部と、
     を備え、
     前記血管指標値算出部は、前記血管パラメータを前記血管指標値とする請求項1に記載の画像処理装置。
  4.  前記時間変化算出部は、複数の前記血管指標値の差、比、または、変化率を算出する請求項1~3のいずれか1項に記載の画像処理装置。
  5.  前記血管指標値算出部は、複数種類の前記血管指標値を算出し、
     前記時間変化算出部は、前記血管指標値の種類ごとに前記時間変化を算出し、
     前記判定部は、前記血管指標値の種類ごとの時間変化を用いて前記観察対象の粘膜の状態を判定する請求項1~4のいずれか1項に記載の画像処理装置。
  6.  前記判定部は、複数の時間的区間における前記血管指標値の時間変化の組み合わせによって前記観察対象の粘膜の状態を判定する請求項1~5のいずれか1項に記載の画像処理装置。
  7.  前記判定部は、前記血管指標値が閾値以上または閾値未満になる期間の長さを算出し、算出した前記期間の長さによって前記観察対象の粘膜の状態を判定する請求項1~5のいずれか1項に記載の画像処理装置。
  8.  複数の前記内視鏡画像に関心領域を設定する場合、
     前記血管指標値算出部は、前記関心領域の前記血管指標値を算出することに加え、前記関心領域外の前記血管指標値を算出し、
     前記時間変化算出部は、前記関心領域内外の前記血管指標値を用いて前記血管指標値の空間変化を算出し、さらに、前記血管指標値の空間変化の時間変化を算出し、
     前記判定部は、前記血管指標値の空間変化の時間変化によって前記粘膜の状態を判定する請求項1~5のいずれか1項に記載の画像処理装置。
  9.  前記表示部に、前記判定部の判定結果をポップアップ表示する請求項1~8のいずれか1項に記載の画像処理装置。
  10.  前記血管指標値の時間変化を用いて、前記ポップアップ表示の表示設定をする請求項9に記載の画像処理装置。
  11.  前記表示部に、前記判定部の判定結果を用いて粘膜の状態を判定した部分を着色した前記内視鏡画像を表示する請求項1~8のいずれか1項に記載の画像処理装置。
  12.  前記表示部に、前記血管指標値の時間変化を用いて前記内視鏡画像を着色する部分の色を設定する請求項11に記載の画像処理装置。
  13.  前記表示部に、前記判定部の判定結果のリストを表示する請求項1~8のいずれか1項に記載の画像処理装置。
  14.  前記血管指標値の時間変化を用いて、前記リストの表示設定をする請求項13に記載の画像処理装置。
  15.  前記表示部に、前記内視鏡画像の粘膜の状態を判定した部分を拡大して表示する請求項1~8のいずれか1項に記載の画像処理装置。
  16.  前記血管指標値の時間変化を用いて、前記内視鏡画像の粘膜の状態を判定した部分の拡大率を設定する請求項15に記載の画像処理装置。
  17.  観察対象を撮像する内視鏡と、
     前記内視鏡によって前記観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得する画像取得部と、複数の前記内視鏡画像から前記観察対象の血管をそれぞれ抽出する血管抽出部と、前記内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出する血管指標値算出部と、前記血管指標値の時間変化を算出する時間変化算出部と、前記血管指標値の時間変化を用いて前記観察対象の粘膜の状態を判定する判定部と、を有するプロセッサ装置と、
     前記判定部の判定結果を表示する表示部と、
     を備える内視鏡システム。
  18.  画像取得部が、内視鏡によって観察対象を互いに異なる時刻に撮像して得る複数の内視鏡画像を取得するステップと、
     血管抽出部が、複数の前記内視鏡画像から前記観察対象の血管をそれぞれ抽出するステップと、
     血管指標値算出部が、前記内視鏡画像から抽出した血管についてそれぞれ血管指標値を算出するステップと、
     時間変化算出部が、前記血管指標値の時間変化を算出するステップと、
     判定部が、前記血管指標値の時間変化を用いて前記観察対象の粘膜の状態を判定するステップと、
     を備える画像処理方法。
PCT/JP2016/078818 2015-09-29 2016-09-29 画像処理装置、内視鏡システム、及び画像処理方法 WO2017057574A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017543560A JP6633641B2 (ja) 2015-09-29 2016-09-29 画像処理装置、内視鏡システム、及び画像処理方法
EP16851745.6A EP3357406A4 (en) 2015-09-29 2016-09-29 Image processing apparatus, endoscope system, and image processing method
US15/937,871 US10653295B2 (en) 2015-09-29 2018-03-28 Image processing apparatus, endoscope system, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015192005 2015-09-29
JP2015-192005 2015-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/937,871 Continuation US10653295B2 (en) 2015-09-29 2018-03-28 Image processing apparatus, endoscope system, and image processing method

Publications (1)

Publication Number Publication Date
WO2017057574A1 true WO2017057574A1 (ja) 2017-04-06

Family

ID=58423755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/078818 WO2017057574A1 (ja) 2015-09-29 2016-09-29 画像処理装置、内視鏡システム、及び画像処理方法

Country Status (4)

Country Link
US (1) US10653295B2 (ja)
EP (1) EP3357406A4 (ja)
JP (1) JP6633641B2 (ja)
WO (1) WO2017057574A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187049A1 (ja) * 2018-03-30 2019-10-03 オリンパス株式会社 診断支援装置、診断支援方法及び診断支援プログラム
WO2020054566A1 (ja) * 2018-09-11 2020-03-19 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
WO2020075578A1 (ja) * 2018-10-12 2020-04-16 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
CN111278349A (zh) * 2017-10-26 2020-06-12 富士胶片株式会社 医疗图像处理装置
CN111295127A (zh) * 2017-10-31 2020-06-16 富士胶片株式会社 检查支持装置、内窥镜装置、检查支持方法及检查支持程序
WO2020174747A1 (ja) * 2019-02-26 2020-09-03 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
CN111770717A (zh) * 2018-02-20 2020-10-13 富士胶片株式会社 内窥镜系统
WO2020235502A1 (ja) * 2019-05-23 2020-11-26 富士フイルム株式会社 画像処理装置
JP2021509987A (ja) * 2018-01-03 2021-04-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管特徴を使用して異常な組織を検出するためのシステム及び方法
WO2021157392A1 (ja) * 2020-02-07 2021-08-12 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
EP3821790A4 (en) * 2018-07-09 2021-09-08 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JPWO2020100630A1 (ja) * 2018-11-14 2021-09-30 富士フイルム株式会社 医療画像処理システム
JP2022511604A (ja) * 2018-10-03 2022-02-01 シーエムアール・サージカル・リミテッド インジケータシステム
JP2023026480A (ja) * 2019-02-19 2023-02-24 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6196900B2 (ja) * 2013-12-18 2017-09-13 オリンパス株式会社 内視鏡装置
CN105828693B (zh) * 2013-12-20 2018-11-06 奥林巴斯株式会社 内窥镜装置
US10973587B2 (en) * 2015-08-19 2021-04-13 Brainlab Ag Reference array holder
EP3524132A4 (en) * 2016-10-05 2019-11-27 FUJIFILM Corporation PROCESSOR DEVICE, ENDOSCOPY SYSTEM AND METHOD FOR OPERATING A PROCESSOR DEVICE
JP6858672B2 (ja) * 2017-08-29 2021-04-14 富士フイルム株式会社 医療画像処理システム及び内視鏡システム
US11153482B2 (en) * 2018-04-27 2021-10-19 Cubic Corporation Optimizing the content of a digital omnidirectional image
CN112584746B (zh) * 2018-08-23 2024-08-30 富士胶片株式会社 医用图像处理装置和内窥镜系统
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
CN113543694B (zh) * 2019-03-08 2024-02-13 富士胶片株式会社 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及记录介质
US11571107B2 (en) * 2019-03-25 2023-02-07 Karl Storz Imaging, Inc. Automated endoscopic device control systems
JP7229210B2 (ja) * 2020-09-15 2023-02-27 Hoya株式会社 内視鏡用プロセッサ及び内視鏡システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006218138A (ja) * 2005-02-14 2006-08-24 Yoshihiro Sasaki ハイビジョンデジタル内視鏡画像のファイリング及びコンピューター支援診断装置
JP2009207541A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 医用画像読影支援装置
JP2011217798A (ja) * 2010-04-05 2011-11-04 Fujifilm Corp 電子内視鏡システム
JP2012514525A (ja) * 2009-01-08 2012-06-28 ノースショア ユニバーシティ ヘルスシステム 微小血管血液量の初期増加検出により取得されるパラメータを用いた癌スクリーニング方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3895400B2 (ja) 1996-04-30 2007-03-22 オリンパス株式会社 診断支援装置
JP4450973B2 (ja) 2000-11-30 2010-04-14 オリンパス株式会社 診断支援装置
JP4493637B2 (ja) 2006-09-29 2010-06-30 オリンパス株式会社 診断支援装置及び診断支援方法
JP2011255006A (ja) 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
US9636041B2 (en) * 2011-01-28 2017-05-02 Bar Ilan University Method and system for non-invasively monitoring biological or biochemical parameters of individual
JP5642619B2 (ja) 2011-05-12 2014-12-17 富士フイルム株式会社 医療装置システム及び医療装置システムの作動方法
JP6027803B2 (ja) 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6045396B2 (ja) * 2013-02-27 2016-12-14 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6030035B2 (ja) 2013-09-27 2016-11-24 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法
JP6092792B2 (ja) * 2014-01-20 2017-03-08 富士フイルム株式会社 内視鏡システム用プロセッサ装置、内視鏡システム、内視鏡システム用プロセッサ装置の作動方法、内視鏡システムの作動方法
EP3357403B1 (en) * 2015-09-28 2019-08-21 Fujifilm Corporation Image processing device, endoscope system, and image processing method
JP6513209B2 (ja) * 2015-09-28 2019-05-15 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006218138A (ja) * 2005-02-14 2006-08-24 Yoshihiro Sasaki ハイビジョンデジタル内視鏡画像のファイリング及びコンピューター支援診断装置
JP2009207541A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 医用画像読影支援装置
JP2012514525A (ja) * 2009-01-08 2012-06-28 ノースショア ユニバーシティ ヘルスシステム 微小血管血液量の初期増加検出により取得されるパラメータを用いた癌スクリーニング方法
JP2011217798A (ja) * 2010-04-05 2011-11-04 Fujifilm Corp 電子内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3357406A4 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111278349A (zh) * 2017-10-26 2020-06-12 富士胶片株式会社 医疗图像处理装置
US11132795B2 (en) 2017-10-26 2021-09-28 Fujifilm Corporation Medical image processing apparatus
EP3701852A4 (en) * 2017-10-26 2020-12-02 Fujifilm Corporation DEVICE FOR PROCESSING MEDICAL IMAGES
US11302092B2 (en) 2017-10-31 2022-04-12 Fujifilm Corporation Inspection support device, endoscope device, inspection support method, and inspection support program
CN111295127A (zh) * 2017-10-31 2020-06-16 富士胶片株式会社 检查支持装置、内窥镜装置、检查支持方法及检查支持程序
JPWO2019087790A1 (ja) * 2017-10-31 2020-11-12 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
JP7181298B2 (ja) 2018-01-03 2022-11-30 コーニンクレッカ フィリップス エヌ ヴェ 血管特徴を使用して異常な組織を検出するためのシステム及び方法
JP2021509987A (ja) * 2018-01-03 2021-04-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管特徴を使用して異常な組織を検出するためのシステム及び方法
EP3756532A4 (en) * 2018-02-20 2021-03-10 FUJIFILM Corporation ENDOSCOPIC SYSTEM
CN111770717A (zh) * 2018-02-20 2020-10-13 富士胶片株式会社 内窥镜系统
CN111770717B (zh) * 2018-02-20 2023-11-07 富士胶片株式会社 内窥镜系统
JPWO2019187049A1 (ja) * 2018-03-30 2021-03-18 オリンパス株式会社 診断支援装置、診断支援プログラム、及び、診断支援方法
US11457876B2 (en) 2018-03-30 2022-10-04 Olympus Corporation Diagnosis assisting apparatus, storage medium, and diagnosis assisting method for displaying diagnosis assisting information in a region and an endoscopic image in another region
CN111989025A (zh) * 2018-03-30 2020-11-24 奥林巴斯株式会社 诊断辅助装置、诊断辅助方法和诊断辅助程序
WO2019187049A1 (ja) * 2018-03-30 2019-10-03 オリンパス株式会社 診断支援装置、診断支援方法及び診断支援プログラム
EP3821790A4 (en) * 2018-07-09 2021-09-08 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US11991478B2 (en) 2018-07-09 2024-05-21 Fujifilm Corporation Medical image processing apparatus, medical image processing system, medical image processing method, and program
US11969144B2 (en) 2018-09-11 2024-04-30 Sony Corporation Medical observation system, medical observation apparatus and medical observation method
JP7444065B2 (ja) 2018-09-11 2024-03-06 ソニーグループ株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
JPWO2020054566A1 (ja) * 2018-09-11 2021-08-30 ソニーグループ株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
WO2020054566A1 (ja) * 2018-09-11 2020-03-19 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
JP7308936B2 (ja) 2018-10-03 2023-07-14 シーエムアール・サージカル・リミテッド インジケータシステム
JP7500667B2 (ja) 2018-10-03 2024-06-17 シーエムアール・サージカル・リミテッド インジケータシステム
JP2022511604A (ja) * 2018-10-03 2022-02-01 シーエムアール・サージカル・リミテッド インジケータシステム
JP2022145863A (ja) * 2018-10-03 2022-10-04 シーエムアール・サージカル・リミテッド インジケータシステム
JP7252970B2 (ja) 2018-10-12 2023-04-05 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理装置の作動方法
JPWO2020075578A1 (ja) * 2018-10-12 2021-09-16 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
WO2020075578A1 (ja) * 2018-10-12 2020-04-16 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
JP7430287B2 (ja) 2018-10-12 2024-02-09 富士フイルム株式会社 医用画像処理装置及び内視鏡システム
JPWO2020100630A1 (ja) * 2018-11-14 2021-09-30 富士フイルム株式会社 医療画像処理システム
JP7263387B2 (ja) 2018-11-14 2023-04-24 富士フイルム株式会社 医療画像処理システム
US11961228B2 (en) 2018-11-14 2024-04-16 Fujifilm Corporation Medical image processing system
JP2023026480A (ja) * 2019-02-19 2023-02-24 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法
JP7143504B2 (ja) 2019-02-26 2022-09-28 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
CN113498323A (zh) * 2019-02-26 2021-10-12 富士胶片株式会社 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序
WO2020174747A1 (ja) * 2019-02-26 2020-09-03 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JPWO2020174747A1 (ja) * 2019-02-26 2021-12-02 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
US12106394B2 (en) 2019-02-26 2024-10-01 Fujifilm Corporation Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program
WO2020235502A1 (ja) * 2019-05-23 2020-11-26 富士フイルム株式会社 画像処理装置
US12020350B2 (en) 2019-05-23 2024-06-25 Fujifilm Corporation Image processing apparatus
JPWO2021157392A1 (ja) * 2020-02-07 2021-08-12
WO2021157392A1 (ja) * 2020-02-07 2021-08-12 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法

Also Published As

Publication number Publication date
EP3357406A1 (en) 2018-08-08
EP3357406A4 (en) 2018-10-10
JP6633641B2 (ja) 2020-01-22
JPWO2017057574A1 (ja) 2018-06-14
US20180214005A1 (en) 2018-08-02
US10653295B2 (en) 2020-05-19

Similar Documents

Publication Publication Date Title
JP6633641B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6577088B2 (ja) 内視鏡システム
JP6420492B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
US10426318B2 (en) Image processing apparatus, endoscope system, and image processing method
US10959606B2 (en) Endoscope system and generating emphasized image based on color information
JP6640866B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6831463B2 (ja) 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
JP6461760B2 (ja) 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム
JP6469558B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JPWO2020040059A1 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
WO2016121811A1 (ja) 画像処理装置及び画像処理方法、並びに内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16851745

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2017543560

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016851745

Country of ref document: EP