WO2017002184A1 - 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2017002184A1
WO2017002184A1 PCT/JP2015/068736 JP2015068736W WO2017002184A1 WO 2017002184 A1 WO2017002184 A1 WO 2017002184A1 JP 2015068736 W JP2015068736 W JP 2015068736W WO 2017002184 A1 WO2017002184 A1 WO 2017002184A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
determination unit
region
detection target
unit
Prior art date
Application number
PCT/JP2015/068736
Other languages
English (en)
French (fr)
Inventor
隆志 河野
大和 神田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to DE112015006562.8T priority Critical patent/DE112015006562T5/de
Priority to JP2017525709A priority patent/JP6707083B2/ja
Priority to CN201580080992.6A priority patent/CN107708521B/zh
Priority to PCT/JP2015/068736 priority patent/WO2017002184A1/ja
Publication of WO2017002184A1 publication Critical patent/WO2017002184A1/ja
Priority to US15/849,343 priority patent/US11170498B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/126Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning in-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp

Definitions

  • the present invention relates to an image processing apparatus, an endoscope system, an image processing method, and an image processing program for detecting an abnormal part from an image captured by an endoscope that observes the inside of a living body.
  • endoscopes have become widespread as medical observation apparatuses that can non-invasively observe the inside of a lumen of a living body.
  • images that are not suitable for observation are removed in advance from images captured by an endoscope, images having specific characteristics such as lesions are extracted, and image quality improvement is performed on images to be observed in advance.
  • Development of diagnostic support technology is underway.
  • Patent Document 1 when performing diagnosis by pit pattern analysis or the like, pre-processing includes blurring and specular reflection, etc., deletion of low-quality images unnecessary for diagnosis, high contrast, super-resolution, etc. A technique for improving the image quality is disclosed.
  • the processing necessary for the image captured by the endoscope can be assumed to some extent by the operation performed during imaging by the endoscope operator as a doctor. For example, when the operator is performing any treatment on the subject, there is a high possibility that a lesion has already been discovered, and thus the necessity of diagnosing an image captured during the treatment is low. In addition, if the operator is observing using special light such as narrow-band light, there is a high possibility that the already discovered lesion has been differentiated. The need to look for is low.
  • Patent Document 1 although an image unnecessary for diagnosis is determined based on image quality and the image quality of an image to be diagnosed is improved, the efficiency of diagnosis support is improved.
  • the image is not discriminated in accordance with the operation, and the efficiency of the diagnosis support is limited, for example, excessive processing is performed on an image that originally does not require diagnosis.
  • the present invention has been made in view of the above, and for an image captured by an endoscope, an image having a low necessity for diagnosis is determined according to the operation of the operator of the endoscope, and the efficiency is improved. It is an object to provide an image processing apparatus, an endoscope system, an image processing method, and an image processing program capable of providing good diagnosis support.
  • an image processing apparatus is based on an image captured by an endoscope inserted into a subject, and the endoscope at the time of capturing the image. From an operation determination unit that determines the operation of the operator, an image determination unit that determines whether or not the image is to be a detection target image of a specific region based on a determination result by the operation determination unit, and the detection target image And a detection unit for detecting the specific region.
  • An endoscope system includes the image processing apparatus and the endoscope.
  • the image processing method is an operation determination step in which the calculation unit determines the operation of the operator of the endoscope at the time of capturing the image based on the image captured by the endoscope inserted into the subject. And an image determining step for determining whether or not the image is to be a detection target image of a specific region based on a determination result in the operation determination step, and the calculation unit is based on the detection target image. And a detecting step of detecting the specific area.
  • the image processing program includes an operation determination step of determining an operation of an operator of the endoscope at the time of capturing the image based on an image captured by the endoscope inserted into the subject, and the operation Based on the determination result in the determination step, an image determining step for determining whether or not the image is to be detected as a specific region and a detection step for detecting the specific region from the detection target image are executed on a computer. It is characterized by making it.
  • the detection target image in the specific area is determined according to the operation of the endoscope operator at the time of image capture, and therefore the specific area can be detected by extracting an image necessary for diagnosis. it can. Therefore, efficient diagnosis support can be performed.
  • FIG. 1 is a schematic diagram showing a configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the image processing apparatus shown in FIG.
  • FIG. 3 is a block diagram illustrating a configuration of the treatment operation determination unit illustrated in FIG. 2.
  • FIG. 4 is a block diagram showing a configuration of the discrimination operation determination unit shown in FIG.
  • FIG. 5 is a block diagram illustrating a configuration of the gaze movement determination unit illustrated in FIG. 2.
  • FIG. 6 is a schematic diagram for explaining the reverse side confirmation operation.
  • FIG. 7 is a block diagram showing a configuration of the insertion motion determination unit shown in FIG.
  • FIG. 8 is a flowchart showing the image processing method according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing the image processing method according to the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing details of processing for determining an operation based on an image.
  • FIG. 10 is a block diagram showing a configuration of a calculation unit provided in the image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 11 is a flowchart showing an image processing method according to Embodiment 2 of the present invention.
  • FIG. 12 is a flowchart illustrating details of the detection target area setting process.
  • FIG. 13 is a block diagram illustrating a configuration of a calculation unit included in the image processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 14 is a flowchart showing an image processing method according to Embodiment 3 of the present invention.
  • FIG. 1 is a schematic diagram illustrating a configuration example of an endoscope system according to Embodiment 1 of the present invention.
  • An endoscope system 1 shown in FIG. 1 is inserted into the body of a subject, performs imaging, generates an image 2 and outputs it, and generates illumination light emitted from the distal end of the endoscope 2.
  • the light source device 3 includes an image processing device 4 that performs various types of image processing on an image generated by the endoscope 2, and a display device 5 that displays an image subjected to image processing by the image processing device 4.
  • the endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22.
  • a universal cord 23 that extends in a direction different from the direction in which 21 extends and incorporates various cables for connecting to the image processing device 4 and the light source device 3 is provided.
  • the insertion portion 21 is connected to the distal end portion 24, a bendable bending portion 25 formed of a plurality of bending pieces, and a proximal end side of the bending portion 25, and has a flexible long flexible needle tube 26. And have.
  • An illumination unit that irradiates the inside of the subject with illumination light generated by the light source device 3, an optical system that collects the illumination light reflected in the subject, and an optical system are collected at the distal end portion 24 of the insertion unit 21.
  • An imaging element such as a CCD or a CMOS that generates an image signal by receiving the illuminated illumination light and performing photoelectric conversion is provided.
  • these optical systems and imaging elements are collectively referred to as an imaging unit.
  • the plurality of signal lines include a signal line for transmitting an image signal output from the image sensor to the image processing device 4, a signal line for transmitting a control signal output from the image processing device 4 to the image sensor, and the like.
  • the operation unit 22 includes a bending knob 22a for bending the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 22b for inserting a treatment tool such as a biopsy needle, a biological forceps, a laser knife, and an inspection probe, and an image processing apparatus. 4.
  • a treatment tool such as a biopsy needle, a biological forceps, a laser knife, and an inspection probe
  • an image processing apparatus a treatment tool insertion unit 22b for inserting a treatment tool such as a biopsy needle, a biological forceps, a laser knife, and an inspection probe
  • an image processing apparatus e.g., a laser knife, and an inspection probe.
  • the light source device 3 has a plurality of switches 22c that are input units for inputting operation instruction signals of peripheral devices such as an air supply means, a water supply means, and a gas supply means.
  • the universal cord 23 incorporates at least a light guide and an assembly cable.
  • the connector 27 is detachably attached to the light source device 3, and the connector 27 is electrically connected via a coiled coil cable 28.
  • An electrical processing unit 29 that is connected and detachable is provided.
  • the image signal output from the image sensor is input to the image processing device 4 via the coil cable 28 and the electrical connector unit 29.
  • information on operations performed on the operation unit 22 information on the type (normal light, special light, etc.) of illumination light output from the light source device 3, intensity, and the like are the system information such as the coil cable 28 and the electrical The data is input to the image processing apparatus 4 via the connector unit 29.
  • FIG. 2 is a block diagram showing a configuration of the image processing apparatus 4 shown in FIG.
  • the image processing device 4 performs image processing on the image captured during the examination by the endoscope 2 according to the operation performed by the endoscope operator at the time of imaging.
  • An image captured by the endoscope 2 is usually a color image having pixel levels (pixel values) with respect to wavelength components of R (red), G (green), and B (blue) at each pixel position.
  • the image processing device 4 includes a control unit 10 that controls the operation of the entire image processing device 4, an image acquisition unit 11 that acquires an image from an endoscope, and an operation performed from the outside.
  • the operation input unit 12 that inputs the input signal to the control unit 10, the output unit 13 that is an interface that outputs a display image signal to the display device 5, the images acquired by the image acquisition unit 11, and various programs Is stored, and a calculation unit 15 that executes predetermined image processing on the image data.
  • the control unit 10 includes a general-purpose processor such as a CPU (Central Processing Unit) and a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC (Application Specific Integrated Circuit).
  • a general-purpose processor such as a CPU (Central Processing Unit) and a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC (Application Specific Integrated Circuit).
  • the various operations stored in the storage unit 14 are read to give instructions to each unit constituting the image processing device 4, data transfer, and the like, thereby supervising the overall operation of the image processing device 4. And control.
  • the control unit 10 is a dedicated processor, the processor may execute various processes independently, or the processor and the storage unit 14 cooperate with each other by using various data stored in the storage unit 14. Various processes may be executed by combining them.
  • the image acquisition unit 11 includes an interface that captures an image from the endoscope 2.
  • the image output from the endoscope 2 may be temporarily stored in a storage device such as a server.
  • the image acquisition unit 11 is configured by a communication device or the like connected to the server. The image is acquired by performing data communication between them.
  • the operation input unit 12 is configured by input devices such as a keyboard, a mouse, a touch panel, and various switches, for example, and inputs input signals generated in response to external operations on these input devices to the control unit 10.
  • the output unit 13 outputs a display image signal to the display device 5 under the control of the control unit 10 to display various screens.
  • the storage unit 14 includes various IC memories such as ROM and RAM such as flash memory that can be updated and recorded, an information storage device such as a built-in hard disk or a CD-ROM connected by a data communication terminal, and writing of information to the information storage device It is constituted by a reading device or the like.
  • the storage unit 14 operates the image processing device 4 and also causes the image processing device 4 to execute various functions, and is used during the execution of this program.
  • Store data Specifically, the storage unit 14 stores a program for storing an image processing program that causes the image processing device 4 to perform image processing according to the operation of the operator at the time of imaging of an image captured by the endoscope. Part 141.
  • the calculation unit 15 is configured using a general-purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC.
  • a general-purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC.
  • the image processing program stored in the program storage unit 141 is read to execute image processing corresponding to the operation of the operator at the time of imaging on the image captured by the endoscope. To do.
  • the arithmetic unit 15 is a dedicated processor, the processor may execute various processes independently, or the processor and the storage unit 14 cooperate with each other by using various data stored in the storage unit 14 or the like. Image processing may be executed by combining them.
  • the calculation unit 15 includes an operation determination unit 110 that determines the operation of the operator when the image is captured based on the image in the subject captured by the endoscope 2, and the operator's operation.
  • An image determination unit 120 that determines whether or not the image is to be detected as an abnormal region detection image and a detection unit 130 that detects an abnormal region from the detection processing image according to the determination result of the operation.
  • an abnormal region is a specific region that has a different aspect from a normal mucosal region, such as a lesion, and depending on the type of abnormality, a color feature amount, a shape feature amount, a texture feature amount, etc. Identified by.
  • the motion determination unit 110 includes a treatment motion determination unit 111, a discrimination motion determination unit 112, a gaze motion determination unit 113, and an insertion motion determination unit 114.
  • the operation determination unit 110 only needs to include at least one of these determination units, and may include all four determination units.
  • the treatment operation determination unit 111 determines whether the operation of the operator at the time of capturing the determination target image is a treatment operation for performing a treatment on the subject.
  • the treatment operation includes an operation for performing treatment or the like using various treatment tools and an operation for feeding water into the subject to perform washing.
  • FIG. 3 is a block diagram illustrating a configuration of the treatment operation determination unit 111.
  • the treatment operation determination unit 111 includes a treatment instrument determination unit 111a and a cleaning operation determination unit 111b.
  • the treatment operation determination unit 111 only needs to include at least one of the treatment instrument determination unit 111a and the cleaning operation determination unit 111b, and may include both.
  • the treatment action determination unit 111 determines the presence / absence of a treatment action based on the determination results of these determination units.
  • the treatment instrument determination unit 111a determines whether or not a treatment instrument region in which a treatment instrument used for treatment of the subject is reflected is detected from the image.
  • Treatment tools used in endoscopy include high-frequency snares used for polypectomy to remove polyps, which are locally elevated lesions on the mucosal epithelium, and hot biopsy used to pinch and remove small polyps without constriction. There are biopsy forceps and local injection needles for injecting physiological saline into the submucosa when excising lesions such as flat tumors with little bumps and flatness.
  • the treatment instrument determination unit 111a detects an area having a luminance higher than the threshold and a tube shape as a treatment instrument area. Specifically, the treatment instrument determination unit 111a first creates a luminance histogram from the RGB color components of each pixel in the image, and determines a threshold value based on a main distribution peak composed of mucous membrane areas and the like. A high luminance region is extracted by performing threshold processing.
  • the outline of the high-luminance region is extracted, and it is determined by Hough transform or the like whether or not the outline is configured by a geometric shape including a straight line and a circle. In the case where the outline of the high-luminance area is configured by a geometric shape, this high-luminance area is determined as the treatment instrument area.
  • the treatment instrument determination unit 1111 determines that a treatment operation using the treatment instrument has been performed at the time of imaging.
  • the cleaning operation determination unit 111b determines whether or not a cleaning region in which cleaning water fed into the subject is detected is detected from the image.
  • the cleaning region exhibits specular reflection that occurs when the illumination light is reflected by the water surface or water droplets, and has a large change in area and position over time. Therefore, the cleaning operation determination unit 111b detects a region having high luminance and a large area and position change over time as a cleaning region. Specifically, the cleaning operation determination unit 111b first calculates the luminance from the pixel value of each pixel in the image, and extracts a high luminance region by threshold processing for the luminance.
  • a high luminance region having a large luminance difference near the boundary is extracted as a specular reflection region. Further, when the difference between the area and position of the specular reflection area is obtained with respect to the image preceding the image by a predetermined frame (for example, the immediately preceding frame), and the difference is larger than the threshold, the specular reflection area Is determined to be a cleaning region.
  • the cleaning operation determination unit 111b may detect a region where a specific frequency component (for example, a high frequency component) in the image has a large time change as a cleaning region. When the cleaning region is detected from the image, the cleaning operation determination unit 111b determines that the cleaning operation has been performed at the time of imaging.
  • a specific frequency component for example, a high frequency component
  • the treatment instrument insertion portion 22b of the endoscope 2 is provided with a sensor for detecting that the treatment instrument is inserted into the subject, and a detection signal output from the sensor is used.
  • a detection signal output from the sensor is used.
  • the discrimination operation determination unit 112 determines whether or not the operation of the operator at the time of capturing the determination target image is a discrimination operation for determining (discriminating) the extent of the lesion with respect to the lesion observed in the image.
  • FIG. 4 is a block diagram illustrating a configuration of the discrimination operation determination unit 112.
  • the discrimination operation determination unit 112 includes an enlargement determination unit 112a, a staining determination unit 112b, a special light determination unit 112c, a front view determination unit 112d, and a motion determination unit 112e.
  • movement determination part 112 should just have at least 1 among these determination parts, and may have all.
  • the discrimination operation determination unit 112 determines the presence / absence of the discrimination operation based on the determination results of these determination units.
  • the enlargement determination unit 112a determines whether or not the determination target image is an enlargement image, that is, whether or not the image is obtained by bringing the distal end portion 24 of the endoscope 2 close to the mucous membrane to a predetermined distance or less. Specifically, the enlargement determination unit 112a first acquires distance information near the center of the image.
  • the distance information is information representing the distance from the distal end portion 24 of the endoscope 2 to the subject.
  • the distance information a value that is less absorbed by a blood vessel or the like that appears on the mucosal surface, which is a subject, and that has a correlation with the distance to the mucosal surface is used.
  • the wavelength component corresponding to the R component is far from the absorption band of hemoglobin, and since it is a long wavelength, it is difficult to be affected by absorption and scattering in the living body.
  • the attenuation amount of the wavelength component corresponds to the distance traveled within the subject. Therefore, the value of the R component can be used as distance information. In this case, it can be determined that the greater the R component value, the closer the distance, and the smaller the R component value, the farther the distance.
  • the enlargement determination unit 112a determines an image whose distance near the center of the image is smaller than a threshold as an enlarged image. For example, when the R component value is used as the distance information, an image in which the R component value of the pixel value in the pixels near the center of the image is larger than the threshold value is determined as an enlarged image.
  • the enlargement determining unit 112a may analyze a pit pattern in the image.
  • the operator When an operator enlarges an image, the operator often wants to observe the pit pattern on the mucous membrane in detail. For this reason, the operator operates the endoscope 2 so that the pit pattern is clear and large to some extent. Therefore, the frequency component extracted from the pit pattern when the image is enlarged is acquired in advance, and the frequency component is compared with the frequency component extracted from the image to be determined, so that the image to be determined is obtained. It can be determined whether or not the image is an enlarged image.
  • the enlargement determination unit 112a obtains a switching signal when the imaging mode in the endoscope 2 is switched to enlargement observation from the endoscope 2, thereby making a determination systematically. You can go.
  • the staining determination unit 112b determines whether or not the determination target image is a stained image in which the mucous membrane as a subject is stained. Specifically, the staining determination unit 112b first sets a region of interest in the image, and calculates an average color from the RGB color components of each pixel in the region of interest. Then, it is determined whether or not the average color is out of the hue distribution of the normal mucous membrane region. For example, when the mucous membrane is stained with indigo carmine used in the large intestine examination, the average color shifts in the blue direction. In such a case, the staining determination unit 112b determines that the image is a stained image.
  • the special light determination unit 112c determines whether or not the determination target image is a special light image captured using special light. Specifically, the special light determination unit 112c first sets a region of interest in the image, and calculates an average color from the RGB color components of each pixel in the region of interest. Then, it is determined whether or not the average color is out of the hue distribution in the normal mucous membrane region. For example, when imaging is performed using narrowband light in the green wavelength band that projects blood vessels in the deep mucosa, the average color is shifted in the green direction. In such a case, the special light determination unit 112c determines that the image is a special light image.
  • the special light determination unit 112c acquires a switching signal from the endoscope 2 when the imaging mode in the endoscope 2 is switched to the special light imaging mode. The determination may be made systematically.
  • the front-view determination unit 112d determines whether or not the determination target image is a front-view image obtained by imaging the mucous membrane as a subject from the front.
  • Front view means a state in which the visual field of the imaging unit provided at the distal end portion 24 of the endoscope 2 captures the mucous membrane corresponding to the side surface of the lumen from the front.
  • the field of view of the imaging unit when the field of view of the imaging unit is directed to the deep part of the tube, a deep region of the tube with low luminance appears near the center in the image.
  • the mucous membrane corresponding to the side surface of the lumen is shown obliquely, the gradient strength of the mucosal region in the image is increased.
  • the field of view of the imaging unit faces the direction of the mucous membrane, the deep tube region does not appear in the image, the mucosal region becomes dominant, and the gradient strength of the mucosal region decreases.
  • the front vision determination unit 112d detects an image in which the deep tube region is not detected, the mucosal region is dominant, that is, occupies a predetermined ratio or more of the area in the image, and the gradient strength of the mucosal region is equal to or less than a threshold value. It is determined as a front view image.
  • the gradient strength of the mucosal area may be calculated based on distance information in the mucosal area.
  • the deep tube region is detected as a region having a low luminance, a certain size of area, and a relatively circular shape (non-elongated shape). Therefore, the front view determination unit 112d first detects a low luminance region whose luminance is equal to or less than a threshold value from the image, and determines whether or not the area of the low luminance region is equal to or larger than a predetermined value. When the area of the low luminance region is equal to or larger than the predetermined value, the front view determination unit 112d further determines whether or not the low luminance region has an elongated shape.
  • the determination of the elongated shape can be performed based on, for example, calculating the ratio of the area of the low luminance area to the area of the circumscribed rectangle of the low luminance area. Specifically, when the ratio is equal to or less than a predetermined value, the shape of the low luminance region is an elongated shape, and it is determined that the low luminance region is not a deep tube region. On the other hand, when the ratio is larger than a predetermined value, the low luminance region has a relatively circular shape (non-elongated shape), and the low luminance region is determined to be a tube deep region.
  • the motion determination unit 112e determines whether or not images with a small motion of the structure shown in the image have been continuously captured for a certain period or longer. Specifically, the motion determination unit 112e first calculates an amount representing the motion of the corresponding structure with an image preceding a predetermined frame (for example, one frame or several frames), and an image whose amount is equal to or less than a threshold value. Extracted as a small motion image with small motion. Then, it is determined whether the determination target image is a small motion image and whether the small motion image is continuously captured for a certain period or more prior to the determination target image.
  • a predetermined frame for example, one frame or several frames
  • an image is divided into a plurality of rectangular areas, and a motion vector is calculated for each rectangular area by a block matching method (reference: CG-ARTS Association, “Digital Image Processing”, 2nd edition, page 243). .
  • a representative value (maximum value, average value, etc.) of the length of a motion vector representing the amount of motion between rectangular regions having a high correlation value between images to be compared can be used as the amount representing the motion of the structure.
  • the gaze movement determination unit 113 determines whether or not the operator's movement at the time of capturing the determination target image is a gaze movement in which the operator gazes at a certain area in the subject.
  • FIG. 5 is a block diagram illustrating a configuration of the gaze movement determination unit 113.
  • the gaze movement determination unit 113 includes a treatment region determination unit 113a, a front view determination unit 113b, a foreground determination unit 113c, a motion determination unit 113d, and a heel confirmation check unit 113e. Note that the gaze movement determination unit 113 only needs to have at least one of these units, and may have all of them.
  • the gaze movement determination unit 113 determines the presence or absence of the gaze movement based on the determination results of these determination units.
  • the treatment area determination unit 113a determines whether or not there is an area immediately after the treatment is performed on the determination target image. This is because, if there is a region that has just been treated, the operator is naturally gazing at the treatment region. When a treatment is performed in the subject, a device such as a clip for hemostasis or a region where a trace of bleeding appears in the image is observed. The treatment region determination unit 113a detects such a region in which the instrument and the bleeding trace are reflected as a treatment region shortly after the treatment is performed.
  • the treatment area determination unit 113a first calculates the distribution of the color feature amount from the RGB color components of each pixel in the image, and extracts an area exhibiting a distribution different from the distribution of the color feature quantity of the mucous membrane area as a candidate area. . Then, a contour is extracted from the candidate region, and further, a geometric shape such as a straight line or a curve is extracted from the contour by Hough transform or the like. And the candidate area
  • the front-view determination unit 113b determines whether the determination target image is a front-view image obtained by imaging the mucous membrane from the front.
  • the method for determining a front-view image is the same as that of the front-view determination unit 112d of the discrimination operation determination unit 112.
  • the foreground determination unit 113c determines whether or not the determination target image is a foreground image obtained by imaging an area whose distance from the distal end portion 24 of the endoscope 2 is a predetermined value or less. Specifically, the foreground determination unit 113c first acquires distance information in each part in the image, and calculates a representative value (maximum value, average value, etc.) of these distance information. When the representative value is within a predetermined range, it is determined that the image is a foreground image. As the distance information, the value of the R component of the pixel value can be used as in the above-described determination of the enlarged image.
  • the motion determination unit 113d determines whether or not images with a small motion of the structure shown in the image have been continuously captured for a certain period or longer.
  • the calculation method and determination method of the amount representing the movement of the structure are the same as those of the motion determination unit 112e of the discrimination operation determination unit 112.
  • the heel confirmation determining unit 113e determines whether or not the determination target image is captured during the confirmation operation of the lining of the mucous membrane. This determination is performed by determining whether a part of the insertion portion 21 of the endoscope 2 is shown in the image.
  • FIG. 6 is a schematic diagram for explaining the reverse side confirmation operation. As shown in FIG. 6, when observing the back side of the mucosal fold P1 with respect to the insertion direction of the insertion portion 21 of the endoscope 2 (see FIG. 1), the bending portion 25 is bent so as to look back at the proximal end side. . Therefore, the insertion part 21 itself may be reflected in the field of view V of the imaging part provided at the distal end part 24. Thus, when a part of the endoscope 2 is reflected in the image, the heel / face confirmation determining unit 113e determines that the image was captured during the heel / face confirmation operation.
  • the region in which the insertion part 21 of the endoscope 2 is shown has a distribution different from the distribution of the color feature amount of the mucous membrane region and is detected as a region having a tube shape. Specifically, the insertion unit 21 exhibits a color distribution near black. Therefore, first, the back-side confirmation determination unit 113e extracts regions included in the distribution of color feature values that can be taken by the insertion unit 21 as candidate regions based on the RGB color components of each pixel in the image. Then, a contour is extracted from the candidate area, and a geometric shape of a straight line or a curve is extracted from the contour by Hough transform or the like. When the geometric shape is extracted from the contour, the candidate area is determined to be a part of the insertion unit 21.
  • the insertion operation determination unit 114 determines whether or not the operation of the operator at the time of capturing the determination target image is an insertion operation in which the endoscope is inserted in the direction from the anus of the subject toward the cecum.
  • the endoscope 2 is usually inserted into the large intestine from the anus and the distal end portion 24 of the endoscope 2 is advanced to the vicinity of the cecum. Observe the affected area on the return path from the large intestine. For this reason, in the forward path for inserting the endoscope 2, the operator focuses on the insertion operation and does not perform much observation as a diagnosis. Therefore, the determination of whether the operator's operation is an insertion operation (outward path) or an extraction operation (return path) of the endoscope 2 is related to selection of an image to be diagnosed.
  • FIG. 7 is a block diagram illustrating a configuration of the insertion operation determination unit 114.
  • the insertion motion determination unit 114 includes an outward path determination unit 114a and a movement direction determination unit 114b.
  • the insertion motion determination unit 114 only needs to have at least one of the forward path determination unit 114a and the movement direction determination unit 114b, and may have both.
  • the insertion motion determination unit 114 determines the presence or absence of an insertion motion based on the determination results of these determination units.
  • the forward path determination unit 114a determines whether or not the endoscope 2 (see FIG. 1) inserted into the subject is moving in the forward path, that is, in the direction from the anus toward the small intestine. Specifically, the forward path determination unit 114a includes an insertion length that is the length of a portion of the insertion unit 21 (see FIG. 6) of the endoscope 2 that is inserted into the large intestine and an insertion unit that is curved along the shape of the large intestine. Whether or not the endoscope 2 is moving in the forward path is determined based on at least one of the 21 insertion shapes. The insertion length and the insertion shape can be acquired as system information by providing the endoscope 2 with an endoscope insertion shape observation device (UPD). The forward path determination unit 114a determines, as the forward path, a period until the distal end portion 24 of the endoscope 2 reaches the vicinity of the cecum based on the insertion length or the insertion shape obtained from the UPD.
  • UPD endoscope
  • the forward path determination unit 114a determines whether or not the vicinity of the cecum is captured in the images sequentially captured by the endoscope 2, and the section until the first image of the vicinity of the cecum appears as the forward path. You may judge.
  • the tube deep region detection method is the same as the front view determination unit 112d (see FIG. 4) of the discrimination operation determination unit 112.
  • the distal end portion 24 when the distal end portion 24 is viewing the mucous membrane in front, the deep tube region does not appear in the image even if it is not near the cecum. Therefore, when the mucous membrane region is dominant in the image, it may be determined whether or not the distal end portion 24 has reached the vicinity of the cecum based on the luminance gradient intensity in the mucous membrane region. When the luminance gradient intensity of the mucous membrane region is small (below the threshold value), the distal end portion 24 is viewing the mucous membrane in front, and therefore, when the direction of the distal end portion 24 is changed, a deep tube region may appear.
  • the distal end portion 24 faces the back (traveling direction) of the tube, and therefore when the tube deep region is not detected in such a state. Can be determined to have reached the vicinity of the cecum.
  • the movement direction determination unit 114b determines whether the endoscope 2 is moving toward the distal end portion 24 of the endoscope 2 or whether the endoscope 2 is moving toward the proximal end portion of the endoscope 2. judge. When the endoscope 2 is moving toward the distal end portion 24 of the endoscope 2, it can be said that the endoscope 2 is moving in the forward path. On the other hand, when the endoscope 2 is moving toward the proximal end portion of the endoscope 2, it can be said that the endoscope 2 is moving on the return path.
  • the moving direction determination unit 114b acquires the insertion shape of the insertion unit 21, and determines the tube depth direction in the image based on the insertion shape.
  • the insertion shape can be acquired as system information in the same manner as the forward path determination unit 114a.
  • UPD Endoscope Position Detecting Unit
  • the tube deep direction in the image may be detected based on the contour edge shape of the mucosal fistula.
  • the contour edge of the mucosal fistula is basically convex on the side opposite to the tube deep portion direction. Therefore, the tube deep direction can be determined by extracting the contour edge of the mucosal fistula and determining the irregularities of the contour edge.
  • the moving direction determination unit 114b further acquires a motion vector between an image that is a predetermined frame ahead (for example, the immediately preceding frame) of the determination target image, and from the relationship between the motion vector and the tube deep portion direction in the image.
  • the moving direction of the endoscope 2 is detected. That is, it can be said that the endoscope 2 is moving toward the distal end portion 24 when the direction of the motion vector matches the depth direction in the image.
  • the direction of the motion vector is opposite to the tube deep portion direction in the image, it can be said that the endoscope 2 is moving toward the proximal end portion.
  • the image determination unit 120 determines the detection target image of the abnormal area according to the determination result by the operation determination unit 110. Specifically, an image captured during any operation by the operation determination unit 110 is excluded from the detection target image of the abnormal region, and other images are determined as detection target images of the abnormal region.
  • the detection unit 130 executes processing for detecting an abnormal region from the image determined by the image determination unit 120 as the detection target image.
  • FIG. 8 is a flowchart showing the image processing method according to the first embodiment.
  • step S10 the calculation unit 15 acquires an image captured by the endoscope 2 as a determination target image. Specifically, when an operator inputs a command to start an examination in the subject by the endoscope system 1 by operating the operation input unit 12, the operation input unit 12 generates an input signal representing this command. Input to the control unit 10. In response to this, the image acquisition unit 11 starts acquiring images from the endoscope 2 under the control of the control unit 10. The image acquired by the image acquisition unit 11 is temporarily stored in the storage unit 14, and the calculation unit 15 acquires the image by sequentially reading the images from the storage unit 14 in time series.
  • the operation determination unit 110 determines the operation performed at the time of capturing the image based on the acquired image.
  • the motion determination unit 110 only needs to include at least one of the treatment motion determination unit 111, the discrimination motion determination unit 112, the gaze motion determination unit 113, and the insertion motion determination unit 114.
  • the treatment motion determination unit 111 the discrimination motion determination unit 112
  • the gaze motion determination unit 113 the gaze motion determination unit 113
  • the insertion motion determination unit 114 the operation determination unit 110 determines the operation performed at the time of capturing the image based on the acquired image.
  • the motion determination unit 110 only needs to include at least one of the treatment motion determination unit 111, the discrimination motion determination unit 112, the gaze motion determination unit 113, and the insertion motion determination unit 114.
  • it demonstrates as what is equipped with all of these.
  • FIG. 9 is a flowchart showing details of processing for determining an operation based on an image.
  • the treatment operation determination unit 111 determines whether or not a treatment operation has been performed when the image is captured.
  • the treatment operation determination unit 111 includes both the treatment instrument determination unit 111a and the cleaning operation determination unit 111b, and each performs determination on an image.
  • the treatment operation determination unit 111 performs a treatment operation when the image is captured when the treatment tool determination unit 111a detects a treatment tool region from the image or when the cleaning operation determination unit 111b detects a cleaning region from the image. Judge that it was.
  • step S111: Yes If it is determined that a treatment operation has been performed when the image is captured (step S111: Yes), the operation determination unit 110 determines that the image is captured during the operation (step S112). Thereafter, the process returns to the main routine. On the other hand, when it is determined that the treatment operation is not performed at the time of capturing the image (step S111: No), the process proceeds to step S113.
  • step S113 the discrimination operation determination unit 112 determines whether or not a discrimination operation has been performed when the image is captured.
  • the discrimination operation determination unit 112 includes all of the enlargement determination unit 112a to the motion determination unit 112e, and each performs determination on the image.
  • the discrimination operation determination unit 112 determines that the image is a magnified image when the magnification determination unit 112a determines that the image is a magnified image.
  • the special light determination unit 112c When it is determined that the image is a special light image, when the front-view determination unit 112d determines that the image is a front-view image, or when the motion determination unit 112e reaches the image, the motion small images continue for a certain period or more. If it is determined that the image has been captured, it is determined that a discrimination operation has been performed when the image is captured.
  • step S113: Yes If it is determined that a discrimination operation has been performed at the time of capturing the image (step S113: Yes), the process proceeds to step S112. On the other hand, when it is determined that the discrimination operation is not performed when the image is captured (step S113: No), the process proceeds to step S114.
  • the gaze operation determination unit 113 determines whether or not the gaze operation was performed when the image was captured.
  • the gaze movement determination unit 113 includes all of the treatment area determination unit 113a to the heel confirmation determination unit 113e, and each performs determination on the image.
  • the treatment region determination unit 113a detects a treatment region from the image
  • the gaze movement determination unit 113 determines that the image is a front view image.
  • the treatment region determination unit 113a detects the treatment region from the image
  • the foreground determination unit 113c Is determined to be a foreground image
  • the motion determination unit 113d determines that a small motion image has been continuously captured for a certain period of time until reaching the image
  • the backside confirmation determination unit 113e determines that the image is When it is determined that the image is captured during the eyelid back confirmation operation, it is determined that the gaze operation is performed when the image is captured.
  • step S114: Yes If it is determined that a gaze operation was performed when the image was captured (step S114: Yes), the process proceeds to step S112. On the other hand, when it is determined that the gaze operation is not performed when the image is captured (step S114: No), the process proceeds to step S115.
  • step S115 the insertion operation determination unit 114 determines whether or not an endoscope insertion operation has been performed when the image is captured.
  • the insertion motion determination unit 114 includes both the forward path determination unit 114a and the movement direction determination unit 114b, and each performs determination on the image.
  • the insertion operation determination unit 114 is performed when the forward path determination unit 114a determines that the endoscope 2 is traveling in the forward path, or when the movement direction determination unit 114b determines that the endoscope 2 is traveling in the deep tube direction. Then, it is determined that the endoscope has been inserted when the image is captured.
  • step S115: Yes If it is determined that an insertion operation has been performed when the image is captured (step S115: Yes), the process proceeds to step S112. On the other hand, when it is determined that the insertion operation is not performed when the image is captured (step S115: No), the operation determination unit 110 determines that the image is captured when the operator does not perform the predetermined operation. (Step S116). Thereafter, the process returns to the main routine.
  • step S111, S113, S114, and S115 may be performed in parallel, and the determination priority order may be determined in advance for a plurality of determination results. For example, priorities may be set in the order of treatment operation determination, discrimination operation determination, gaze operation determination, and insertion operation determination, and the determination results may be referred to in descending order of priority. Alternatively, these determination results may be referred to at the same time, and if at least one of the determination results is determined to be operating, it may be determined that the image has been captured during the operation.
  • step S12 the image determination unit 120 determines an image determined to be captured when the operator is not performing a predetermined action as a detection target image of the abnormal region. Specifically, an image captured when none of the treatment operation, the discrimination operation, the gaze operation, and the insertion operation is performed is determined as the detection target image.
  • the detection unit 130 detects an abnormal region from the detection target image. Specifically, first, the mucous membrane region is set as the detection target region for the detection target image. Specifically, based on the color feature value, shape feature value, and frequency component in the detection target image, the non-mucosal region residue region, bubble region, dark region, and specular reflection region are removed.
  • the detection method for the residue region various known methods can be used.
  • the residual region is distributed on the yellowish green side relative to the distribution region of the mucous color feature amount based on the color feature amount calculated from the pixel value (each RGB color component) of each pixel in the image. It can be detected as a region to perform.
  • the distribution region of the color feature amount of the mucous membrane is acquired in advance based on the average color in the image, the distribution range of the main color feature amount, and the like.
  • the bubble region can be detected as a region having a predetermined range of frequency components.
  • the dark area can be detected by calculating the luminance from the RGB color components of each pixel in the image and thresholding the luminance.
  • a white area is extracted based on the color feature amount calculated from the RGB color components of each pixel, and a curved surface approximation or the like is performed based on a change in pixel values of pixels around the white area (mucosal area). It can be detected by interpolating the boundary.
  • a color difference calculated by YCbCr conversion for each RGB color component, a hue, saturation, G / R, B / G, etc. calculated by HSI conversion can be used. Or you may use each RGB color component as a color feature-value as it is.
  • the detection unit 130 sets any one or more areas in the detection target area as the discrimination area, and calculates a feature amount for each discrimination area.
  • the feature amount various feature amounts such as a color feature amount, a shape feature amount such as a contour (edge) or a surface shape (pixel value gradient), and a texture feature amount can be used.
  • these feature quantities are integrated as one feature vector, and a discrimination index for discriminating whether each discrimination region is an abnormal region is calculated based on this feature vector.
  • a known technique can be used as a method for calculating the discrimination index.
  • a discrimination index P (x) based on a probability model expressed by the following formula (1) is calculated.
  • the detection unit 130 detects a determination region in which the determination index P (x) is larger than a threshold acquired in advance as an abnormal region.
  • the determination index P (x) is an index indicating whether or not the feature vector of the discrimination region seems to be a feature vector of the abnormal region. It can be said that the larger the value of the determination index P (x), the more likely the discrimination area is to be an abnormal area. That is, the determination index P (x) represents the degree of coincidence between the determination area and the abnormal area.
  • the symbol x shown in Formula (1) shows the feature vector (k rows and 1 column) of the determination region.
  • the symbol ⁇ is an average vector (k rows and 1 column) of feature vectors in a plurality of abnormal region samples acquired in advance.
  • Symbol Z is a variance-covariance matrix (k rows and k columns) of feature vectors in a plurality of samples of an abnormal region acquired in advance.
  • is a determinant of the matrix Z
  • the calculation unit 15 outputs the detection result of the abnormal region by the detection unit 130. Specifically, when an abnormal region is detected from the determination target image, the control unit 10 generates an image that highlights the detected abnormal region and causes the display device 5 to display the image. As an example of highlighting, a line surrounding the abnormal region, an arrow pointing to the abnormal region, and the like are superimposed and displayed on the original image to be determined. Alternatively, a text such as “abnormal area exists” may be superimposed on the original image to be determined. Thereafter, the process for the determination target image ends.
  • the operation of the operator at the time of capturing the determination target image is determined, and the image that has been subjected to the predetermined operation is not the detection target of the abnormal region. Since the abnormal region is detected only from the image of the image, efficient diagnosis support can be performed.
  • the motion determination unit 110 performs all of the treatment motion determination, the discrimination motion determination, the gaze motion determination, and the insertion motion determination for each of the determination target images. However, it is not always necessary to perform all of these motion determinations, and the operator may select the type of motion determination to be performed.
  • the type of operation determination to be performed can be input by operating the operation input unit 12.
  • the motion determination unit 110 may cause the determination unit corresponding to the selected type of motion determination to execute processing.
  • FIG. 10 is a block diagram illustrating a configuration of a calculation unit included in the image processing apparatus according to the second embodiment.
  • the image processing apparatus according to the second embodiment includes a calculation unit 16 illustrated in FIG. 10 instead of the calculation unit 15 illustrated in FIG.
  • the configuration and operation of each part of the image processing apparatus other than the arithmetic unit 16 are the same as those in the first embodiment.
  • the calculation unit 16 includes an operation determination unit 110 that determines the operation of the operator at the time of capturing an image to be determined, an image determination unit 120 that determines a detection target image of an abnormal region, and a detection target image of the abnormal region as a predetermined image.
  • a classification unit 210 that performs classification according to conditions, and a detection unit 220 that performs detection processing of an abnormal region according to the classification result by the classification unit 210 are provided. Among these, the configurations and operations of the operation determination unit 110 and the image determination unit 120 are the same as those in the first embodiment.
  • the classification unit 210 includes an illumination light classification unit 211, a non-mucosal region detection unit 212, and an image change classification unit 213. For each detection target image determined by the image determination unit 120, each of these units has a respective condition. Sort by. The classification unit 210 only needs to have at least one of these units, and may have all of them.
  • the illumination light classification unit 211 classifies the detection target image according to the illumination light used at the time of imaging. Specifically, the detection target images are classified into an image captured with white light and an image captured with special light that is narrowband light of a specific wavelength band. This classification is performed based on the average color in the determination target image, like the special light determination unit 112c of the discrimination operation determination unit 112.
  • the illumination light classifying unit 211 classifies an image in which the average color of the attention area set in the image is shifted in the green direction with respect to the hue distribution in the mucous membrane area as an image captured by special light, and normalizes the other images. To classify the image as captured.
  • the non-mucosal region detection unit 212 detects a region other than the mucous membrane, that is, a non-mucosal region, such as a treatment tool such as forceps, an instrument such as a clip, a part of the endoscope 2 or the like from the detection target image.
  • the detection target image is classified based on whether or not such a non-mucosal region is detected.
  • a method for detecting a region where a treatment tool such as forceps is reflected is the same as that of the treatment tool determination unit 111a (see FIG. 3) of the treatment operation determination unit 111.
  • a method for detecting an area where an instrument such as a clip is shown is the same as the treatment area determination unit 113a (see FIG. 5) of the gaze movement determination unit 113.
  • the method for detecting the region in which a part of the endoscope 2 is shown is the same as that of the eyelid confirmation determination unit 113e (same as above) of the gaze operation determination unit
  • the image change classification unit 213 classifies the detection target image according to the magnitude of the change of the detection target image with respect to the image of the preceding frame. Specifically, the image change classifying unit 213 calculates a motion vector between an image preceding a predetermined frame (for example, the immediately preceding frame) and the image. Similar to the motion determination unit 112e (see FIG. 4) of the discrimination operation determination unit 112, the motion vector is divided into a plurality of rectangular regions and is calculated by a block matching method for each rectangular region.
  • the image change classifying unit 213 classifies the number of rectangular regions having a high correlation value between images to be compared as an amount representing the change in the image. That is, an image having less than a predetermined number of rectangular areas having a high correlation value is classified as an image having a large change. On the other hand, an image in which a predetermined number or more of rectangular regions having a high correlation value exist is classified as an image having a small change. Furthermore, when the image with a small change continues for a predetermined period along the time series, the image change classification unit 213 determines that the image included in the continuous period is a small change continuous image.
  • the detection unit 220 includes a detection target region setting unit 221 that sets a detection target region in the detection target image according to the classification result by the classification unit 210.
  • the detection target region setting unit 221 includes at least one of a blurred region limiting unit 221a, a non-mucosal region exclusion unit 221b, and a new region limiting unit 221c according to the configuration of the classification unit 210.
  • the detection target region setting unit 221 also includes the unclear region limitation unit 221a, the non-mucosal region exclusion unit 221b, And all of the new area limiting unit 221c.
  • the unclear region limiting unit 221a limits the detection target region to a detection target image classified as captured by the special light by the illumination light classifying unit 211 by limiting the region to which the texture structure is unclear.
  • the non-mucosal region exclusion unit 221b sets a region other than the non-mucosal region as a detection target region for the detection target image in which the non-mucosal region detection unit 212 detects the non-mucosal region.
  • the new area limiting unit 221c sets a detection target area for the detection target image classified by the image change classification unit 213 according to the change in the detection target image.
  • the new area is an area that does not exist in the image of the preceding frame but newly appears in the detection target image, that is, an area that has newly entered the field of view in the traveling direction of the endoscope 2. That is.
  • FIG. 11 is a flowchart showing an image processing method according to the second embodiment. Note that steps S10 to S12 in FIG. 11 are the same as those in the first embodiment (see FIG. 8).
  • the classification unit 210 classifies the detection target images determined in step S12.
  • the classification unit 210 includes all of the illumination light classification unit 211, the non-mucosal region detection unit 212, and the image change classification unit 213, and each unit classifies the detection target image. That is, the classification of whether the detection target image is an image captured by special light, the classification of whether the non-mucosal region is detected from the detection target image, and the change of the detection target image with respect to the image of the preceding frame And large and small classification.
  • the detection target region setting unit 221 sets the detection target region based on the classification result of the detection target image in step S21.
  • FIG. 12 is a flowchart illustrating details of the detection target area setting process. In the second embodiment, description will be made assuming that the detection target region setting unit 221 includes all of the unclear region limiting unit 221a, the non-mucosal region excluding unit 221b, and the new region limiting unit 221c.
  • step S221 the detection target area setting unit 221 determines whether or not the detection target image is classified into an image captured with special light. If the image is not classified as an image captured with special light (step S221: No), the process directly proceeds to step S223.
  • the unclear region limiting unit 221a sets an unclear region of the texture structure in the detection target image as the detection target region. (Step S222).
  • the special optical imaging is usually performed to classify the state of the texture structure of the region of interest during the discrimination operation. For this reason, it is considered that a region where the texture structure is unclear, that is, a blurred region, is not a discrimination target. Therefore, in this step S222, this blurred region that is not targeted for discrimination is set as a detection target region.
  • the blurred region can be extracted depending on whether the contrast of the frequency component in the image is within the allowable range during the discrimination operation. That is, an area where the contrast is outside the allowable range at the time of the discrimination operation is set as the detection target area. Thereafter, the process proceeds to step S223.
  • step S223 the detection target region setting unit 221 determines whether or not the detection target image is classified as an image in which the non-mucosal region is detected. If the non-mucosal region is not classified into the detected image (step S223: No), the process directly proceeds to step S225.
  • the non-mucosal region exclusion unit 221b sets a region other than the non-mucosal region as the detection target region for the detection target image. (Step S224). Specifically, mask processing is performed on the non-mucosal region. If a detection target area has already been set in step S222, a detection target area is newly added. Thereafter, the process proceeds to step S225.
  • step S225 the detection target area setting unit 221 determines whether or not the detection target image is classified as an image having a large change.
  • the new area limiting unit 221c sets the entire image as a detection target area (step S226). Thereafter, the process returns to the main routine.
  • the new area restriction unit 221c sets a new area that newly appears in the detection target image as the detection target area (Ste S227). If a detection target area has already been set in step S222 or S224, a detection target area is newly added.
  • the position and size of the new area are determined based on the movement direction and movement width obtained from the image change classification unit 213 by the block matching method. Specifically, first, the movement of the endoscope 2 is classified based on the movement direction. Specifically, when the movement direction is the same in a predetermined number or more, the movement of the endoscope 2 is classified as parallel movement. Further, when the movement direction is directed outward with respect to one point, that is, when the movement direction is diffused outward from one point, the movement of the endoscope 2 is classified as forward. When the movement direction is inward with respect to one point, that is, when the movement direction is focused toward one point, the movement of the endoscope 2 is classified as backward movement. In the case of other patterns, the new area is not detected, and the detection target image is treated the same as an image having a large change.
  • the position and size of the new area are estimated from the movement direction and movement width.
  • the position of the new area is one of the four directions of the image end (left / right / up / down), that is, the direction of the base end side of the movement direction, , Depends on the direction of the starting point of the movement. For example, when the movement direction is from the lower left to the upper right, the position of the new area is the left end and the lower end of the image.
  • the size of the new area is determined by the size of each component when the motion direction vector having the motion width as the vector amount is decomposed into components in the direction of the position of the new area.
  • the position of the new area is the above-mentioned one point where the proximal end side of the movement direction is concentrated, and the size of the new area is determined by the movement width.
  • the classification of the movement of the endoscope 2 is backward, the position of the new area is all four directions at the image end, and the size of the new area is determined by the movement width. Thereafter, the process returns to the main routine.
  • step S23 the detection unit 220 detects an abnormal region from the detection target region set in step S22.
  • the abnormal area detection processing is the same as that of the first embodiment (see step S13 in FIG. 8) except that the detection target is limited to the detection target area.
  • the subsequent step S14 is also the same as in the first embodiment.
  • the detection target image of the abnormal area determined based on the operation of the operator at the time of image capturing is further classified based on the operation of the operator. Since the detection target area of the abnormal area is narrowed based on the classification result, more efficient image processing can be performed.
  • FIG. 13 is a block diagram illustrating a configuration of a calculation unit included in the image processing apparatus according to the third embodiment.
  • the image processing apparatus according to the third embodiment includes a calculation unit 17 shown in FIG. 13 instead of the calculation unit 15 shown in FIG.
  • the configuration and operation of each part of the image processing apparatus other than the arithmetic unit 17 are the same as those in the first embodiment.
  • the calculation unit 17 includes a detection unit 310 having a detection parameter setting unit 311 in addition to the detection target region setting unit 221 with respect to the calculation unit 16 shown in FIG.
  • the configuration of each unit of the calculation unit 17 other than the detection parameter setting unit 311 is the same as that of the second embodiment.
  • the detection parameter setting unit 311 detects an abnormal region for the detection target region set by the detection target region setting unit 221 in accordance with the classification result performed by the classification unit 210 on the detection target image determined by the image determination unit 120. Set the detection parameters used in.
  • FIG. 14 is a flowchart showing an image processing method according to the third embodiment. Note that steps S10 to S22 in FIG. 14 are the same as those in the second embodiment (see FIG. 11).
  • the detection parameter setting unit 311 sets a detection parameter for detecting an abnormal region from each of the detection target regions set in step S22 based on the classification result in step S21.
  • the detection parameters include an identification boundary in the feature space of the feature amount representing the abnormal region, a distribution model of the feature amount of the abnormal region, an identification function, a representative distribution pattern, and the like.
  • Such detection parameters are created in advance using teacher data according to variations that can be classified by the classification unit 210 and stored in the storage unit 14.
  • the detection target region when a region having a clear texture structure is set as a detection target region among detection target images classified as images captured by special light (see step S222 in FIG. 12), the detection target region
  • detection parameters created based on a color distribution model of special light different from normal light are read from the storage unit 14 and set.
  • the mucosal area excluding the non-mucosal area is set as the detection target area (see step S224 in FIG. 12)
  • the detection parameter created based on the color distribution model of the mucosa under normal light is stored in the storage unit. 14 is set.
  • detection parameters created based on teacher data corresponding to these imaging situations are It is read from the storage unit 14 and set.
  • the present invention is not limited to Embodiments 1 to 3 and modifications, and various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiments and modifications.
  • some constituent elements may be excluded from all the constituent elements shown in each embodiment or modification, or may be formed by appropriately combining the constituent elements shown in different embodiments or modifications. May be.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

内視鏡により撮像された画像に対し、診断の必要性の低い画像を判別し、効率の良い診断支援を行うことができる画像処理装置等を提供する。画像処理装置4は、被検体に挿入された内視鏡が撮像した画像に基づき、撮像時における当該内視鏡の操作者の動作を判定する動作判定部110と、動作判定部110による判定結果に基づいて、特定領域の検出対象とする検出対象画像を決定する画像決定部120と、検出対象画像から特定領域を検出する検出部130とを備える。

Description

画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
 本発明は、生体内を観察する内視鏡により撮像された画像から異常部を検出する画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムに関する。
 近年、生体の管腔内を非侵襲に観察可能な医用観察装置として、内視鏡が広く普及している。また、内視鏡により撮像された画像から観察に適さない画像を予め除去したり、病変等の特定の特徴を有する画像を抽出したり、観察対象の画像に対して事前に画質改善を行ったりする診断支援技術の開発も進められている。
 例えば特許文献1には、ピットパターン解析等により診断を行う際に、前処理として、ぼけや鏡面反射等を含み、診断に不要な低品質画像の削除、並びに、高コントラスト化及び超解像等の画質改善を行う技術が開示されている。
特表2010-512173号公報
 内視鏡により撮像された画像に対して必要な処理は、医師である内視鏡の操作者が撮像中に行った動作によってある程度想定することができる。例えば、操作者が被検体に対して何等かの処置を行っている場合、既に病変が発見されている可能性が高いので、処置中に撮像された画像を診断する必要性は低い。また、操作者が狭帯域光等の特殊光を用いて観察を行っている場合、既に発見された病変を鑑別している可能性が高いので、特殊光の下で撮像された画像からあらためて病変を探す必要性は低い。
 この点に関し、上記特許文献1においては、画質に基づいて診断に不要な画像を判別すると共に診断対象の画像の画質を改善するなどして、診断支援の効率化を図っているものの、操作者の動作に応じた画像の判別は行っておらず、本来診断が不要な画像に対して過剰な処理を行ってしまうなど、診断支援の効率化が限定的となっていた。
 本発明は、上記に鑑みて為されたものであって、内視鏡により撮像された画像に対し、診断の必要性の低い画像を内視鏡の操作者の動作に応じて判別し、効率の良い診断支援を行うことができる画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定部と、前記動作判定部による判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定部と、前記検出対象画像から前記特定領域を検出する検出部と、を備えることを特徴とする。
 本発明に係る内視鏡システムは、前記画像処理装置と、前記内視鏡と、を備えることを特徴とする。
 本発明に係る画像処理方法は、演算部が、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定ステップと、前記演算部が、前記動作判定ステップにおける判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定ステップと、前記演算部が、前記検出対象画像から前記特定領域を検出する検出ステップと、を含むことを特徴とする。
 本発明に係る画像処理プログラムは、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定ステップと、前記動作判定ステップにおける判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定ステップと、前記検出対象画像から前記特定領域を検出する検出ステップと、をコンピュータに実行させることを特徴とする。
 本発明によれば、画像の撮像時における内視鏡の操作者の動作に応じて、特定領域の検出対象画像を決定するので、診断に必要な画像を抽出して特定領域を検出することができる。従って、効率の良い診断支援を行うことが可能となる。
図1は、本発明の実施の形態1に係る内視鏡システムの構成を示す模式図である。 図2は、図1に示す画像処理装置の構成を示すブロック図である。 図3は、図2に示す処置動作判定部の構成を示すブロック図である。 図4は、図2に示す鑑別動作判定部の構成を示すブロック図である。 図5は、図2に示す注視動作判定部の構成を示すブロック図である。 図6は、襞裏確認動作を説明するための模式図である。 図7は、図2に示す挿入動作判定部の構成を示すブロック図である。 図8は、本発明の実施の形態1に係る画像処理方法を示すフローチャートである。 図9は、画像をもとに動作を判定する処理の詳細を示すフローチャートである。 図10は、本発明の実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。 図11は、本発明の実施の形態2に係る画像処理方法を示すフローチャートである。 図12は、検出対象領域の設定処理の詳細を示すフローチャートである。 図13は、本発明の実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。 図14は、本発明の実施の形態3に係る画像処理方法を示すフローチャートである。
 以下、本発明の実施の形態に係る画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムについて、図面を参照しながら説明する。なお、これら実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(実施の形態1)
 図1は、本発明の実施の形態1に係る内視鏡システムの構成例を示す模式図である。図1に示す内視鏡システム1は、被検体の体内に挿入されて撮像を行い、画像を生成して出力する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が生成した画像に対して各種画像処理を施す画像処理装置4と、画像処理装置4により画像処理が施された画像を表示する表示装置5とを備える。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、画像処理装置4及び光源装置3と接続する各種ケーブルを内蔵するユニバーサルコード23とを備える。
 挿入部21は、先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓針管26とを有する。この挿入部21の先端部24に、光源装置3が発生した照明光により被検体内を照射する照明部と、被検体内において反射された照明光を集光する光学系と、光学系により集光された照明光を受光して光電変換することにより画像信号を生成するCCD又はCMOS等の撮像素子とが設けられている。以下、これらの光学系及び撮像素子をまとめて、撮像部ともいう。
 操作部22と先端部24との間には、画像処理装置4との間で電気信号の送受信を行う複数の信号線が束ねられた集合ケーブルと、光を伝送するライトガイドとが接続されている。複数の信号線には、撮像素子が出力した画像信号を画像処理装置4に伝送する信号線及び画像処理装置4が出力する制御信号を撮像素子に伝送する信号線等が含まれる。
 操作部22は、湾曲部25を上下方向及び左右方向に湾曲させる湾曲ノブ22aと、生検針、生体鉗子、レーザメス、及び検査プローブ等の処置具を挿入する処置具挿入部22bと、画像処理装置4、光源装置3に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する入力部である複数のスイッチ22cと、を有する。
 ユニバーサルコード23は、ライトガイド及び集合ケーブルを少なくとも内蔵している。また、ユニバーサルコード23の操作部22に連なる側と異なる側の端部には、光源装置3に着脱自在なコネクタ部27と、コイル状をなすコイルケーブル28を介してコネクタ部27と電気的に接続され、画像処理装置4と着脱自在な電気コネクタ部29とが設けられている。撮像素子から出力された画像信号は、コイルケーブル28及び電気コネクタ部29を介して画像処理装置4に入力される。また、操作部22に対してなされた操作に関する情報や、光源装置3から出力された照明光の種類(通常光、特殊光等)や強度等に関する情報等は、システム情報としてコイルケーブル28及び電気コネクタ部29を介して画像処理装置4に入力される。
 図2は、図1に示す画像処理装置4の構成を示すブロック図である。画像処理装置4は、内視鏡2による検査中に撮像された画像に対し、内視鏡の操作者が撮像時に行っていた動作に応じた画像処理を行う。内視鏡2により撮像される画像は、通常、各画素位置においてR(赤)、G(緑)、B(青)の波長成分に対する画素レベル(画素値)を持つカラー画像である。
 図2に示すように、画像処理装置4は、該画像処理装置4全体の動作を制御する制御部10と、内視鏡から画像を取得する画像取得部11と、外部からなされる操作に応じた入力信号を制御部10に入力する操作入力部12と、表示装置5に対して表示用の画像信号を出力するインタフェースである出力部13と、画像取得部11が取得した画像や種々のプログラムを格納する記憶部14と、画像データに対して所定の画像処理を実行する演算部15とを備える。
 制御部10は、CPU(Central Processing Unit)等の汎用プロセッサやASIC(Application Specific Integrated Circuit)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。制御部10が汎用プロセッサである場合、記憶部14が記憶する各種プログラムを読み込むことによって画像処理装置4を構成する各部への指示やデータの転送等を行い、画像処理装置4全体の動作を統括して制御する。また、制御部10が専用プロセッサである場合、プロセッサが単独で種々の処理を実行しても良いし、記憶部14が記憶する各種データ等を用いることで、プロセッサと記憶部14が協働又は結合して種々の処理を実行してもよい。
 画像取得部11は、内視鏡2から画像を取り込むインタフェースによって構成される。或いは、内視鏡2から出力された画像を一旦サーバ等の記憶装置に蓄積する構成としても良く、この場合、画像取得部11は、サーバと接続される通信装置等で構成され、サーバとの間でデータ通信を行って画像を取得する。
 操作入力部12は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって構成され、これらの入力デバイスに対する外部からの操作に応じて発生した入力信号を制御部10に入力する。
 出力部13は、制御部10の制御の下で、表示用の画像信号を表示装置5に出力し、各種画面を表示させる。
 記憶部14は、更新記録可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵若しくはデータ通信端子で接続されたハードディスク若しくはCD-ROM等の情報記憶装置及び該情報記憶装置に対する情報の書込読取装置等によって構成される。記憶部14は、画像取得部11が取得した画像データの他、画像処理装置4を動作させると共に、種々の機能を画像処理装置4に実行させるためのプログラムや、このプログラムの実行中に使用されるデータ等を格納する。具体的には、記憶部14は、内視鏡により撮像された画像に対し、撮像時における操作者の動作に応じた画像処理を当該画像処理装置4に実行させる画像処理プログラムを記憶するプログラム記憶部141を有する。
 演算部15は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。演算部15が汎用プロセッサである場合、プログラム記憶部141が記憶する画像処理プログラムを読み込むことにより、内視鏡により撮像された画像に対し、撮像時における操作者の動作に応じた画像処理を実行する。また、演算部15が専用プロセッサである場合、プロセッサが単独で種々の処理を実行してもよいし、記憶部14が記憶する各種データ等を用いることで、プロセッサと記憶部14が協働又は結合して画像処理を実行してもよい。
 次に、演算部15の構成について説明する。図2に示すように、演算部15は、内視鏡2により撮像された被検体内の画像に基づき、当該画像の撮像時における操作者の動作を判定する動作判定部110と、操作者の動作の判定結果に応じて、当該画像を異常領域の検出対象画像とするか否かを決定する画像決定部120と、検出処理画像から異常領域を検出する検出部130とを備える。ここで、異常領域とは、病変部のように、正常な粘膜領域と異なる様相を呈する特定領域のことであり、異常の種類に応じて色特徴量や、形状特徴量や、テクスチャ特徴量等によって識別される。
 動作判定部110は、処置動作判定部111と、鑑別動作判定部112と、注視動作判定部113と、挿入動作判定部114とを備える。動作判定部110は、これらの判定部の内の少なくとも1つを備えていれば良く、これらの4つの判定部を全て備えていても良い。
 処置動作判定部111は、判定対象の画像の撮像時における操作者の動作が、被検体に対して処置を行う処置動作であるか否かを判定する。処置動作には、各種処置具を用いて治療等を行う動作と、被検体内に送水して洗浄を行う動作とが含まれる。
 図3は、処置動作判定部111の構成を示すブロック図である。図3に示すように、処置動作判定部111は、処置具判定部111aと、洗浄動作判定部111bとを有する。処置動作判定部111は、処置具判定部111aと洗浄動作判定部111bとのうちの少なくともいずれかを有していれば良く、両方有していても良い。処置動作判定部111は、これらの判定部の判定結果に基づいて処置動作の有無を判定する。
 処置具判定部111aは、被検体の処置に用いた処置具が写った処置具領域が画像内から検出されるか否かを判定する。内視鏡検査において用いられる処置具には、粘膜上皮に局所的に隆起した病変であるポリープを切除するポリペクトミーに使われる高周波スネア、くびれのない小さなポリープをつまんで切除するホットバイオプシーに使われるホットバイオプシー鉗子、隆起が少なく平らな早期の腫瘍等の病変を切除する際に、粘膜下層に生理食塩水などを注入するための局注針等がある。
 これらの処置具はいずれも、先端が金属製であり、管形状の軸の先端部に設けられている。そのため、内視鏡により照明光が照射されると高輝度の管形状領域として画像内に現れる。そこで、処置具判定部111aは、輝度が閾値よりも高く、且つ、管形状をなす領域を処置具領域として検出する。詳細には、処置具判定部111aは、まず、画像内の各画素のRGB色成分から輝度ヒストグラムを作成し、粘膜領域等で構成される主要な分布の山をもとに閾値を決定して閾値処理を行うことにより高輝度領域を抽出する。続いて、この高輝度領域の輪郭を抽出し、この輪郭が直線及び円形からなる幾何学的形状により構成されているか否かを、ハフ変換等により判定する。高輝度領域の輪郭が幾何学的形状により構成されている場合、この高輝度領域は処置具領域と判定される。画像内から処置具領域が検出された場合、処置具判定部1111は、撮像時に処置具を用いた処置動作がなされていたと判定する。
 洗浄動作判定部111bは、被検体内に送水された洗浄用の水が写った洗浄領域が画像内から検出されるか否かを判定する。洗浄領域は、照明光が水面や水滴に反射されることによって生じる鏡面反射を呈し、且つ面積及び位置の時間変化が大きい。そこで、洗浄動作判定部111bは、輝度が高く、面積及び位置の時間変化が大きい領域を洗浄領域として検出する。詳細には、洗浄動作判定部111bは、まず、画像内の各画素の画素値から輝度を算出し、輝度に対する閾値処理により、高輝度領域を抽出する。そして、抽出した高輝度領域の境界付近における輝度をもとに、境界付近における輝度の差の大きい高輝度領域を鏡面反射領域として抽出する。さらに、当該画像に対して所定フレーム先行する(例えば直前フレーム)画像との間で、鏡面反射領域の面積及び位置の差分を取得し、これらの差分が閾値よりも大きい場合に、当該鏡面反射領域は洗浄領域であると判定する。
 或いは、洗浄動作判定部111bは、画像内の特定の周波数成分(例えば高周波数成分)の時間変化が大きい領域を洗浄領域として検出しても良い。画像内から洗浄領域が検出された場合、洗浄動作判定部111bは、撮像時に洗浄動作がなされていたと判定する。
 処置動作を判定する別の手法として、内視鏡2の処置具挿入部22bに、処置具が被検体内に挿入されていることを検出するセンサを設け、このセンサから出力される検出信号を内視鏡2から取得することにより、処置動作が行われているか否かをシステム的に判定しても良い。或いは、送水タンクから内視鏡2に送水するためのポンプが作動中であることを示す信号を内視鏡システム1から取得することにより、洗浄動作行われていることをシステム的に判定しても良い。
 鑑別動作判定部112は、判定対象の画像の撮像時における操作者の動作が、画像内において観察される病変等に対して病変の程度を判断(鑑別)する鑑別動作であるか否かを判定する。図4は、鑑別動作判定部112の構成を示すブロック図である。図4に示すように、鑑別動作判定部112は、拡大判定部112aと、染色判定部112bと、特殊光判定部112cと、正面視判定部112dと、動き判定部112eとを有する。鑑別動作判定部112は、これらの判定部のうち少なくとも1つを有していれば良く、全てを有していても良い。鑑別動作判定部112は、これらの判定部の判定結果に基づいて鑑別動作の有無を判定する。
 拡大判定部112aは、判定対象の画像が拡大画像であるか否か、即ち、内視鏡2の先端部24を粘膜に所定距離以下まで近づけて撮像した画像であるか否かを判定する。詳細には、拡大判定部112aは、まず、画像の中心付近における距離情報を取得する。ここで、距離情報とは、内視鏡2の先端部24から被写体までの距離を表す情報である。距離情報としては、被写体である粘膜表面に写る血管等による吸収が少なく、粘膜表面との距離の相関が見られる値が用いられる。例えば、画素値のRGBの各色成分のうちR成分に対応する波長成分は、ヘモグロビンの吸光帯域から離れており、且つ長波長であるため生体内での吸収、散乱の影響を受け難いので、この波長成分の減衰量は被検体内で進行する距離に対応する。従って、R成分の値を距離情報として用いることができる。この場合、R成分の値が大きいほど距離が近く、R成分の値が小さいほど距離が遠いと判断することができる。拡大判定部112aは、このような距離情報をもとに、画像の中心付近における距離が閾値よりも小さい画像を拡大画像として判定する。例えば距離情報としてR成分の値を用いる場合、画像の中心付近の画素における画素値のR成分の値が閾値よりも大きい画像を拡大画像として判定する。
 或いは、拡大画像を判定する別の手法として、拡大判定部112aは、画像内のピットパターンを解析しても良い。操作者が画像を拡大するときは、粘膜上のピットパターンを詳しく観察したい場合であることが多い。そのため、操作者は、ピットパターンがある程度明瞭且つ大きく写るように内視鏡2を操作する。そこで、画像を拡大した際のピットパターンから抽出される周波数成分を予め取得しておき、この周波数成分と、判定対象の画像から抽出した周波数成分とを比較することにより、当該判定対象の画像が拡大画像であるか否かを判定することができる。
 拡大画像を判定するさらに別の手法として、拡大判定部112aは、内視鏡2における撮像モードを拡大観察に切り換えたときの切換え信号を内視鏡2から取得することにより、システム的に判定を行っても良い。
 染色判定部112bは、判定対象の画像が、被写体である粘膜に染色が施した染色画像であるか否かを判定する。詳細には、染色判定部112bは、まず、画像内に注目領域を設定し、この注目領域内の各画素のRGB各色成分から平均色を算出する。そして、この平均色が、通常の粘膜領域の色相分布から外れているか否かを判定する。例えば、大腸検査において用いられるインジゴカルミンによって粘膜が染色されている場合、平均色は青色方向にずれる。そのような場合、染色判定部112bは、当該画像は染色画像であると判定する。
 特殊光判定部112cは、判定対象の画像が特殊光を用いて撮像された特殊光画像である否かを判定する。詳細には、特殊光判定部112cは、まず、画像内に注目領域を設定し、この注目領域内の各画素のRGB各色成分から平均色を算出する。そして、この平均色が、通常の粘膜領域における色相分布から外れているか否かを判定する。例えば、粘膜深部の血管を写し出す緑色の波長帯域の狭帯域光を用いて撮像が行われた場合、平均色は緑色方向にずれる。そのような場合、特殊光判定部112cは、当該画像が特殊光画像であると判定する。
 或いは、特殊光画像を判定する別の手法として、特殊光判定部112cは、内視鏡2における撮像モードを特殊光撮像モードに切り換えたときの切換え信号を内視鏡2から取得することにより、システム的に判定を行っても良い。
 正面視判定部112dは、判定対象の画像が、被写体である粘膜を正面から撮像した正面視画像であるか否かを判定する。正面視とは、内視鏡2の先端部24に設けられた撮像部の視野が、管腔の側面にあたる粘膜を正面から捉えている状態をいう。
 ここで、管腔の奥方向である管深部には照明光が届き難いため、撮像部の視野が管深部方向を向いている場合、画像内の中心付近に輝度の低い管深部領域が写る。また、この場合、管腔の側面にあたる粘膜が斜めに写っているため、画像内の粘膜領域の勾配強度が大きくなる。それに対し、撮像部の視野が粘膜の方向を向いている場合、管深部領域が画像内に写らなくなると共に、粘膜領域が支配的になり、さらに、粘膜領域の勾配強度が小さくなる。そこで、正面視判定部112dは、管深部領域が検出されず、粘膜領域が支配的、即ち、画像内の面積の所定比率以上を占め、且つ粘膜領域の勾配強度が閾値以下である画像を、正面視画像と判定する。粘膜領域の勾配強度は、粘膜領域における距離情報をもとに算出すれば良い。
 管深部領域は、輝度が低く、ある程度の大きさの面積を有し、且つ、比較的円形に近い形状(細長くない形状)の領域として検出される。そこで、正面視判定部112dは、まず、画像内から輝度が閾値以下である低輝度領域を検出し、この低輝度領域の面積が所定値以上であるか否かを判定する。低輝度領域の面積が所定値以上である場合、正面視判定部112dはさらに、低輝度領域が細長い形状であるか否かを判定する。細長い形状の判定は、例えば、低輝度領域の外接矩形の面積に対する低輝度領域の面積の比率を算出し、この比率に基づいて行うことができる。具体的には、この比率が所定値以下である場合、低輝度領域の形状は細長い形状であり、当該低輝度領域は管深部領域ではないと判定される。一方、上記比率が所定値よりも大きい場合、当該低輝度領域は比較的円形に近い形状(細長くない形状)であり、当該低輝度領域は管深部領域であると判定される。
 動き判定部112eは、画像内に写った構造の動きの小さい画像が一定期間以上連続して撮像されたか否かを判定する。詳細には、動き判定部112eは、まず、所定フレーム(例えば1フレーム又は数フレーム)先行する画像との間で対応する構造の動きを表す量を算出し、この量が閾値以下である画像を動きが小さい動き小画像として抽出する。そして、判定対象の画像が動き小画像であり、且つ、判定対象の画像に先立って、動き小画像が一定期間以上連続して撮像されたか否かを判定する。
 画像内に写った構造の動きを表す量の一例を説明する。まず、画像内を複数の矩形領域に分割し、各矩形領域に対してブロックマッチング法(参考:CG-ARTS協会、「ディジタル画像処理」、第二版、第243頁)により動きベクトルを算出する。そして、対比する画像間で相関値の高い矩形領域同士の動き量を表す動きベクトルの長さの代表値(最大値や平均値等)を、構造の動きを表す量として用いることができる。
 注視動作判定部113は、判定対象の画像の撮像時における操作者の動作が、被検体内のある領域を操作者が注視する注視動作であるか否かを判定する。図5は、注視動作判定部113の構成を示すブロック図である。図5に示すように、注視動作判定部113は、処置領域判定部113aと、正面視判定部113bと、近景判定部113cと、動き判定部113dと、襞裏確認判定部113eとを有する。なお、注視動作判定部113は、これらの各部のうちの少なくとも1つを有していれば良く、全てを有していても良い。注視動作判定部113は、これらの判定部の判定結果に基づいて注視動作の有無を判定する。
 処置領域判定部113aは、判定対象の画像に処置が施されて間もない領域が存在するか否かを判定する。処置が施されて間もない領域が存在すれば、操作者は当然その処置領域を注視していたと考えられるからである。被検体内において処置が施された場合、画像内に止血用のクリップ等の器具や、出血の跡が写った領域が観察される。処置領域判定部113aは、このような器具及び出血の跡が写った領域を処置が施されて間もない処置領域として検出する。
 クリップ等の器具は、画像内においては粘膜領域とは異なる色の管形状領域として観察される。そこで、処置領域判定部113aは、まず、画像内の各画素のRGB各色成分から色特徴量の分布を算出し、粘膜領域の色特徴量の分布と異なる分布を呈する領域を候補領域として抽出する。そして、候補領域から輪郭を抽出し、さらに、この輪郭から直線や曲線といった幾何学的形状をハフ変換等により抽出する処理を行う。そして、輪郭から幾何学的形状が抽出された候補領域を器具が写った領域と判定する。また、出血領域については、画像内の各画素のRGB各色成分から色比G/Rを算出し、この色比を閾値処理することにより、鮮やかな赤色の領域を抽出する。
 正面視判定部113bは、判定対象の画像が粘膜を正面から撮像した正面視画像であるか否かを判定する。正面視画像の判定方法は、鑑別動作判定部112の正面視判定部112dと同様である。
 近景判定部113cは、判定対象の画像が、内視鏡2の先端部24からの距離が所定値以下の領域を撮像した近景画像であるか否かを判定する。詳細には、近景判定部113cは、まず、画像内の各部における距離情報を取得し、これらの距離情報の代表値(最大値や平均値等)を算出する。そして、この代表値が所定の範囲内である場合に、当該画像は近景画像であると判定する。距離情報としては、上述した拡大画像の判定と同様、画素値のR成分の値を用いることができる。
 動き判定部113dは、画像内に写った構造の動きの小さい画像が一定期間以上連続して撮像されたか否かを判定する。構造の動きを表す量の算出方法及び判定方法は、鑑別動作判定部112の動き判定部112eと同様である。
 襞裏確認判定部113eは、判定対象の画像が、粘膜の襞裏の確認動作中に撮像されたものであるか否かを判定する。この判定は、画像内に内視鏡2の挿入部21の一部が写っているか否かの判定により行われる。図6は、襞裏確認動作を説明するための模式図である。図6に示すように、内視鏡2(図1参照)の挿入部21の挿入方向に対して粘膜の襞P1の裏側を観察する場合、基端側を振り返るように湾曲部25を湾曲させる。そのため、先端部24に設けられた撮像部の視野Vに挿入部21自体が写り込んでしまう場合がある。このように画像に内視鏡2の一部が写っている場合、襞裏確認判定部113eは、当該画像は襞裏確認動作中に撮像されたものと判定する。
 内視鏡2の挿入部21が写った領域は、粘膜領域の色特徴量の分布と異なる分布を呈し、且つ、管形状をなす領域として検出される。具体的には、挿入部21は、黒色近傍の色分布を呈する。そこで、襞裏確認判定部113eは、まず、画像内の各画素のRGB色成分をもとに、挿入部21が取り得る色特徴量の分布に含まれる領域を候補領域として抽出する。そして、候補領域から輪郭を抽出し、この輪郭から直線又は曲線の幾何学的形状をハフ変換等により抽出する。そして、輪郭から幾何学的形状が抽出された場合、候補領域は挿入部21の一部であると判定する。
 挿入動作判定部114は、判定対象の画像の撮像時における操作者の動作が、被検体の肛門から盲腸に向かう方向に内視鏡を挿入する挿入動作であるか否かを判定する。ここで、内視鏡により大腸の検査を行う場合、通常は、内視鏡を肛門から大腸内に挿入し、内視鏡2の先端部24を盲腸近傍まで進めた後、内視鏡2を大腸から引き抜く復路において病変部等の観察を行う。そのため、内視鏡2を挿入する往路において、操作者は挿入動作に注力し、診断としての観察はあまり行っていない。そのため、操作者の動作が内視鏡2の挿入動作(往路)であるか抜去動作(復路)であるかの判定は、診断対象とする画像の選別に関わってくる。
 図7は、挿入動作判定部114の構成を示すブロック図である。図7に示すように、挿入動作判定部114は、往路判定部114aと、移動方向判定部114bとを備える。挿入動作判定部114は、往路判定部114aと移動方向判定部114bとのうち少なくともいずれかを有していれば良く、両方有していても良い。挿入動作判定部114は、これらの判定部の判定結果に基づいて挿入動作の有無を判定する。
 往路判定部114aは、被検体内に挿入された内視鏡2(図1参照)が往路、即ち、肛門から小腸側に向かう方向に移動中であるか否かを判定する。詳細には、往路判定部114aは、内視鏡2の挿入部21(図6参照)のうち大腸に挿入された部分の長さである挿入長と、大腸の形状に沿って湾曲する挿入部21の挿入形状とのうちの少なくともいずれかに基づいて、内視鏡2が往路を移動中であるか否かを判定する。挿入長や挿入形状は、内視鏡2に内視鏡挿入形状観測装置(UPD)を設けることにより、システム情報として取得することができる。往路判定部114aは、UPDから得られる挿入長又は挿入形状をもとに、内視鏡2の先端部24が盲腸付近に到達するまでの区間を往路として判定する。
 或いは、往路判定部114aは、内視鏡2により順次撮像される画像に対し、盲腸近傍が写っているか否かを判定し、盲腸近傍が写った画像が最初に出現するまでの区間を往路と判定しても良い。
 ここで、大腸側から盲腸を観察すると、盲腸は回盲弁で小腸と繋がる以外は行止まりとなるため、画像には管深部領域が写らない。そこで、内視鏡2を大腸の管形状に沿って進めているにもかかわらず、画像に管深部領域が写らなくなった場合に、内視鏡2の先端部24が盲腸近傍に到達したと判定することができる。管深部領域の検出方法は、鑑別動作判定部112の正面視判定部112d(図4参照)と同様である。
 ただし、先端部24が粘膜を正面視している場合、盲腸近傍でなくても、画像に管深部領域が写らなくなる。そのため、画像内において粘膜領域が支配的である場合には、粘膜領域における輝度の勾配強度に基づいて、先端部24が盲腸近傍に到達したか否かを判定しても良い。粘膜領域の輝度の勾配強度が小さい(閾値以下)場合には、先端部24が粘膜を正面視しているため、先端部24の向きを変えると、管深部領域が現れる可能性がある。一方、粘膜領域の輝度の勾配強度が大きい(閾値以上)場合には、先端部24は管の奥(進行方向)向いているため、このような状態で管深部領域が検出されなくなった場合には、盲腸近傍に到達したと判定することができる。
 移動方向判定部114bは、内視鏡2が当該内視鏡2の先端部24に向かって移動しているのか、或いは、当該内視鏡2の基端部に向かって移動しているのかを判定する。内視鏡2が内視鏡2の先端部24に向かって移動している場合、内視鏡2は往路を移動中と言える。一方、内視鏡2が内視鏡2の基端部に向かって移動している場合、内視鏡2は復路を移動中と言える。
 移動方向判定部114bは、挿入部21の挿入形状を取得し、この挿入形状に基づいて、画像内における管深部方向を決定する。なお、挿入形状は、往路判定部114aと同様にシステム情報として取得することができる。例えば、内視鏡挿入形状観測装置(Endoscope Position Detecting Unit:UPD)を用いることにより、内視鏡の先端位置や挿入長のデータを取得することができるため、挿入長が伸びた場合には内視鏡2が先端部24に向かって移動していると判定し、挿入長が短くなった場合には内視鏡2が基端部に向かって移動していると判定する。或いは、画像内における管深部方向を、粘膜襞の輪郭エッジ形状に基づいて検出しても良い。ここで、粘膜襞の輪郭エッジは、基本的に、管深部方向と逆側に凸となる。そこで、粘膜襞の輪郭エッジを抽出し、この輪郭エッジの凹凸を判定することにより、管深部方向を決定することができる。
 移動方向判定部114bは、さらに、判定対象の画像に対して所定フレーム先行する(例えば直前フレーム)画像との間における動きベクトルを取得し、この動きベクトルと画像内における管深部方向との関係から、内視鏡2の移動方向を検出する。つまり、動きベクトルの方向と画像内における奥方向が一致している場合、内視鏡2は先端部24に向かって移動していると言える。一方、動きベクトルの方向と画像内における管深部方向が反対向きである場合、内視鏡2は基端部に向かって移動していると言える。
 画像決定部120は、動作判定部110による判定結果に応じて、異常領域の検出対象画像を決定する。具体的には、動作判定部110により何等かの動作中に撮像された画像は、異常領域の検出対象画像から外され、それ以外の画像が、異常領域の検出対象画像として決定される。
 検出部130は、画像決定部120が検出対象画像として決定した画像から異常領域を検出する処理を実行する。
 次に、本実施の形態1に係る画像処理方法を説明する。図8は、本実施の形態1に係る画像処理方法を示すフローチャートである。
 まず、ステップS10において、演算部15は、内視鏡2により撮像された画像を判定対象の画像として取得する。詳細には、操作者が操作入力部12に対する操作により、内視鏡システム1による被検体内の検査を開始する命令を入力すると、操作入力部12は、この命令を表す入力信号を発生して制御部10に入力する。これに応じて、制御部10の制御の下で、画像取得部11が内視鏡2からの画像取得を開始する。画像取得部11が取得した画像は一旦記憶部14に保存され、演算部15は、記憶部14から画像を時系列的に順次読み出すことにより取得する。
 続くステップS11において、動作判定部110は、取得した画像をもとに、当該画像の撮像時になされていた動作を判定する。上述したように、動作判定部110は、処置動作判定部111と、鑑別動作判定部112と、注視動作判定部113と、挿入動作判定部114とのうちの少なくとも1つを備えていれば良いが、本実施の形態1においては、これらの全てを備えるものとして説明する。
 図9は、画像をもとに動作を判定する処理の詳細を示すフローチャートである。まず、ステップS111において、処置動作判定部111は、当該画像の撮像時に処置動作がなされていたか否かを判定する。本実施の形態1においては、処置動作判定部111が処置具判定部111a及び洗浄動作判定部111bの両方を有するものとし、各々が画像に対する判定を行う。処置動作判定部111は、処置具判定部111aが当該画像から処置具領域を検出した場合、又は洗浄動作判定部111bが画像から洗浄領域を検出した場合に、当該画像の撮像時に処置動作がなされていたと判定する。
 当該画像の撮像時に処置動作がなされていたと判定された場合(ステップS111:Yes)、動作判定部110は、当該画像は動作中に撮像されたと判定する(ステップS112)。その後、処理はメインルーチンに戻る。一方、当該画像の撮像時に処置動作がなされていないと判定された場合(ステップS111:No)、処理はステップS113に移行する。
 ステップS113において、鑑別動作判定部112は、当該画像の撮像時に鑑別動作がなされていたか否かを判定する。本実施の形態1においては、鑑別動作判定部112が拡大判定部112a~動き判定部112eの全てを有するものとし、各々が当該画像に対する判定を行う。鑑別動作判定部112は、拡大判定部112aが当該画像は拡大画像であると判定した場合、染色判定部112bが当該画像は染色画像であると判定した場合、特殊光判定部112cが当該画像は特殊光画像であると判定した場合、正面視判定部112dが当該画像は正面視画像であると判定した場合、又は、動き判定部112eが、当該画像に至るまで動き小画像が一定期間以上連続して撮像されたと判定した場合に、当該画像の撮像時に鑑別動作がなされていたと判定する。
 当該画像の撮像時に鑑別動作がなされていたと判定された場合(ステップS113:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に鑑別動作がなされていないと判定された場合(ステップS113:No)、処理はステップS114に移行する。
 ステップS114において、注視動作判定部113は、当該画像の撮像時に注視動作がなされていたか否かを判定する。本実施の形態1においては、注視動作判定部113が処置領域判定部113a~襞裏確認判定部113eの全てを有するものとし、各々が当該画像に対する判定を行う。注視動作判定部113は、処置領域判定部113aが当該画像内から処置領域を検出した場合、正面視判定部113bが当該画像は正面視画像であると判定した場合、近景判定部113cが当該画像は近景画像であると判定した場合、動き判定部113dが、当該画像に至るまで動き小画像が一定期間以上連続して撮像されたと判定した場合、又は、襞裏確認判定部113eが当該画像は襞裏確認動作中に撮像されたと判定した場合に、当該画像の撮像時に注視動作がなされていたと判定する。
 当該画像の撮像時に注視動作がなされていたと判定された場合(ステップS114:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に注視動作がなされていないと判定された場合(ステップS114:No)、処理はステップS115に移行する。
 ステップS115において、挿入動作判定部114は、当該画像の撮像時に内視鏡の挿入動作がなされていたか否かを判定する。本実施の形態1においては、挿入動作判定部114が往路判定部114a及び移動方向判定部114bの両方を備えているものとし、各々が当該画像に対する判定を行う。挿入動作判定部114は、往路判定部114aが内視鏡2は往路を進行中と判定した場合、又は、移動方向判定部114bが内視鏡2は管深部方向に進行中と判定した場合に、当該画像の撮像時に内視鏡の挿入動作がなされていたと判定する。
 当該画像の撮像時に挿入動作がなされていたと判定された場合(ステップS115:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に挿入動作がなされていないと判定された場合(ステップS115:No)、動作判定部110は、当該画像は操作者が所定の動作を行っていないときに撮像されたと判定する(ステップS116)。その後、処理はメインルーチンに戻る。
 なお、上記ステップS111、S113、S114、S115の全て又は一部の判定を同時並行に行い、それにより得られる複数の判定結果に対して、予め判定の優先順位を決めておいても良い。例えば、処置動作判定、鑑別動作判定、注視動作判定、挿入動作判定の順に優先順位を設定し、優先順位の高い順に判定結果を照会することとしても良い。或いは、これらの判定結果を同時に照会し、少なくとも1つが動作中と判定された場合に当該画像は動作中に撮像されたと判定しても良い。
 ステップS11に続くステップS12において、画像決定部120は、操作者が所定の動作を行っていないときに撮像されたと判定された画像を、異常領域の検出対象画像として決定する。具体的には、処置動作、鑑別動作、注視動作、及び挿入動作のいずれも行っていないときに撮像された画像が検出対象画像として決定される。
 続くステップS13において、検出部130は、検出対象画像から異常領域を検出する。詳細には、まず、検出対象画像に対し、粘膜領域を検出対象領域として設定する。具体的には、検出対象画像内の色特徴量や形状特徴量や周波数成分をもとに、非粘膜領域である残渣領域、泡領域、暗部領域、及び鏡面反射領域を除去する。
 残渣領域、泡領域、暗部領域、及び鏡面反射領域の検出方法は、公知の種々の方法を用いることができる。一例として、残渣領域は、画像内の各画素の画素値(RGBの各色成分)から算出した色特徴量をもとに、粘膜の色特徴量の分布域よりも相対的に黄緑側に分布する領域として検出することができる。粘膜の色特徴量の分布域は、画像内の平均色や主要な色特徴量の分布範囲等に基づいて予め取得しておく。また、泡領域は、所定範囲の周波数成分を持つ領域として検出することができる。暗部領域は、画像内の各画素のRGB各色成分から輝度を算出し、この輝度を閾値処理することにより検出することができる。鏡面反射領域は、各画素のRGB各色成分から算出した色特徴量をもとに白色領域を抽出し、この白色領域の周囲(粘膜領域)の画素の画素値の変化に基づき、曲面近似等で境界を補間することにより検出することができる。なお、色特徴量としては、RGB各色成分をYCbCr変換により算出した色差、HSI変換により算出した色相、彩度、G/R、B/G等の色比を用いることができる。或いは、RGB各色成分をそのまま色特徴量として用いても良い。
 続いて、検出部130は、検出対象領域内の任意の1つ以上の領域を判別領域として設定し、各判別領域に対して特徴量を算出する。特徴量としては、色特徴量、輪郭(エッジ)や面形状(画素値勾配)等の形状特徴量、テクスチャ特徴量等の種々の特徴量を用いることができる。そして、これらの特徴量を1つの特徴ベクトルとして統合し、この特徴ベクトルをもとに、各判別領域が異常領域であるか否かを判別するための判別指標を算出する。判別指標の算出方法は公知の技術を用いることができる。一例として、次式(1)に示す確率モデルに基づく判別指標P(x)を算出する。検出部130は、判別指標P(x)が事前に取得された閾値よりも大きい判別領域を異常領域として検出する。
Figure JPOXMLDOC01-appb-M000001
 判定指標P(x)は、判別領域の特徴ベクトルが異常領域の特徴ベクトルらしいか否かを示す指標である。判定指標P(x)の値が大きいほど、判別領域は異常領域らしいと言える。つまり、判定指標P(x)は、判別領域と異常領域との一致度を表す。また、式(1)に示す記号xは、判定領域の特徴ベクトル(k行1列)を示す。また、記号μは、事前に取得された複数の異常領域のサンプルにおける特徴ベクトルの平均ベクトル(k行1列)である。記号Zは、事前に取得された異常領域の複数のサンプルにおける特徴ベクトルの分散共分散行列(k行k列)である。記号|Z|はこの行列Zの行列式であり、記号Z-1は、行列Zの逆行列である。
 なお、判別領域が異常領域であるか否かの判別については、式(1)を用いる方法以外にも種々の方法を用いることができる。例えば、判別領域の特徴ベクトルと異常領域の代表的な特徴ベクトルとの特徴空間距離に基づく方法や、特徴空間内に分類境界を設定する方法が挙げられる。
 続くステップS14において、演算部15は、検出部130による異常領域の検出結果を出力する。詳細には、判定対象の画像から異常領域が検出された場合、制御部10は検出された異常領域を強調表示する画像を生成して、表示装置5に表示させる。強調表示の一例として、異常領域を囲むラインや異常領域を指す矢印などを元の判定対象の画像に重畳表示する。或いは、元の判定対象の画像に、「異常領域あり」といったテキストを重畳表示しても良い。その後、当該判定対象画像に対する処理は終了する。
 以上説明したように、本実施の形態1によれば、判定対象の画像の撮像時における操作者の動作を判定し、所定の動作がなされていた画像は異常領域の検出対象とせず、それ以外の画像からのみ異常領域を検出するので、効率の良い診断支援を行うことが可能となる。
(変形例)
 次に、本発明の実施の形態1の変形例について説明する。上記実施の形態1において、動作判定部110は、判定対象の画像の各々に対し、処置動作判定、鑑別動作判定、注視動作判定、及び挿入動作判定の全てを実行した。しかしながら、これらの動作判定は必ずしも全てを行う必要はなく、実行させる動作判定の種類を操作者が選択できるようにしても良い。
 例えば、被検体内を観察するのみで何ら処置を行わない場合には、処置動作判定を行う必要はない。また、既に挿入動作が終了しているフェーズでは、挿入動作判定を行う必要はない。このように、検査の目的や検査中のフェーズに応じて、動作判定部110に実行させる動作判定の種類を操作者が適宜選択することにより、画像処理を効率的に行うことができる。
 実行させる動作判定の種類は、操作入力部12に対する操作により入力することができる。操作入力部12から、1つ以上の動作判定を選択する信号が入力された場合、動作判定部110は、選択された動作判定の種類に応じた判定部に処理を実行させれば良い。
(実施の形態2)
 次に本発明の実施の形態2について説明する。図10は、本実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。本実施の形態2に係る画像処理装置は、図1に示す演算部15の代わりに、図10に示す演算部16を備える。演算部16以外の画像処理装置の各部の構成及び動作は、実施の形態1と同様である。
 演算部16は、判定対象の画像の撮像時における操作者の動作を判定する動作判定部110と、異常領域の検出対象画像を決定する画像決定部120と、異常領域の検出対象画像を所定の条件で分類する分類部210と、分類部210による分類結果に応じて異常領域の検出処理を行う検出部220とを備える。このうち、動作判定部110及び画像決定部120の構成及び動作は、実施の形態1と同様である。
 分類部210は、照明光分類部211と、非粘膜領域検出部212と、画像変化分類部213とを有し、画像決定部120が決定した検出対象画像に対し、これらの各部が各々の条件で分類を行う。なお、分類部210は、これらの各部の内の少なくとも1つを有していれば良く、全てを有していても良い。
 照明光分類部211は、撮像時に用いられた照明光に応じて検出対象画像を分類する。具体的には、検出対象画像を、白色光により撮像された画像と、特定の波長帯域の狭帯域光である特殊光により撮像された画像とに分類する。この分類は、鑑別動作判定部112の特殊光判定部112cと同様に、判定対象の画像における平均色に基づいて行う。照明光分類部211は、画像内に設定した注目領域の平均色が粘膜領域における色相分布に対して緑色方向にずれる画像を特殊光により撮像された画像と分類し、それ以外の画像を通常光により撮像された画像と分類する。
 非粘膜領域検出部212は、検出対象画像から鉗子等の処置具や、クリップ等の器具や、内視鏡2の一部等が写った領域など、粘膜以外の領域、即ち非粘膜領域を検出する処理を行い、このような非粘膜領域が検出されるか否かで検出対象画像を分類する。鉗子等の処置具が写った領域の検出方法は、処置動作判定部111の処置具判定部111a(図3参照)と同様である。クリップ等の器具が写った領域の検出方法は、注視動作判定部113の処置領域判定部113a(図5参照)と同様である。内視鏡2の一部が写った領域の検出方法は、注視動作判定部113の襞裏確認判定部113e(同上)と同様である。
 画像変化分類部213は、先行するフレームの画像に対する検出対象画像の変化の大小により検出対象画像を分類する。詳細には、画像変化分類部213は、所定フレーム先行する(例えば直前フレーム)画像と当該画像との間における動きベクトルを算出する。なお、動きベクトルは、鑑別動作判定部112の動き判定部112e(図4参照)と同様に、画像内を複数の矩形領域に分割し、各矩形領域に対するブロックマッチング法により算出する。
 そして、画像変化分類部213は、対比する画像間で相関値の高い矩形領域の数を、画像の変化を表す量として分類を行う。即ち、相関値の高い矩形領域が所定数未満である画像を、変化の大きい画像として分類する。一方、相関値の高い矩形領域が所定数以上存在する画像を、変化の小さい画像として分類する。さらに、画像変化分類部213は、変化の小さい画像が時系列に沿って所定期間連続する場合に、当該連続する期間に含まれる画像を、変化小継続画像と判定する。
 検出部220は、分類部210による分類結果に応じて、検出対象画像内に検出対象領域を設定する検出対象領域設定部221を備える。検出対象領域設定部221は、分類部210の構成に応じて、不鮮明領域限定部221aと、非粘膜領域除外部221bと、新出領域限定部221cとのうちの少なくとも1つを有する。分類部210が照明光分類部211、非粘膜領域検出部212、及び画像変化分類部213の全てを有する場合、検出対象領域設定部221も、不鮮明領域限定部221a、非粘膜領域除外部221b、及び新出領域限定部221cの全てを有する。
 不鮮明領域限定部221aは、照明光分類部211が特殊光により撮像されたと分類した検出対象画像に対し、テクスチャ構造が不鮮明な領域に限定して検出対象領域を限定する。
 非粘膜領域除外部221bは、非粘膜領域検出部212が非粘膜領域を検出した検出対象画像に対し、非粘膜領域以外の領域を検出対象領域として設定する。
 新出領域限定部221cは、画像変化分類部213が検出対象画像の変化の大小に応じて分類した検出対象画像に対して検出対象領域を設定する。ここで、新出領域とは、先行するフレームの画像内には存在せず、当該検出対象画像において新たに出現した領域、即ち、内視鏡2の進行方向において新たに視野に入った領域のことである。
 次に、本実施の形態2に係る画像処理方法を説明する。図11は、本実施の形態2に係る画像処理方法を示すフローチャートである。なお、図11のステップS10~S12は、実施の形態1と同様である(図8参照)。
 ステップS12に続くステップS21において、分類部210は、ステップS12において決定された検出対象画像を分類する。本実施の形態2においては、分類部210が照明光分類部211、非粘膜領域検出部212、及び画像変化分類部213の全てを備えているものとし、各部が検出対象画像の分類を行う。即ち、検出対象画像が特殊光により撮像された画像であるか否かの分類と、検出対象画像から非粘膜領域が検出されたか否かの分類と、先行するフレームの画像に対する検出対象画像の変化の大小の分類とがなされる。
 続くステップS22において、検出対象領域設定部221は、ステップS21における検出対象画像の分類結果に基づいて検出対象領域を設定する。図12は、検出対象領域の設定処理の詳細を示すフローチャートである。本実施の形態2においては、検出対象領域設定部221が不鮮明領域限定部221a、非粘膜領域除外部221b、及び新出領域限定部221cの全てを備えているものとして説明する。
 ステップS221において、検出対象領域設定部221は、検出対象画像が特殊光で撮像された画像に分類されたか否かを判定する。特殊光で撮像された画像に分類されていない場合(ステップS221:No)、処理は直接ステップS223に移行する。
 一方、検出対象画像が特殊光で撮像された画像に分類された場合(ステップS221:Yes)、不鮮明領域限定部221aは、当該検出対象画像内においてテクスチャ構造が不鮮明な領域を検出対象領域として設定する(ステップS222)。
 ここで、特殊光撮像は、通常、鑑別動作中に注目領域のテクスチャ構造の状態を分類するために行われる。そのため、テクスチャ構造が不鮮明な領域、即ち、ぼけている領域は鑑別対象とされていないと考えられる。そこで、本ステップS222においては、鑑別対象にされていない、このぼけている領域を検出対象領域として設定する。ぼけている領域は、画像内の周波数成分のコントラストが、鑑別動作時の許容範囲内であるか否かによって抽出することができる。つまり、コントラストが鑑別動作時の許容範囲外である領域が、検出対象領域として設定される。その後、処理はステップS223に移行する。
 ステップS223において、検出対象領域設定部221は、検出対象画像が非粘膜領域が検出された画像に分類されたか否かを判定する。非粘膜領域が検出された画像に分類されていない場合(ステップS223:No)、処理は直接ステップS225に移行する。
 一方、非粘膜領域が検出された画像に分類された場合(ステップS223:Yes)、非粘膜領域除外部221bは、当該検出対象画像に対して非粘膜領域以外の領域を検出対象領域に設定する(ステップS224)。具体的には、非粘膜領域に対してマスク処理を行う。なお、ステップS222において既に検出対象領域が設定されている場合には、検出対象領域が新たに加えられる。その後、処理はステップS225に移行する。
 ステップS225において、検出対象領域設定部221は、検出対象画像が変化の大きい画像に分類されたか否かを判定する。変化の大きい画像に分類された場合(ステップS225:Yes)、新出領域限定部221cは画像全体を検出対象領域に設定する(ステップS226)。その後、処理はメインルーチンに戻る。
 一方、検出対象画像が変化の小さい画像に分類された場合(ステップS225:No)、新出領域限定部221cは、当該検出対象画像において新たに出現した新出領域を検出対象領域に設定する(ステップS227)。なお、ステップS222又はS224において既に検出対象領域が設定されている場合には、検出対象領域が新たに加えられる。
 新出領域の位置及び大きさは、画像変化分類部213からブロックマッチング法によって得られた動き方向及び動き幅をもとに決定される。詳細には、まず、動き方向をもとに内視鏡2の動きを分類する。具体的には、動き方向が所定以上の数において同じ方向を向く場合、内視鏡2の動きを平行移動と分類する。また、動き方向が1点を基準に外側を向く場合、即ち、動き方向が1点から外側に向かって拡散している場合、内視鏡2の動きを前進と分類する。動き方向が1点を基準に内側を向く場合、即ち、動き方向が1点に向かって集束している場合、内視鏡2の動きを後進と分類する。それ以外のパターンの場合には新出領域が未検出として、当該検出対象画像を変化の大きい画像と同じ扱いとする。
 続いて、動き方向及び動き幅から新出領域の位置及びサイズを推定する。具体的には、内視鏡2の動きの分類が平行移動の場合、新出領域の位置は画像端(左右上下)の4方向の何れかであり、動き方向の基端側の方向、即ち、動きの出発点の方向によって決まる。例えば、動き方向が左下から右上に向かっている場合、新出領域の位置は画像の左端及び下端となる。また、新出領域の大きさは、動き幅をベクトル量とする動き方向ベクトルを新出領域の位置の方向の成分に分解した時の各成分の大きさで決まる。
 内視鏡2の動きの分類が前進の場合、新出領域の位置は、動き方向の基端側が集中する上記1点であり、新出領域の大きさは動き幅に決定される。内視鏡2の動きの分類が後進の場合、新出領域の位置は画像端の4方向全てであり、新出領域の大きさは動き幅に決定される。その後、処理はメインルーチンに戻る。
 ステップS22に続くステップS23において、検出部220は、ステップS22において設定された検出対象領域から異常領域を検出する。異常領域の検出処理は、検出対象が検出対象領域に限定される点を除いて、実施の形態1(図8のステップS13参照)と同様である。続くステップS14も、実施の形態1と同様である。
 以上説明したように、本実施の形態2によれば、画像の撮像時における操作者の動作に基づいて決定された異常領域の検出対象画像に対し、さらに操作者の動作に基づく分類を行い、この分類結果に基づいて異常領域の検出対象領域を絞り込むので、より効率の良い画像処理を行うことが可能となる。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。図13は、本実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。本実施の形態3に係る画像処理装置は、図1に示す演算部15の代わりに、図13に示す演算部17を備える。演算部17以外の画像処理装置の各部の構成及び動作は、実施の形態1と同様である。
 演算部17は、図10に示す演算部16に対し、検出対象領域設定部221に加えて検出パラメータ設定部311を有する検出部310を備える。検出パラメータ設定部311以外の演算部17の各部の構成は、実施の形態2と同様である。
 検出パラメータ設定部311は、画像決定部120が決定した検出対象画像に対して分類部210が行った分類結果に応じて、検出対象領域設定部221が設定した検出対象領域に対する異常領域の検出処理において用いられる検出パラメータを設定する。
 次に、本実施の形態3に係る画像処理方法を説明する。図14は、本実施の形態3に係る画像処理方法を示すフローチャートである。なお、図14のステップS10~S22は、実施の形態2と同様である(図11参照)。
 ステップS22に続くステップS31において、検出パラメータ設定部311は、ステップS21における分類結果に基づいて、ステップS22において設定された検出対象領域の各々から異常領域を検出する際の検出パラメータを設定する。ここで、検出パラメータには、異常領域を表す特徴量の特徴空間における識別境界、異常領域の特徴量の分布モデル、識別関数、代表的な分布パターン等が含まれる。このような検出パラメータは、分類部210によって分類され得るバリエーションに応じて、教師データを用いて事前に作成され、記憶部14に記憶される。
 具体例として、特殊光により撮像された画像と分類された検出対象画像のうち、テクスチャ構造の鮮明な領域が検出対象領域として設定された場合(図12のステップS222参照)、当該検出対象領域に対し、通常光とは異なる特殊光の色分布モデルに基づいて作成された検出パラメータが記憶部14から読み出されて設定される。また、非粘膜領域を除いた粘膜領域が検出対象領域として設定された場合(図12のステップS224参照)、通常光の下での粘膜の色分布モデルに基づいて作成された検出パラメータが記憶部14から読み出されて設定される。さらに、粘膜領域且つ新出領域といった複数の撮像状況が複合的に生じている領域が検出対象領域として設定された場合、これらの撮像状況に応じた教師データをもとに作成された検出パラメータが記憶部14から読み出されて設定される。
 本発明は、実施の形態1~3及び変形例に限定されるものではなく、各実施の形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。例えば、各実施の形態や変形例に示される全構成要素からいくつかの構成要素を除外して形成しても良いし、異なる実施の形態や変形例に示した構成要素を適宜組み合わせて形成しても良い。
 1 内視鏡システム
 2 内視鏡
 3 光源装置
 4 画像処理装置
 5 表示装置
 10 制御部
 11 画像取得部
 12 操作入力部
 13 出力部
 14 記憶部
 141 プログラム記憶部
 15、16、17 演算部
 21 挿入部
 22 操作部
 22a 湾曲ノブ
 22b 処置具挿入部
 22c スイッチ
 23 ユニバーサルコード
 24 先端部
 25 湾曲部
 26 可撓針管
 27 コネクタ部
 28 コイルケーブル
 29 電気コネクタ部
 111 処置動作判定部
 111a 処置具判定部
 111b 洗浄動作判定部
 112 鑑別動作判定部
 112a 拡大判定部
 112b 染色判定部
 112c 特殊光判定部
 112d、113b 正面視判定部
 112e、113d 動き判定部
 113 注視動作判定部
 113a 処置領域判定部
 113c 近景判定部
 113e 襞裏確認判定部
 114 挿入動作判定部
 114a 往路判定部
 114b 移動方向判定部
 120 画像決定部
 130、220、310 検出部
 210 分類部
 211 照明光分類部
 212 非粘膜領域検出部
 213 画像変化分類部
 221 検出対象領域設定部
 221a 不鮮明領域限定部
 221b 非粘膜領域除外部
 221c 新出領域限定部
 311 検出パラメータ設定部

Claims (29)

  1.  被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定部と、
     前記動作判定部による判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定部と、
     前記検出対象画像から前記特定領域を検出する検出部と、
    を備えることを特徴とする画像処理装置。
  2.  前記動作判定部は、前記撮像時における操作者の動作が、前記被検体に対して処置を行う処置動作であるか否かを判定する処置動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記処置動作判定部は、
     前記画像内から、輝度が閾値よりも高く、且つ管形状をなす領域を処置具領域として検出する処置具判定部を有し、
     前記処置具判定部が前記処置具領域を検出した場合に、前記撮像時における操作者の動作が前記処置動作であると判定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記処置動作判定部は、
     前記画像内から、鏡面反射を呈し、且つ面積及び位置の時間変化が大きい領域を洗浄領域として検出する洗浄動作判定部を有し、
     前記洗浄動作判定部が前記洗浄領域を検出した場合に、前記撮像時における操作者の動作が前記処置動作であると判定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  5.  前記動作判定部は、前記撮像時における操作者の動作が、前記画像内の任意の部分を鑑別する鑑別動作であるか否かを判定する鑑別動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  6.  前記鑑別動作判定部は、
     前記画像が前記内視鏡の先端部を被写体に所定距離以下まで近づけて撮像した拡大画像であるか否かを判定する拡大判定部を有し、
     前記拡大判定部が前記画像は前記拡大画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  7.  前記鑑別動作判定部は、
     前記画像が染色された被写体を撮像した染色画像であるか否かを判定する染色判定部を有し、
     前記染色判定部が前記画像は前記染色画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  8.  前記鑑別動作判定部は、
     前記画像が特殊光を用いて撮像した特殊光画像であるか否かを判定する特殊光判定部を有し、
     前記特殊光判定部が前記画像は前記特殊光画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  9.  前記鑑別動作判定部は、
     前記画像が被写体を正面から撮像した正面視画像であるか否かを判定する正面視判定部を有し、
     前記正面視判定部が前記画像は前記正面視画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  10.  前記鑑別動作判定部は、
     前記画像が、所定フレーム先行する画像との間において対応する構造の動きを表す量が閾値以下である動き小画像であり、且つ、前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたか否かを判定する動き判定部を有し、
     前記動き判定部が、前記画像が前記動き小画像であり、且つ前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたと判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  11.  前記動作判定部は、前記撮像時における操作者の動作が、被写体を注視する注視動作であるか否かを判定する注視動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  12.  前記注視動作判定部は、
     前記画像内から、粘膜領域とは異なる色を有する管形状の領域と、出血領域とを検出する処置領域判定部を有し、
     前記処置領域判定部が前記管形状の領域及び前記出血領域を検出した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  13.  前記注視動作判定部は、
     前記画像が被写体を正面から撮像した正面視画像であるか否かを判定する正面視判定部を有し、
     前記正面視判定部が前記画像は前記正面視画像であると判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  14.  前記注視動作判定部は、
     前記画像が、前記内視鏡の先端部からの距離が所定値以下の領域を撮像した近景画像であるか否かを判定する近景判定部を有し、
     前記近景判定部が前記画像は前記近景画像であると判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  15.  前記注視動作判定部は、
     前記画像が、所定フレーム先行する画像との間において対応する構造の動きを表す量が閾値以下である動き小画像であり、且つ、前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたか否かを判定する動き判定部を有し、
     前記動き判定部が、前記画像が前記動き小画像であり、且つ前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたと判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  16.  前記注視動作判定部は、
     前記画像から、前記内視鏡の一部が写った内視鏡領域を検出し、
     前記画像から前記内視鏡領域が検出された場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  17.  前記動作判定部は、前記撮像時における操作者の動作が、前記内視鏡を前記被検体内に挿入する挿入動作であるか否かを判定する挿入動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  18.  前記挿入動作判定部は、
     前記被検体の肛門から挿入された前記内視鏡が前記被検体の大腸から盲腸に向かう往路を移動中であるか否かを判定する往路判定部を有し、
     前記往路判定部が前記内視鏡は前記往路を移動中であると判定した場合に、前記撮像時における操作者の動作は前記挿入動作であると判定する、
    ことを特徴とする請求項17に記載の画像処理装置。
  19.  前記挿入動作判定部は、
     前記内視鏡が当該内視鏡の先端部と基端部とのいずれの方向に移動しているかを判定する移動方向判定部を有し、
     前記移動方向判定部が、前記内視鏡は当該内視鏡の先端部に向かって移動していると判定した場合に、前記撮像時における操作者の動作は前記挿入動作であると判定する、
    ことを特徴とする請求項17に記載の画像処理装置。
  20.  前記画像決定部は、前記撮像時における操作者の動作が所定の動作である場合、前記画像を前記特定領域の検出対象画像としない、ことを特徴とする請求項1に記載の画像処理装置。
  21.  当該画像処理装置に対して情報を入力する操作入力部をさらに備え、
     前記画像決定部は、前記操作入力部から入力された情報に基づいて、前記所定の動作を設定する、
    ことを特徴とする請求項20に記載の画像処理装置。
  22.  前記検出対象画像を所定の条件で分類する分類部をさらに備え、
     前記検出部は、前記分類部による分類結果に応じて、前記検出対象画像に対して前記特定領域の検出対象領域を設定する検出対象領域設定部を備える、
    ことを特徴とする請求項1に記載の画像処理装置。
  23.  前記分類部は、撮像時における照明光の種類に応じて前記検出対象画像を分類する照明光分類部を有し、
     前記検出対象領域設定部は、撮像時における照明光が特殊光であると分類された検出対象画像に対し、当該検出対象画像の周波数成分のコントラストに基づいて前記検出対象領域を設定する、
    ことを特徴とする請求項22に記載の画像処理装置。
  24.  前記分類部は、前記検出対象画像内から非粘膜領域を検出する非粘膜領域検出部を有し、
     前記検出対象領域設定部は、前記非粘膜領域が検出された検出対象画像に対し、前記非粘膜領域以外の領域を前記検出対象領域に設定する、
    ことを特徴とする請求項22に記載の画像処理装置。
  25.  前記分類部は、所定フレーム先行する画像に対する前記検出対象画像の変化の大きさに応じて前記検出対象画像を分類する画像変化分類部を有し、
     前記検出対象領域設定部は、前記変化が大きいと分類された検出対象画像に対し、当該検出対象画像全体を前記検出対象領域に設定し、前記変化が小さいと分類された検出対象画像に対し、前記先行するフレームの画像に存在しない新出領域を前記検出対象領域に設定する、
    ことを特徴とする請求項22に記載の画像処理装置。
  26.  前記分類部による分類結果に応じて、前記検出対象領域から前記特定領域を検出する際に用いられる検出パラメータを設定する検出パラメータ設定部をさらに備えることを特徴とする請求項22に記載の画像処理装置。
  27.  請求項1~26のいずれか1項に記載の画像処理装置と、
     前記内視鏡と、
    を備えることを特徴とする内視鏡システム。
  28.  演算部が、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定ステップと、
     前記演算部が、前記動作判定ステップにおける判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定ステップと、
     前記演算部が、前記検出対象画像から前記特定領域を検出する検出ステップと、
    を含むことを特徴とする画像処理方法。
  29.  被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作を判定する動作判定ステップと、
     前記動作判定ステップにおける判定結果に基づいて、前記画像を特定領域の検出対象画像とするか否かを決定する画像決定ステップと、
     前記検出対象画像から前記特定領域を検出する検出ステップと、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
     
PCT/JP2015/068736 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム WO2017002184A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112015006562.8T DE112015006562T5 (de) 2015-06-29 2015-06-29 Bildverarbeitungsvorrichtung, Endoskopsystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
JP2017525709A JP6707083B2 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
CN201580080992.6A CN107708521B (zh) 2015-06-29 2015-06-29 图像处理装置、内窥镜系统、图像处理方法以及图像处理程序
PCT/JP2015/068736 WO2017002184A1 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
US15/849,343 US11170498B2 (en) 2015-06-29 2017-12-20 Image processing device, image processing method, and image processing program for detecting specific region from image captured by endoscope designated as detection target image in response to determining that operator's action in not predetermined action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/068736 WO2017002184A1 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/849,343 Continuation US11170498B2 (en) 2015-06-29 2017-12-20 Image processing device, image processing method, and image processing program for detecting specific region from image captured by endoscope designated as detection target image in response to determining that operator's action in not predetermined action

Publications (1)

Publication Number Publication Date
WO2017002184A1 true WO2017002184A1 (ja) 2017-01-05

Family

ID=57607945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/068736 WO2017002184A1 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US11170498B2 (ja)
JP (1) JP6707083B2 (ja)
CN (1) CN107708521B (ja)
DE (1) DE112015006562T5 (ja)
WO (1) WO2017002184A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036121A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
WO2020080299A1 (ja) 2018-10-16 2020-04-23 富士フイルム株式会社 医療画像処理システム及び学習方法
WO2020090002A1 (ja) * 2018-10-30 2020-05-07 オリンパス株式会社 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法
JP2020089498A (ja) * 2018-12-04 2020-06-11 オリンパス株式会社 画像処理装置
JP2020146202A (ja) * 2019-03-13 2020-09-17 富士フイルム株式会社 内視鏡画像処理装置、方法及びプログラム、内視鏡システム
JPWO2020017212A1 (ja) * 2018-07-20 2021-07-15 富士フイルム株式会社 内視鏡システム
WO2022044617A1 (ja) 2020-08-24 2022-03-03 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2022097294A1 (ja) * 2020-11-09 2022-05-12 オリンパス株式会社 情報処理システム、内視鏡システム及び情報処理方法
WO2022107492A1 (ja) * 2020-11-17 2022-05-27 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法、プロセッサ装置用プログラム、及び内視鏡システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079205A1 (ja) * 2016-10-27 2018-05-03 富士フイルム株式会社 プロセッサ装置及び内視鏡システム
CN110049709B (zh) * 2016-12-07 2022-01-11 奥林巴斯株式会社 图像处理装置
JP2019180966A (ja) * 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム
WO2019220859A1 (ja) * 2018-05-14 2019-11-21 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP7015385B2 (ja) * 2018-05-15 2022-02-02 富士フイルム株式会社 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム
JP6941233B2 (ja) * 2018-06-04 2021-09-29 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
CN112040830A (zh) * 2018-06-19 2020-12-04 奥林巴斯株式会社 内窥镜图像处理装置和内窥镜图像处理方法
CN112312822A (zh) * 2018-07-06 2021-02-02 奥林巴斯株式会社 内窥镜用图像处理装置和内窥镜用图像处理方法以及内窥镜用图像处理程序
EP3838109A4 (en) * 2018-08-17 2021-10-06 FUJIFILM Corporation ENDOSCOPIC SYSTEM
JP7253152B2 (ja) * 2018-10-04 2023-04-06 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US20220148182A1 (en) * 2019-03-12 2022-05-12 Nec Corporation Inspection device, inspection method and storage medium
CN110974121B (zh) * 2019-12-23 2020-11-03 山东大学齐鲁医院 一种判断消化内窥镜检查是否染色的方法及系统
CN112190222B (zh) * 2020-10-20 2023-06-02 青岛市中心医院 一种消化性溃疡检测装置
CN116761075B (zh) * 2023-05-09 2024-05-24 深圳显融医疗科技有限公司 基于内窥镜的图像处理方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011016428A1 (ja) * 2009-08-07 2011-02-10 オリンパスメディカルシステムズ株式会社 医療システム
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2012020028A (ja) * 2010-07-16 2012-02-02 Hoya Corp 電子内視鏡用プロセッサ
JP2012085696A (ja) * 2010-10-15 2012-05-10 Olympus Corp 画像処理装置、画像処理装置の制御方法及び内視鏡装置
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7981073B2 (en) * 2006-03-30 2011-07-19 Moellstam Anders Method and device for irrigation of body cavities
US20080058593A1 (en) 2006-08-21 2008-03-06 Sti Medical Systems, Llc Computer aided diagnosis using video from endoscopes
US7794396B2 (en) * 2006-11-03 2010-09-14 Stryker Corporation System and method for the automated zooming of a surgical camera
JP2009153621A (ja) * 2007-12-25 2009-07-16 Olympus Corp 生体観察装置および内視鏡装置
US9066658B2 (en) * 2010-03-23 2015-06-30 Stryker Corporation Method and system for video based image detection/identification analysis for fluid and visualization control
JP5471953B2 (ja) 2010-08-05 2014-04-16 豊田合成株式会社 頭部保護エアバッグ装置
CN102834043B (zh) * 2010-09-14 2015-07-01 奥林巴斯医疗株式会社 内窥镜系统和视野不良判定方法
JP5800626B2 (ja) * 2011-07-29 2015-10-28 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
JP5735478B2 (ja) * 2012-12-14 2015-06-17 富士フイルム株式会社 内視鏡装置及びその作動方法
US20150080652A1 (en) * 2013-09-18 2015-03-19 Cerner Innovation, Inc. Lesion detection and image stabilization using portion of field of view
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US9805472B2 (en) * 2015-02-18 2017-10-31 Sony Corporation System and method for smoke detection during anatomical surgery
JP5945614B2 (ja) * 2015-03-12 2016-07-05 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011016428A1 (ja) * 2009-08-07 2011-02-10 オリンパスメディカルシステムズ株式会社 医療システム
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2012020028A (ja) * 2010-07-16 2012-02-02 Hoya Corp 電子内視鏡用プロセッサ
JP2012085696A (ja) * 2010-10-15 2012-05-10 Olympus Corp 画像処理装置、画像処理装置の制御方法及び内視鏡装置
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020017212A1 (ja) * 2018-07-20 2021-07-15 富士フイルム株式会社 内視鏡システム
JP7125484B2 (ja) 2018-07-20 2022-08-24 富士フイルム株式会社 内視鏡システム
WO2020036121A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
JPWO2020036121A1 (ja) * 2018-08-17 2021-08-26 富士フイルム株式会社 内視鏡システム
WO2020080299A1 (ja) 2018-10-16 2020-04-23 富士フイルム株式会社 医療画像処理システム及び学習方法
US11830185B2 (en) 2018-10-16 2023-11-28 Fujifilm Corporation Medical image processing system and learning method
CN112969402B (zh) * 2018-10-30 2024-05-28 奥林巴斯株式会社 内窥镜系统以及用于内窥镜系统的图像处理装置和图像处理方法
CN112969402A (zh) * 2018-10-30 2021-06-15 奥林巴斯株式会社 内窥镜系统以及用于内窥镜系统的图像处理装置和图像处理方法
JPWO2020090002A1 (ja) * 2018-10-30 2021-09-30 オリンパス株式会社 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法
WO2020090002A1 (ja) * 2018-10-30 2020-05-07 オリンパス株式会社 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法
JP7138719B2 (ja) 2018-10-30 2022-09-16 オリンパス株式会社 内視鏡システムに用いる画像処理装置、内視鏡システム及び内視鏡システムの作動方法
JP2020089498A (ja) * 2018-12-04 2020-06-11 オリンパス株式会社 画像処理装置
JP7163155B2 (ja) 2018-12-04 2022-10-31 オリンパス株式会社 画像処理装置
JP2020146202A (ja) * 2019-03-13 2020-09-17 富士フイルム株式会社 内視鏡画像処理装置、方法及びプログラム、内視鏡システム
US11607109B2 (en) 2019-03-13 2023-03-21 Fujifilm Corporation Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
JP7060536B2 (ja) 2019-03-13 2022-04-26 富士フイルム株式会社 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム
WO2022044617A1 (ja) 2020-08-24 2022-03-03 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2022097294A1 (ja) * 2020-11-09 2022-05-12 オリンパス株式会社 情報処理システム、内視鏡システム及び情報処理方法
WO2022107492A1 (ja) * 2020-11-17 2022-05-27 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法、プロセッサ装置用プログラム、及び内視鏡システム

Also Published As

Publication number Publication date
JPWO2017002184A1 (ja) 2018-05-24
US11170498B2 (en) 2021-11-09
CN107708521A (zh) 2018-02-16
US20180114319A1 (en) 2018-04-26
CN107708521B (zh) 2020-06-12
DE112015006562T5 (de) 2018-03-22
JP6707083B2 (ja) 2020-06-10

Similar Documents

Publication Publication Date Title
JP6707083B2 (ja) 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
US11607109B2 (en) Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
US10194783B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium for determining abnormal region based on extension information indicating state of blood vessel region extending in neighborhood of candidate region
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
US11910994B2 (en) Medical image processing apparatus, medical image processing method, program, diagnosis supporting apparatus, and endoscope system
US11642005B2 (en) Endoscope system, endoscope image processing method, and storage medium
JP7326308B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
EP3875021A1 (en) Medical image processing apparatus, medical image processing method and program, and diagnosis assisting apparatus
US11564560B2 (en) Image processing apparatus, operating method of image processing apparatus, and computer-readable recording medium
JP6824868B2 (ja) 画像解析装置及び画像解析方法
EP4101364A1 (en) Medical image processing device, endoscope system, medical image processing method, and program
JPWO2019087969A1 (ja) 内視鏡システム、報知方法、及びプログラム
JP2016016185A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7335157B2 (ja) 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
US11830185B2 (en) Medical image processing system and learning method
WO2022209390A1 (ja) 内視鏡システム及びその作動方法
CN112867430B (zh) 医疗图像处理系统及学习方法
KR20220007667A (ko) 화상 해석 장치 및 화상 해석 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15897111

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017525709

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015006562

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15897111

Country of ref document: EP

Kind code of ref document: A1