WO2006112227A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2006112227A1
WO2006112227A1 PCT/JP2006/305022 JP2006305022W WO2006112227A1 WO 2006112227 A1 WO2006112227 A1 WO 2006112227A1 JP 2006305022 W JP2006305022 W JP 2006305022W WO 2006112227 A1 WO2006112227 A1 WO 2006112227A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
classification
feature amount
unit
Prior art date
Application number
PCT/JP2006/305022
Other languages
English (en)
French (fr)
Inventor
Hirokazu Nishimura
Tetsuo Nonami
Original Assignee
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005115960A external-priority patent/JP4624841B2/ja
Priority claimed from JP2005115961A external-priority patent/JP4624842B2/ja
Application filed by Olympus Medical Systems Corp. filed Critical Olympus Medical Systems Corp.
Priority to EP06729056.9A priority Critical patent/EP1870020B1/en
Priority to CN200680010400.4A priority patent/CN101150977B/zh
Priority to US11/666,556 priority patent/US7953261B2/en
Publication of WO2006112227A1 publication Critical patent/WO2006112227A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00036Means for power saving, e.g. sleeping mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method that can exclude an image in which an image of a biological mucous membrane surface is not satisfactorily captured.
  • the endoscope device has, for example, an elongated insertion portion that is inserted into a body cavity as a living body, and forms an image by an objective optical system disposed at the distal end portion of the insertion portion.
  • the image of the body cavity is picked up by a solid-state imaging element or the like and output as an imaging signal, and the image and image of the body cavity are displayed on a monitor or the like based on the imaging signal.
  • the user observes, for example, an organ in the body cavity based on the image of the image in the body cavity displayed on the monitor or the like. Further, the endoscope apparatus can directly take an image of the digestive tract mucosa. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.
  • a capsule endoscope apparatus has been proposed as an imaging apparatus that can be expected to have substantially the same usefulness as the endoscope apparatus as described above.
  • a capsule endoscope apparatus is placed in a body cavity when a subject swallows it from the mouth, and a capsule endoscope that transmits the captured image of the body cavity as an imaging signal to the outside.
  • a receiver that accumulates the received imaging signal after receiving the captured imaging signal outside the body cavity, and an observation device for observing an image of the image in the body cavity based on the imaging signal accumulated in the receiver Composed.
  • the capsule endoscope that constitutes the capsule endoscope apparatus is advanced by peristaltic movement of the digestive tract, for example, it takes several hours until the anal force is discharged after being inserted into the body cavity from the mouth. It usually takes time power S.
  • the capsule endoscope enters the body cavity. For example, the number of still images as frame images accumulated in the receiver in a moving image for several hours in order to continuously output the imaging signal to the receiver until it is discharged. Will be enormous.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of improving the observation efficiency by a user. Means for solving the problem
  • the first image processing apparatus of the present invention determines an image input unit that inputs a medical image composed of a plurality of color signals, and whether or not the input medical image has sufficiently captured a biological mucous membrane. And a control unit that controls at least one of display or storage of the medical image based on a determination result in the determination unit.
  • the second image processing apparatus of the present invention is the first image processing apparatus, further comprising: an image dividing unit that divides the medical image into a plurality of regions; and the plurality of regions of the medical image.
  • a feature quantity calculation unit that calculates a feature quantity in each of the plurality of areas is identified to belong to a plurality of classes, and each of the plurality of areas is classified based on the identification result.
  • a classification determination value calculation for calculating a ratio of the area group classified into a predetermined class to the plurality of areas based on a classification result by the area classification unit.
  • An image classification unit for classifying the image having the region group classified into the predetermined class based on the ratio calculated by the classification unit, the classification determination value calculation unit, and a predetermined threshold related to the ratio And comprising
  • the determination unit determines that the medical image is an image in which the biological mucous membrane is not sufficiently captured when the ratio is equal to or less than a predetermined threshold based on the classification result of the image classification unit.
  • the medical image is determined to be an image obtained by sufficiently capturing the biological mucous membrane.
  • the control unit displays the medical image determined by the determination unit that the biological mucous membrane has not been sufficiently imaged. It is characterized in that it is controlled as Shina.
  • the control unit stores the medical image determined by the determination unit as not sufficiently imaging the biological mucous membrane. It is characterized in that it is controlled as Shina.
  • the control unit stores the medical image determined by the determination unit that the biological mucous membrane is not sufficiently imaged. It is characterized in that it is controlled as Shina.
  • a sixth image processing apparatus of the present invention is the above-described second image processing apparatus, further comprising: An image deletion unit that deletes the medical image determined by the determination unit as not sufficiently imaging the biological mucous membrane is provided.
  • a seventh image processing apparatus of the present invention is an image in which the third image processing apparatus further deletes the medical image determined by the determination unit that the biological mucous membrane is not sufficiently imaged.
  • a deletion unit is provided.
  • An eighth image processing apparatus of the present invention is an image in which, in the fourth image processing apparatus, an image for deleting the medical image that has been determined by the determination unit that the biological mucous membrane has not been sufficiently imaged.
  • a deletion unit is provided.
  • a ninth image processing apparatus of the present invention is an image in which the fifth image processing apparatus further deletes the medical image determined by the determination unit that the biological mucous membrane is not sufficiently imaged.
  • a deletion unit is provided.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by.
  • An eleventh image processing apparatus of the present invention includes an image input unit that inputs a plurality of medical images having a plurality of color signal powers, and a region setting that sets a plurality of regions for the input medical image.
  • a feature amount calculation unit that calculates a feature amount in each of the plurality of regions of the medical image; Based on the density value of the green component of the medical image based on a region classification unit that classifies the plurality of regions into each of a plurality of classes including a class relating to biological mucosa and a class relating to non-biological mucosa, An edge detection unit that detects an area having an edge in a plurality of areas, and a bleeding part determination that determines whether the area having an edge includes a bleeding part based on the density value of the red component of the image Part and said A classification result determination unit that determines whether the classification result of the region classification unit is correct based on the determination result of the bleeding site determination unit, and the detection unit identifies a region including the bleeding site as a presence of a lesion This is characterized in that it is detected as a suspected region.
  • the region determination unit classifies one region into a class relating to a biological mucous membrane based on a classification result of the region classification unit.
  • the one region is determined to be a region obtained by imaging the biological mucous membrane.
  • the detection result determination unit is based on a detection result of the detection unit and a determination result of the region determination unit.
  • the detection result of the detection unit is determined to be correct.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a sixteenth image processing apparatus of the present invention includes an image input unit that inputs a plurality of medical images captured continuously in time, a region setting unit that sets a plurality of regions in the medical image, A determination unit for determining imaging targets in the plurality of regions set by the region setting unit, a specification unit for specifying an organ imaged in the medical image based on a determination result of the determination unit, and the specification And a specific result display unit for displaying a specific result in the unit.
  • the seventeenth image processing apparatus of the present invention is the sixteenth image processing apparatus, further comprising: an image dividing unit that divides the medical image into a plurality of regions; and each of the plurality of regions of the medical image.
  • a feature amount calculation unit for calculating a feature amount, and a region for identifying which of the plurality of regions each belongs to a plurality of classes based on the feature amount and classifying each of the plurality of regions based on the identification result
  • a classification determination value calculation unit that calculates a ratio of a region group classified into a predetermined class among the plurality of classes based on a classification result by the classification unit and the region classification unit; and Based on the ratio calculated by the classification determination value calculation unit and a predetermined threshold related to the ratio, the predetermined An image classifying unit that classifies the image having the region group classified into the class, and the specifying unit is captured in the medical image based on the classification result of the image classifying unit, It is characterized by specifying the organ to be.
  • the plurality of classes include at least a gastric mucosa class, a villus class, and a stool class. .
  • the specifying unit is captured in the medical image. It is characterized in that it is determined that the organ is a stomach.
  • the specifying unit is configured to detect an organ imaged in the medical image. It is characterized by determining that it is a small intestine.
  • the specifying unit is captured in the medical image. Is determined to be the large intestine.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a twenty-third image processing apparatus of the present invention includes an image signal input unit that inputs an image signal based on an image picked up by a medical device having an image pickup function, and an image signal input in the image signal input unit.
  • An image dividing unit that divides an image captured by the medical device into a plurality of regions, a feature amount calculating unit that calculates a feature amount in each of the plurality of regions divided by the image dividing unit, and the feature
  • a first region classification unit that classifies the plurality of regions into one of a plurality of classes based on the feature amount calculated by the amount calculation unit and a predetermined first classification criterion; and the feature amount;
  • a classification criterion setting unit that sets a second classification criterion based on a classification result by the first region classification unit; the feature amount; and the plurality of regions based on the second classification criterion.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the first region classification unit includes a statistical classifier using a parameter that defines the first classification criterion. And classifying the plurality of regions into any of the plurality of classes, wherein the second region classification unit uses the statistical classifier using a parameter that defines the second classification criterion. A plurality of areas are classified into the plurality of classes, respectively, and shifted.
  • a twenty-sixth image processing apparatus of the present invention includes an image signal input unit that inputs an image signal based on an image captured by a medical device having an imaging function, and an image signal input by the image signal input unit.
  • An image dividing unit that divides an image captured by the medical device into a plurality of regions, a feature amount calculating unit that calculates a feature amount in each of the plurality of regions divided by the image dividing unit, and the feature
  • a first region classification unit that classifies the plurality of regions into one of a plurality of classes based on the feature amount calculated by the amount calculation unit and a predetermined first classification criterion; and Among them, the classification result of the first region by the first region classification unit is evaluated by calculating the evaluation value based on the classification result of the first region classification unit of the region located in the vicinity of the one region. Evaluation value to A detecting section, based on the evaluation value in the evaluation value calculation unit, characterized in that said one region anda second area classifying unit which classifies the one of the multiple classes.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a twenty-eighth image processing device of the present invention is an image signal input unit that inputs an image signal based on an image captured by a medical device having an imaging function, and an image signal input in the image signal input unit.
  • An image dividing unit that divides an image captured by the medical device into a plurality of regions based on the image, a feature amount calculating unit that calculates a feature amount in each of the plurality of regions divided by the image dividing unit, and the plurality of the plurality of regions
  • An attention area setting unit that sets one area as an attention area, and an area that is a predetermined distance away from the attention area.
  • a near-peripheral region detection unit that detects a certain near-periphery region; and a substantially circular shape detection unit that detects that at least a part of a substantially circular contour portion exists in the near-outer peripheral region based on the feature amount; And a region extracting unit for extracting the region of interest when the substantially circular shape is detected by the substantially circular shape detecting unit.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the substantially circular shape detection unit is at least one of the substantially circular contour portions in the peripheral region.
  • a substantially circular shape is detected when it is determined that the ratio of the region where the portion exists is equal to or greater than a predetermined threshold, and the region extracting unit extracts the region of interest as a region where the central portion of the substantially circular shape exists It is characterized by doing.
  • the substantially circular shape is a bubble.
  • a thirty-second image processing apparatus of the present invention is characterized in that, in the thirtieth image processing apparatus, the substantially circular shape is a bubble.
  • a thirty-third image processing apparatus of the present invention includes an image signal input unit that inputs an image signal based on an image captured by a medical device having an image capturing function, and an image signal input by the image signal input unit.
  • An image dividing unit that divides an image captured by the medical device into a plurality of regions
  • a feature amount calculating unit that calculates a feature amount in each of the plurality of regions divided by the image dividing unit
  • the feature An area classification unit that classifies each of the plurality of areas into one of a plurality of classes based on the feature amount calculated by the quantity calculation unit and a predetermined classification criterion, and structurally among the plurality of classes.
  • An area detection unit that detects an area classified into a predetermined class preset as a class having a clear feature from the plurality of areas, and a previous area included in the area detected by the area detection unit Based on the feature quantity, characterized by comprising a classification criteria setting unit for setting the predetermined classification criterion in the area classifying unit.
  • the predetermined class is at least one of a foam class and a villus class. .
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a first image processing method of the present invention includes an image input step of inputting an image captured by a medical device having an imaging function, an area dividing step of dividing the image into a plurality of areas, A feature amount calculating step for calculating a feature amount from each of the plurality of regions, and based on the feature amount, each of the plurality of regions is either a region obtained by imaging a biological mucosa surface or a region obtained by imaging a non-biological mucosa And an area classification step for classifying the area.
  • a second image processing method of the present invention includes an image input step of inputting an image captured by a medical device having an imaging function, an area dividing step of dividing the image into a plurality of regions, A feature amount calculating step for calculating a feature amount from each of the plurality of regions, and a region classification step for classifying each of the plurality of regions into one of a plurality of different classes based on the feature amount.
  • the region classification step corresponds to both the region obtained by imaging the biological mucosal surface, the region obtained by imaging the non-biological mucosa, and both the biological mucosal surface and the non-biological mucosa. Each of the plurality of areas is classified into any of the areas not to be processed.
  • a third image processing method of the present invention includes an image input step of inputting an image captured by a medical device having an imaging function, an area dividing step of dividing the image into a plurality of regions, A feature amount calculating step for calculating a feature amount from each of the plurality of regions, and a region classification step for classifying each of the plurality of regions into one of a plurality of different classes based on the feature amount.
  • an exclusive class setting step for setting a combination of exclusive classes that are not allowed to be mixed on the image, and which class is given priority among the combinations of the exclusive classes.
  • a priority class setting step to set wherein the region classification step If there is an area classified into the class of the combination of exclusive classes set in the exclusive class setting step or any other class, the area is set to the class set in the priority class setting step. It is characterized by classifying.
  • a fourth image processing method of the present invention is the class included in the exclusive class combination in the third image processing method, further based on the classification result in the region classification step.
  • a classification determination value calculating step for calculating a ratio of a region group classified into one class to the plurality of regions, wherein the priority class setting step includes the classification determination value calculation step.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • An eighth image processing method of the present invention is the image processing method according to the first image processing method, wherein the image further captures a surface of a biological mucous membrane based on a classification result of each of the plurality of regions in the region classification step.
  • a ninth image processing method of the present invention is the second image processing method according to the second image processing method, wherein the image images a surface of a biological mucous membrane based on a classification result of each of the plurality of regions in the region classification step.
  • a tenth image processing method of the present invention is the same as the fourth image processing method, further comprising: A determination step of determining whether or not the image captures a surface of a biological mucous membrane based on a classification result of each of the plurality of regions in the recording region classification step.
  • An eleventh image processing method of the present invention is the above-described eighth image processing method, further comprising the step of assigning a predetermined class among the plurality of different classes based on the classification result obtained in the region classification step.
  • An image classification step for classifying the image having the region group classified into the class, and the determination step is based on a classification result of the image classification step, and the ratio is equal to or less than a predetermined threshold value. If the image is determined to be an image that does not sufficiently capture the biological mucosa, and the ratio is greater than a predetermined threshold, the image is sufficiently captured to the biological mucosa. And judging that the image.
  • a twelfth image processing method is the ninth image processing method, further comprising a predetermined class among the plurality of different classes based on a classification result obtained by the region classification step.
  • a predetermined class among the plurality of different classes based on a classification result obtained by the region classification step.
  • An image classification step for classifying the image having the region group classified into the class, and the determination step is based on a classification result of the image classification step, and the ratio is equal to or less than a predetermined threshold value. If the image is determined to be an image that does not sufficiently capture the biological mucosa, and the ratio is greater than a predetermined threshold, the image is sufficiently captured to the biological mucosa. And judging that the image.
  • a thirteenth image processing method of the present invention is the tenth image processing method according to the tenth image processing method, further classified into a predetermined class among the plurality of different classes based on a classification result in the region classification step.
  • the classification determination value calculating step for calculating the proportion of the plurality of regions occupied in the plurality of regions, the ratio calculated by the classification determination value calculation step, and a predetermined threshold relating to the ratio, Classified area
  • An image classification step for classifying the images having a group, and the determination step is based on a classification result of the image classification step, and when the ratio is equal to or less than a predetermined threshold, It is determined that the image is an image in which the mucous membrane is not sufficiently captured, and when the ratio is larger than a predetermined threshold, it is determined that the image is an image in which the biological mucosa is sufficiently captured.
  • a fourteenth image processing method of the present invention includes an image input step of inputting an image captured by a medical device having an imaging function, an area dividing step of dividing the image into a plurality of areas, and the plurality of the plurality of image processing methods.
  • a feature amount calculating step of calculating a feature amount in each of the regions, and identifying which of the plurality of regions each belongs to a plurality of classes based on the feature amount, and identifying each of the plurality of regions based on the identification result An area classification step for classification, and an imaging organ estimation step for estimating an organ imaged by the medical device based on the classification result in the area classification step.
  • the plurality of classes are further classified into a predetermined class based on a classification result in the region classification step.
  • the classification determination value calculation step for calculating the ratio of the area group to the plurality of areas
  • the ratio calculated by the classification determination value calculation step and the predetermined threshold value for the ratio
  • the predetermined class is assigned.
  • An image classification step of classifying the image having the classified region group, and the imaging organ estimation step specifies an organ imaged by the image based on a classification result of the image classification step. This is the special number.
  • the plurality of classes include at least a gastric mucosa class, a villus class, and a stool class. .
  • the specifying unit captures the organ imaged in the image. Is determined to be the stomach.
  • the specific unit is an organ imaged in the image. Is determined to be the small intestine.
  • the specifying unit determines that the organ imaged in the image is a large intestine. It is determined that it is.
  • the feature amount has at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a twenty-first image processing method of the present invention is based on an image signal input in an image signal input unit that inputs an image signal corresponding to an image captured by a medical device having an imaging function.
  • a feature amount calculating step for calculating feature amounts in each of the plurality of regions divided by the image dividing step, and the feature amount calculating step
  • a classification criterion setting step for setting a second classification criterion based on the classification result of the region classification step; and the plurality of regions based on the feature amount and the second classification criterion.
  • a second region classification step for classifying each of the number into one of a number of classes.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the first region classification step includes a statistical classifier using a parameter that defines the first classification criterion.
  • the plurality of regions are each classified into one of the plurality of classes, and the second region classification step uses the statistical classifier using a parameter that defines the second classification criterion.
  • a plurality of areas are classified into the plurality of classes, respectively, and shifted.
  • an image is picked up by a medical device having an image pickup function.
  • an image division step for dividing the image captured by the medical device into a plurality of regions, and an image division step
  • the feature amount calculating step for calculating the feature amount in each of the plurality of divided regions, the feature amount calculated in the feature amount calculating step, and a predetermined first classification criterion
  • the plurality of regions are A region located in the vicinity of the first region, and a classification result obtained by the first region classification step of one region out of the plurality of regions.
  • An evaluation value calculation step for evaluating by calculating an evaluation value based on a classification result in the first region classification step, and an evaluation value in the evaluation value calculation step Based on
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a twenty-sixth image processing method of the present invention is based on an image signal input in an image signal input unit that inputs an image signal corresponding to an image captured by a medical device having an imaging function.
  • An image dividing step for dividing the captured image into a plurality of regions, a feature amount calculating step for calculating a feature amount in each of the plurality of regions divided by the image dividing step, and among the plurality of regions
  • a region-of-interest setting step for setting one region as a region of interest; a region of detecting a nearby outer region that is a region away from the region of interest by a predetermined distance; and a step of detecting a peripheral region of the neighborhood.
  • a substantially circular shape detecting step for detecting the presence of at least a part of a substantially circular contour portion based on the feature amount, and the substantially circular shape detecting step. If the substantially circular shape is detected, characterized by comprising a, a region extraction step of extracting the region of interest.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • the substantially circular shape detecting step at least a part of the substantially circular contour portion in the vicinity outer peripheral region is A substantially circular shape is detected when it is determined that the ratio of the existing regions is equal to or greater than a predetermined threshold, and the region extracting step extracts the region of interest as a region where the central portion of the substantially circular shape exists.
  • the substantially circular shape is a bubble.
  • the substantially circular shape is a bubble.
  • a thirty-first image processing method of the present invention is based on an image signal input in an image signal input unit that inputs an image signal corresponding to an image captured by a medical device having an imaging function, and the medical device
  • an image dividing step for dividing the captured image into a plurality of regions
  • a feature amount calculating step for calculating feature amounts in each of the plurality of regions divided by the image dividing step
  • the feature amount calculating step A region classification step for classifying the plurality of regions into one of a plurality of classes based on the calculated feature quantity and a predetermined classification criterion, and a structurally clear feature of the plurality of classes.
  • a region that is classified into a predetermined class that is set in advance as a class to be detected is detected by the region detection step that detects from the plurality of regions and the region detection step. Based on the feature amount the area has which is characterized in that and a classification criterion setting step for setting the predetermined classification criterion in the area classifying step.
  • the feature amount includes at least one of a feature amount related to a color tone and a feature amount related to a texture. It is characterized by that.
  • a thirty-third image processing method of the present invention is characterized in that, in the thirty-first image processing method, the predetermined class is at least one of a foam class and a villus class. .
  • FIG. 1 An image processing apparatus and peripheral devices in which an image processing operation according to the first embodiment is performed.
  • FIG. 2 is an enlarged cross-sectional view showing a main part of a capsule endoscope that generates predetermined image information to be processed in the image processing apparatus according to the first embodiment.
  • FIG. 3 A block diagram showing a schematic internal configuration of a capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 4 A diagram showing an example of use of the capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 5 A timing chart showing an example of the signal output from the capsule endoscope shown in FIG.
  • FIG. 7 An enlarged cross-sectional view showing the main part of the antenna unit when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 9 An explanatory diagram for explaining a state in which the external device of the capsule endoscope apparatus shown in FIG. 3 is attached to the subject.
  • FIG. 10 A block diagram showing the electrical configuration of the capsule endoscope shown in FIG.
  • FIG. 11 is a flowchart showing an image processing operation according to the first embodiment.
  • FIG. 12 is a diagram showing an example when an input image is divided into (m X n) regions in the image processing operation according to the first embodiment.
  • FIG. 13 is a diagram showing an example of an image of the gastric mucosa among a plurality of images constituting the teacher data.
  • 14 A diagram showing an example of a villi image among a plurality of images constituting teacher data.
  • 15 A diagram showing an example of a fecal image among a plurality of images constituting teacher data.
  • Sono 16 A diagram showing an example of a bubble image among a plurality of images constituting teacher data.
  • FIG. 17 A schematic diagram showing an example of an image of a body cavity imaged by a capsule endoscope. 18] A diagram showing an example of the classification result of the image shown in FIG.
  • FIG. 19 is a flowchart showing an image processing operation different from FIG. 11 in the image processing operation according to the first embodiment.
  • FIG. 20 is a diagram showing an example of a main menu screen among the images on the view displayed on the display.
  • FIG. 21 is a flowchart showing an image processing operation according to the second embodiment.
  • FIG. 22 is a flowchart showing an image processing operation according to the third embodiment.
  • FIG. 23 is a flowchart showing an image processing operation according to the fourth embodiment.
  • FIG. 24 is a flowchart showing a part of an image processing operation according to the fifth embodiment.
  • FIG. 25 is a flowchart showing an image display control operation performed after the processing shown in the flowchart of FIG. 24 is performed as part of the image processing operation according to the fifth embodiment.
  • FIG. 26 is a flowchart showing a part of an image processing operation according to the sixth embodiment.
  • FIG. 29A is a diagram showing one of eight directions serving as an index when determining an edge feature amount (edge feature vector) in an image processing operation according to the sixth embodiment.
  • FIG. 29B is a diagram showing one direction different from FIG. 29A among eight directions serving as an index when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29C is a diagram showing one direction different from FIG. 29A and FIG. 29B among the eight directions that serve as indices when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29D is a diagram showing one direction different from FIGS. 29A to 29C out of the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29E is a diagram showing one direction different from FIGS. 29A to 29D out of the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29F is a diagram showing one direction different from FIGS. 29A to 29E out of the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29G is a diagram showing one direction different from FIGS. 29A to 29F out of the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the sixth embodiment.
  • FIG. 29H In the image processing operation according to the sixth embodiment, among the eight directions that serve as indices when determining the edge feature amount, a diagram showing one direction different from that shown in Figs. 29A to 29G.
  • FIG. 10 is a diagram showing a positional relationship between a central area and an outermost peripheral area set in an image processing operation according to a sixth embodiment.
  • FIG. 31 A diagram showing an angle formed by the direction of the edge feature vector and the direction of the vector VI set in the image processing operation according to the sixth embodiment.
  • FIG. 32 is a flowchart showing a part of an image processing operation according to the seventh embodiment.
  • FIG. 34 A diagram showing an example when an input image is divided into (m X n) regions in the image processing operation according to the seventh embodiment.
  • FIG. 35 is a flowchart showing an image processing operation in the image processing apparatus according to the eighth embodiment.
  • FIG. 36 is a flowchart showing an image processing operation in the image processing apparatus according to the eighth embodiment.
  • FIG. 37 is a diagram showing an example of determining a neighboring region in one region in the image processing operation according to the eighth embodiment. .
  • FIG. 37 A schematic view showing an example of an image of a body cavity image taken by a capsule endoscope used in the image processing operation of the eighth embodiment.
  • FIG. 39 is a diagram showing an example of the image classification result shown in FIG. 38.
  • FIG. 40 A diagram showing the reclassification result after performing the image processing operation of the eighth embodiment based on the classification result shown in FIG.
  • FIG. 41 is a flowchart showing an image processing operation in the ninth embodiment.
  • FIG. 42 is a flowchart showing an image processing operation in the ninth embodiment.
  • FIG. 43 is a diagram showing an example of an array of numbers virtually assigned to each small rectangular area having 4 ⁇ 4 pixels in the image processing operation according to the ninth embodiment.
  • FIG. 44 is a diagram showing a positional relationship of a neighboring outer peripheral area Ht with respect to one rectangular area RO in an image processing operation according to the ninth embodiment.
  • FIG. 45 is a diagram showing an example of an angle ⁇ t formed by an approximate gradient vector Ygi and a direction vector: m in the image processing operation according to the ninth embodiment.
  • FIG. 46 is a schematic diagram showing an example of an image of a body cavity imaged by a capsule endoscope used in the ninth embodiment.
  • FIG. 47 is a diagram showing an example of the image classification result shown in FIG. 46.
  • FIG. 1 is an external front view showing the external appearance of an image processing apparatus and peripheral devices that perform an image processing operation according to the first embodiment of the present invention.
  • FIG. 2 is an enlarged cross-sectional view showing a main part of a capsule endoscope that generates predetermined image information to be processed by the image processing apparatus of the present embodiment.
  • FIG. 3 is a block diagram showing a schematic internal configuration of the capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the present embodiment.
  • FIG. 4 is a diagram showing an example of use of the capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the present embodiment.
  • FIG. 5 is a timing chart showing an example of signals output from the capsule endoscope shown in FIG. FIG.
  • FIG. 6 is an explanatory diagram for explaining position detection of the capsule endoscope shown in FIG.
  • FIG. 7 is an enlarged cross-sectional view showing a main part of the antenna unit when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 8 is an explanatory view for explaining a shield jacket when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 9 is an explanatory view for explaining a state in which the external device of the capsule endoscope apparatus shown in FIG. 3 is attached to the subject.
  • FIG. 10 is a block diagram showing an electrical configuration of the capsule endoscope shown in FIG.
  • FIG. 11 is a flowchart showing an image processing operation according to the present embodiment.
  • FIG. 12 shows the case where the input image is (m X n) in the image processing operation according to the present embodiment. It is a figure which shows an example at the time of dividing
  • FIG. 13 is a diagram illustrating an example of an image of the gastric mucosa among a plurality of images constituting the teacher data.
  • FIG. 14 is a diagram illustrating an example of a villi image among a plurality of images constituting the teacher data.
  • FIG. 15 is a diagram illustrating an example of a fecal image among a plurality of images constituting the teacher data.
  • FIG. 16 is a diagram illustrating an example of a bubble image among a plurality of images constituting the teacher data.
  • FIG. 13 is a diagram illustrating an example of an image of the gastric mucosa among a plurality of images constituting the teacher data.
  • FIG. 14 is a diagram illustrating an example of a villi image among a plurality of images constituting
  • FIG. 17 is a schematic diagram illustrating an example of an image of a body cavity imaged by a capsule endoscope.
  • FIG. 18 is a diagram showing an example of the image classification result shown in FIG.
  • FIG. 19 is a flowchart showing an image processing operation different from FIG. 11 in the image processing operation according to the present embodiment.
  • FIG. 20 is a diagram showing an example of the main menu screen among the images on the view displayed on the display.
  • the capsule endoscope apparatus 1 for supplying predetermined image information to the image processing apparatus according to the first embodiment of the present invention includes a capsule endoscope 3 and an antenna unit. 4 and the external device 5 constitute a main part.
  • the capsule endoscope 3 as a medical device is placed in the body cavity by being swallowed into the locus of the patient 2 as the subject, and then placed in the extinguishing tube by a peristaltic motion. And has an imaging function for imaging the inside of the body cavity and generating the captured image information, and a transmission function for transmitting the captured image information to the outside of the body.
  • the antenna unit 4 is installed on the body surface of the patient 2 and receives a plurality of receiving antennas that receive captured image information transmitted from the capsule endoscope 3.
  • the external device 5 has an outer shape formed in a box shape, which will be described in detail later.
  • a liquid crystal monitor 1 2 for displaying the captured image on the exterior surface of the external equipment 5, and an operation unit 13 for performing an operation instruction of various functions are provided.
  • the external device 5 is provided with an LED for displaying a warning regarding the remaining amount of the battery for the driving power source and an operation unit 13 including a switch such as a power switch on the surface of the exterior.
  • the capsule endoscope 3 is provided with a calculation execution unit using a CPU and a memory.
  • the calculation execution unit receives and stores captured image information. A configuration in which an image processing method according to the present invention described later is executed may be employed.
  • the external device 5 is detachably attached to the body of the patient 2 and is attached to the cradle 6 as shown in FIG. 1, whereby image processing according to the first embodiment of the present invention is performed.
  • a device (hereinafter referred to as a terminal device) 7 is detachably connected.
  • the terminal device 7 is, for example, a personal computer, and displays a terminal main body 9 having various data processing functions and storage functions, a keyboard 8a and a mouse 8b for various operation processing inputs, and various processing results. And a display 8c having a function as a display unit.
  • the terminal device 7 has, as a basic function, for example, captured image information stored in the external device 5 via the cradle 6, and a rewritable memory built in the terminal body 9 or the terminal body 9 It has a function of writing and storing it in a portable memory such as a rewritable semiconductor memory that is detachable and displaying the stored captured image information on the display 8c.
  • the captured image information stored in the external device 5 may be taken into the terminal device 7 by a USB cable or the like instead of the cradle 6.
  • the image processing performed by the terminal device 7 is displayed according to the elapsed time from the captured image information that is captured from the external device 5 and stored in a memory or the like that has a function as a storage unit (not shown), for example.
  • the processing for selecting an image and the processing based on the image processing method according to the present invention to be described later are performed in the control unit 9a of the terminal body 9.
  • the control unit 9a is composed of a CPU or the like.
  • the processing result can be temporarily held in a register or the like (not shown).
  • the capsule endoscope 3 includes a substantially hemispherical force bar member formed by an exterior member 14 having a U-shaped cross section and a transparent member that is watertightly attached to the open end of the exterior member 14 with an adhesive. It consists of 14a. Therefore, the exterior of the capsule endoscope 3 is formed to have a watertight structure and a capsule shape in a state where the exterior member 14 and the cover member 14a are connected.
  • a capsule-shaped internal hollow portion composed of the exterior member 14 and the cover member 14a, and the cover member 14a is provided at a portion corresponding to the approximate center of the arc of the hemisphere of the cover member 14a.
  • An objective lens 15 that captures an image of an observation site incident thereon is housed in a lens frame 16 and arranged.
  • a charge coupled device (hereinafter referred to as CCD) 17 that is an imaging device is disposed at the imaging position of the objective lens 15.
  • CCD charge coupled device
  • four white LEDs 18 that emit and emit illumination light are arranged on the same plane (only two LEDs are shown in the figure). ).
  • the CCD 17 is driven to generate a photoelectrically converted imaging signal, and the imaging signal is subjected to predetermined signal processing to generate a captured image signal.
  • the processing circuit 19 that performs the imaging processing to be performed and the LED driving processing that controls the operation of lighting of the LED 18 and the non-lighting of the LED 18, and the captured image signal generated by the imaging processing of the processing circuit 19 is converted into a wireless signal and transmitted.
  • the CCD 17, the LED 18, the processing circuit 19, the communication processing circuit 20, and the transmission antenna 23 are arranged on a substrate (not shown), and the substrates are connected by a flexible substrate (not shown).
  • the processing circuit 19 includes an arithmetic circuit (not shown) for performing image processing to be described later. That is, as shown in FIG. 3, the capsule endoscope 3 includes an imaging device 43 having the CCD 17, LED 18, and processing circuit 19, a transmitter 37 having the communication processing circuit 20, and a transmission antenna 23. Have.
  • the image pickup device 43 includes an LED driver 18A for controlling the operation of turning on / off the LED 18, a CCD driver 17A for controlling the drive of the CCD 17 and transferring the photoelectrically converted charge, and the transfer from the CCD 17.
  • a processing circuit 19A that generates an imaging signal using the generated charge, and generates a captured image signal by performing predetermined signal processing on the imaging signal; the LED driver 18A, the CCD driver 17A, the processing circuit 19A, and It has a switch section that supplies the drive power from the battery 21 to the transmitter 37, and a timing generator 19B that supplies a timing signal to the switch section and the CCD driver 17A.
  • the switch unit switches on / off the power supply from the battery 21 to the LED driver 18A, and the power supply to the CCD 17, the CCD driver 17A, and the processing circuit 19A.
  • the timing generator 19B is always supplied with driving power from the battery 21.
  • each part other than the timing generator 19B is not It is an operating state.
  • the switch 19D is turned on, whereby the CCD 17, the CCD driver 17A, and the processing circuit 19A supplied with power from the battery 21 are in an operating state.
  • the electronic shutter of the CCD 17 is operated to remove unnecessary negative current, and then the timing generator 19B turns on the switch 19C to drive the LED driver 18A to light the LED 18. Let the CCD17 be exposed. The LED 18 is turned on for a predetermined time required for exposure of the CCD 17, and then turned off at the timing when the switch 19C is turned off to reduce power consumption.
  • the charge stored within the predetermined time when the CCD 17 is exposed is transferred to the processing circuit 19A under the control of the CCD driver 17A.
  • the processing circuit 19A generates an image pickup signal based on the charge transferred by the CCD 17 and performs predetermined signal processing on the image pickup signal to generate an endoscope image signal.
  • the processing circuit 19A when the signal transmitted from the transmitter 37 is an analog wireless system, the processing circuit 19A generates an analog imaging signal in which the composite synchronization signal is superimposed on the CDS output signal, and then stores the analog imaging signal. Output to the transmitter 37 as an endoscopic image signal.
  • the processing circuit 19A further performs a coding process such as scrambling on the serial digital signal generated by the analog / digital converter.
  • a digital captured image signal is generated, and the digital captured image signal is output to the transmitter 37 as an endoscope image signal.
  • the transmitter 37 performs a modulation process on an analog captured image signal or a digital captured image signal, which is an endoscopic image signal supplied from the processing circuit 19A, to the outside from the transmission antenna 23. Wireless transmission.
  • the switch 19E supplies drive power to the transmitter 37 only at the timing when the captured image signal is output from the processing circuit 19A. As shown, the timing generator 19B turns on / off.
  • the switch 19E may be controlled so that driving power is supplied to the transmitter 37 after a predetermined time has elapsed since the captured image signal was output from the processing circuit 19A.
  • the switch 19E is provided in the capsule endoscope 3 to detect a predetermined pH value by a pH sensor (not shown), to detect a humidity higher than a predetermined value by a humidity sensor (not shown),
  • the signal is output from the timing generator 19B based on a detection result such as detection of pressure or acceleration exceeding a predetermined value by an acceleration sensor (not shown)
  • the transmitter 37 is inserted into the body cavity of the patient 2 as the subject. It may be configured to be controlled so as to supply power.
  • the capsule endoscope 3 is provided with a timer circuit (not shown), and this timer circuit, for example, provides high-speed imaging with a large number of images per second within a predetermined time, for a predetermined time. After the elapse of time, the drive of the imaging device 43 is controlled so as to achieve low-speed imaging with a small number of images taken per second.
  • the timer circuit is activated when the capsule endoscope 3 is turned on, and this timer circuit allows, for example, high-speed imaging until the patient 2 passes through the esophagus immediately after swallowing. It is also possible to control the drive of the imaging device 43. Furthermore, a capsule endoscope for low-speed imaging and a capsule endoscope for high-speed imaging may be provided separately and used separately according to the observation target site.
  • the antenna unit 4 installed on the body surface of the patient 2 will be described.
  • the patient 2 wears a jacket 10 in which an antenna unit 4 including a plurality of receiving antennas 11 is installed.
  • this antenna unit 4 is used for GPS, for example, a plurality of receiving antennas 11 having a unidirectional directivity such as patch antennas are directed toward the patient 2 in the body direction.
  • a plurality of receiving antennas 11 having a unidirectional directivity such as patch antennas are directed toward the patient 2 in the body direction.
  • the plurality of antennas 11 are disposed so as to surround the capsule body 3D in the body. Use this highly directional antenna 11 This makes it less susceptible to interference from radio waves from outside the capsule body 3D inside the body.
  • the jacket 10 covers the antenna unit 4 installed on the body surface of the patient 2 and the main body 5D of the external device 5 installed on the waist of the patient 2 by a belt.
  • a shield jacket 72 formed of electromagnetic shielding fibers.
  • the electromagnetic shield fiber forming the shield jacket 72 metal fiber, metal chemical fiber, copper sulfide-containing fiber, or the like is used.
  • the shield jacket 72 is not limited to the jacket shape, and may be, for example, a vest or a one-piece shape.
  • a key hole 74 is provided in the external main body 5D of the external device 5, and a key 75 provided in the shield jacket 72 is provided. Is inserted into the key hole 74 so that the belt 73 can be detachably attached.
  • a pocket may be simply provided in the shield jacket 72, and the external main body 5D may be accommodated in the pocket, or Velcro (registered trademark) may be attached to the external main body 5D and the shield jacket 72 of the external device 5. It may be installed and fixed with the Velcro (registered trademark).
  • the shield jacket 72 to the body on which the antenna unit 4 is arranged, the radio waves from the outside with respect to the antenna unit 4 are shielded and shielded, and the influence of interference by external radio waves is further affected. ing.
  • the antenna unit 4 includes a plurality of reception antennas l la to l Id that receive radio signals transmitted from the transmission antenna 23 of the capsule endoscope 3 and an antenna switching switch 45 that switches between the antennas l la to lld. It consists of.
  • the external device 5 converts a radio signal from the antenna switching switch 45 into a captured image signal and performs reception processing such as amplification and amplification, and predetermined signal processing is performed on the captured image signal supplied from the reception circuit 33.
  • a signal processing circuit 35 that generates a captured image display signal and captured image data, and a liquid crystal monitor 12 that displays the captured image based on the captured image display signal generated by the signal processing circuit 35.
  • the memory 47 that stores the captured image data generated by the signal processing circuit 35 and the size of the radio signal received by the receiving circuit 33 And an antenna selection circuit 46 for controlling the antenna switching switch 45.
  • a plurality of reception antennas 11 indicated as reception antennas lla to lId in the figure of the antenna unit 4 are radio signals transmitted from the transmission antenna 23 of the capsule endoscope 3 with a certain radio wave intensity.
  • the plurality of receiving antennas 11 a to 11 id sequentially switch the receiving antennas that receive the radio signals by controlling the antenna switching switch 45 by the antenna selection signal from the antenna selection circuit 46 of the external device 5.
  • the radio signal received for each of the receiving antennas lla to d sequentially switched by the antenna switching switch 45 is output to the receiver 33.
  • the reception intensity of the radio signal for each of the reception antennas l la to l Id is detected, and the positional relationship between each reception antenna 11a to l id and the capsule endoscope 3 is calculated.
  • the radio signal is demodulated and the captured image signal is output to the signal processing circuit 35.
  • the antenna selection circuit 46 is controlled by the output from the receiver 33.
  • the radio signal transmitted from the capsule endoscope 3 has an intensity reception that is a transmission period of a reception intensity signal indicating the reception intensity of the radio signal in the transmission period of one frame of the captured image signal. It is assumed that the period and the video signal period, which is the transmission period of the captured image signal, are sequentially transmitted.
  • the antenna selection circuit 46 is supplied with the reception intensity of the reception intensity signal received by each of the reception antennas lla to lId via the reception circuit 33.
  • the reception intensity of the reception intensity signal of the other antenna is higher than that of the antenna currently receiving the image signal, the reception antenna of the video signal period is switched to the next frame power.
  • the antenna selection circuit receiving the comparison result
  • the antenna l li with the maximum received intensity is designated by 46 so as to designate the antenna for receiving the image signal.
  • FIG. 6 the case where the capsule endoscope 3 is set to the origin of the three-dimensional coordinates X, Y, and ⁇ will be described as an example.
  • three receiving antennas l la, 1 lb, and 11c are used, and between the receiving antenna 11a and the receiving antenna l ib The distance is Dab, the distance between the receiving antenna l ib and the receiving antenna 11c is Dbc, and the distance Dac between the receiving antenna 11a and the receiving antenna 11c.
  • the receiving antennas l la to l lc and the capsule endoscope 3 have a predetermined distance relationship.
  • This distance Li is calculated in advance using relational data such as the amount of radio wave attenuation due to the distance between the capsule endoscope 3 and the receiving antenna l lj.
  • the calculated distance data indicating the positional relationship between the capsule endoscope 3 and each receiving antenna 1 lj is stored in the memory 47 as position information of the capsule endoscope 3. Based on the captured image information stored in the memory 47 and the position information of the force Pseudo endoscope 3, it is useful for setting the position of the endoscopic observation findings in the image information processing method described later by the terminal device 7. .
  • the i-th image of N images (1 ⁇ N) taken consecutively in time is Ii (l ⁇ i ⁇ N), and the RGB planes are Ri, Gi, respectively.
  • Bi the first pixel (1 ⁇ 1313 ⁇ ) that can be produced in each plane
  • rik gi k
  • bik the first pixel (1 ⁇ 1313 ⁇ ) that can be produced in each plane.
  • the image processing operation in the image processing apparatus in the present embodiment is performed as a process in the control unit 9a of the terminal body 9 of the terminal device 7 described above.
  • control unit 9a having a function as an image signal input unit and an image input unit inputs and receives an image signal based on an image of a body cavity imaged by the capsule endoscope 3.
  • preprocessing for example, noise removal and median filtering are performed by median filtering, and halo pixels and dark pixels are processed later. In order to exclude them from the detection, they are detected by threshold-based processing (step Sl in Fig. 11).
  • the processing based on the threshold value is, for example, if the density values of rik, gik, and bik are all 10 or less, and the density values of rik, gik, and bik are all 230 or more. If it is a value of, it is processed as a halation pixel.
  • the control unit 9a having functions as an image dividing unit and a region setting unit divides each of Ri, Gi, and Bi planes into small regions (step S2 in FIG. 11).
  • the control unit 9a uses the Ri, Gi, and Bi planes in the x-axis direction.
  • the control unit 9a treats the area where m or n is not an integer, in some cases, the area at the extreme end where the size is a fraction as an area having a fractional number of pixels, Or, the following processing power is excluded.
  • control unit 9a having a function as a feature amount calculation unit, in each divided region, tone information that reflects the color difference on the image of the image to be imaged and the image on the image of the image to be imaged Texture information that reflects the difference in structure is calculated as a feature quantity (step S3 in FIG. 11).
  • one of the regions divided by the control unit 9a is denoted as Hst (l ⁇ s ⁇ m, l ⁇ t ⁇ n).
  • the tone information calculated by the control unit 9a is an average value of gik / rik (hereinafter referred to as x gst) as a value based on a ratio of RGB values of each pixel included in one region Hst. ) And the average value of bik / rik (hereinafter referred to as / i bst).
  • x gst the average value of gik / rik
  • / i bst the average value of bik / rik
  • Each value of / i gst and / i bst takes a small value in a similar manner in a region showing a relatively red tone such as a gastric mucosa.
  • each value of / i gst and Ai bst takes a large value in a similar manner in an area having a relatively white tone such as the small intestine.
  • each value of / gst and / bst takes a value such that ⁇ gst> ⁇ bst in a relatively yellow tone region such as feces.
  • the texture information calculated by the control unit 9a reflects the difference in the structure of the image to be imaged as described above. And the structure on the image of the image to be imaged is shown, for example, as a fine structure such as villi on the mucosal surface, and an irregular pattern of stool.
  • the texture information calculated by the control unit 9a includes the standard deviations arst, agst, and abst of the RGB values of each pixel included in one region Hst, and the pixel information included in the one region Hst.
  • the RGB value variation coefficients CVrst, CVgst, and CVbst are shown as three feature values, which are the average values of RGB values divided by mrst, mgst, and mbst.
  • CVbst ⁇ bst / mbst ⁇ (3) Illumination supplied to the object to be imaged by the coefficient of variation CVrst, CVgst, and CVbst calculated using Equation (1), Equation (2), and Equation (3) above
  • the degree of pixel variation due to the texture structure can be quantified regardless of the effect of light intensity.
  • the values of CVrst, CVgst, and CVbst are, for example, in a region where the structure on the image is relatively flat, such as the gastric mucosa imaged during normal observation, in a state where magnification observation is not performed. Since there is no clear texture structure, the value is almost the same.
  • each value of CVrst, CVgst, and CVbst takes a large value in a similar manner in a region where the structure on the image includes a relatively large number of edges, such as villi of the small intestine.
  • the control unit 9a of the present embodiment In the subsequent processing performed by the control unit 9a of the present embodiment, five feature quantities having color tone information and texture information are used. The values constituting the feature quantities are used by the user, etc. It is possible to make changes or additions as appropriate.
  • the control unit 9a replaces the values of ⁇ gst and / i bst as color information, and is a value indicated as chromaticity, which is a ratio of rik, gik and bik in each pixel of each region, that is, rik
  • the following processing may be performed using the values of / (rik + gik + bik), gik / (rik + gik + bik) and bik / (rik + gik + bik).
  • the control unit 9a removes the five feature values composed of tone information and texture information, that is, the values of / igst, tbst, CVrst, CVgst, and CVbst, excluding the halation pixel and the dark portion pixel. Based on the RGB value of each pixel, it is calculated for each (m X n) area Hst. In the present embodiment, for example, in the (lx X ly) pixels included in one region Hst, the ratio of the sum of the number of halation pixels and the number of buttocks pixels is 50%. If it exceeds, control may be performed so as to exclude one area Hst from the subsequent processing.
  • control unit 9a having a function as a region classification unit executes identification classification based on the five feature amounts calculated in each of the divided regions Hst, thereby performing imaging for each region. After identifying what the image object is, each region Hst is classified based on the identification result
  • the control unit 9a is prepared in advance as images constituting four classes of teacher data consisting of gastric mucosa, villi, feces, and bubbles.
  • FIG. 13, FIG. 14, FIG. 15 and FIG. 16 are used to calculate the above-mentioned five feature quantities determined each time in one region of the image, and then create a linear discriminant function for each of the four classes.
  • the control unit 9a uses the linear discriminant function as the discriminator calculated by the above-described procedure, for example, one region Hst out of four classes consisting of gastric mucosa, villi, feces, and bubbles. Which class belongs is identified, and classification based on the identification result is performed.
  • control unit 9a performs the identification and classification as described above for all the regions Hst included in the image Ii, as shown in FIG. A classification result is obtained as if the villi and bubbles were classified (step S4 in FIG. 11).
  • the classification and classification performed by the control unit 9a of the present embodiment for each region of the image using the classifier is not limited to that based on the linear discriminant function. It may be based on a technique such as IJ or neural network.
  • the control unit 9a identifies and classifies each region of the input image as one of the four classes of gastric mucosa, villi, feces, and bubbles. The number and types of classes to be classified can be changed or added as appropriate according to the user's usage.
  • the control unit 9a may classify the esophagus or the colonic mucosa, for example, or classify the duodenum and villus as separate classes. There may be.
  • control unit 9a having a function as a classification determination value calculation unit is classified based on the above-described classification result, that is, the total number of regions classified as biological mucosal surfaces, that is, classified as gastric mucosa or villus.
  • the value p of the ratio of z to the total number of areas (m X n) of the image Ii is calculated based on the following formula (4) (step S5 in FIG. 11).
  • the control unit 9a having a function as an image classification unit, the image Ii displays the surface of the biological mucosa.
  • the ratio p calculated by Equation (4) is compared with the threshold value thr.
  • the control unit 9a detects that the value p of the ratio p in the image Ii is greater than the threshold value th r (step S6 in FIG. 11)
  • the image Ii is an image in which the surface of the biological mucosa is sufficiently captured. That is, it is identified and classified as an image that needs to be observed, and a flag value flagi as a reference value is set to 1 (step S7 in FIG. 11).
  • the value of the threshold value thr is assumed to be 0.5.
  • control unit 9a detects that the value p of the ratio p in the image Ii is equal to or less than the threshold value thr (step S6 in Fig. 11), the surface of the biological mucosa is sufficiently detected by the feces and bubbles. Are identified and classified as images that are not necessary for observation, and the flag value flagi is set to 0 (step S8 in FIG. 11).
  • control unit 9a adds 1 to the image number i (step S in Fig. 11) when the above-described processing has not been completed for all the input images Ii (step S9 in Fig. 11). 10) For the next image, the processing shown in steps S1 to S9 in FIG. 11 is continued.
  • the control unit 9a having a function as an image display control unit performs the processing as described above, so that when the user observes the image to be imaged, the control unit 9a is based on the flag value flagi. For example, only the image that needs to be observed with the flag value flagi being 1 is displayed on the display 8c, and the image that has the flag value flagi of 0 and is not necessary to be observed is not displayed on the display 8c. S can.
  • the control unit 9a having a function as an image deletion unit may reduce the size of image data to be stored by deleting an image whose flag value flag is 0 and which is unnecessary for observation. good.
  • the ratio p was calculated from the total number z of regions classified as gastric mucosa or villi.
  • the processing performed by the control unit 9a is not limited to this.For example, as described below, the number of regions zl classified as gastric mucosa and the number of regions z2 classified as villi are individually It may be something like handling.
  • control unit 9a performs processing such as calculating the ratio of the number of regions to the total number of regions (m X n) of the image Ii individually for each class based on the number of regions classified into each class. It may be what you do.
  • the control unit 9a obtains classification results for all the regions Hst included in the image Ii by performing the processing from step S1 to step S4 in FIG. 11 (step Sl 1 in FIG. 19). If the number of regions classified as gastric mucosa is zl, the number of regions classified as villi is z2, and the number of regions classified as stool is z3, the controller 9a Based on the ratio pi of the number of regions classified as gastric mucosa to the total number of regions in image Ii (m X n) and the number of regions z2 classified as villi are the total number of regions in image Ii (m X The ratio p2 in n) and the ratio p3 in which the number of regions z3 classified as feces occupy the total number of regions (m X n) of the image Ii are respectively calculated (step S12 in FIG. 19).
  • the controller 9a compares the value of the ratio pi with the threshold value thrl.
  • the control unit 9a having a function as an image classification unit detects that the ratio value pi of the image Ii is greater than the threshold value thrl (step S13 in FIG. 19)
  • the image Ii is used as a subject and the stomach image is detected. It is identified and classified as having been imaged (step S14 in FIG. 19).
  • the value of the threshold thrl is assumed to be 0.8.
  • control unit 9a detects that the value pi of the ratio pi in the image Ii is equal to or less than the threshold value thrl (step S13 in Fig. 11), this time, the value of the ratio p2 and the threshold value thr2 Make a comparison.
  • the control unit 9a having a function as an image classification unit detects that the value of the ratio p2 in the image Ii is larger than the threshold value thr2 (step S15 in FIG. 19)
  • the control unit 9a uses the image Ii as a subject in the small intestine ( The villi are identified and classified as being taken (step S 16 in FIG. 19).
  • the threshold value thr2 is assumed to be 0.8.
  • control unit 9a detects that the value p2 of the ratio p2 in the image Ii is equal to or less than the threshold value thr2 (step S15 in Fig. 11), this time, the value of the ratio p3 and the threshold value thr3 are determined. Make a comparison.
  • the control unit 9a having the function as the image classification unit detects that the value p3 of the image Ii is greater than the value power threshold thr3 (step S17 in FIG. 19)
  • the proportion of stool in the image Ii is large. Therefore, it is assumed that the image of the large intestine is taken with the image Ii as the subject. Are identified and classified (step S18 in FIG. 19).
  • the value of the threshold value thr3 is assumed to be 0 ⁇ 8.
  • control unit 9a suspends identification and classification of images that have not been identified and classified as any of the gastric mucosa, villi, and feces in the above processing. Then, the control unit 9a adds 1 to the image number i (step S20 in FIG. 19) when the above-described processing has not been completed for all the input images Ii (step S19 in FIG. 19). For the next image, the processing from step S11 to step S19 in FIG. 19 is continued.
  • the control unit 9a performs the processing from step S11 to step S19 in Fig. 19 described above, thereby identifying and classifying the small intestine image and the large intestine image. Each is specified. In other words, the control unit 9a performs the processing from step S11 to step S19 in FIG. 19 as described above to determine whether the organ imaged as the subject is the stomach, the small intestine, or the large intestine. Can be detected.
  • the main screen 101 of the view shown in FIG. 20 includes an image display unit 102 that displays an image of an image to be imaged, a patient / examination information display unit 103 that displays information about the patient and the examination contents, An image information display unit 104 that displays the number of images, an image display control unit 105 that performs display control on the image display unit 102, and a slider 106 are provided.
  • the slider 106 has a function of displaying a desired image on the image display unit 102 based on an instruction using a mouse cursor (not shown). Further, the slider 106 has a guidance display unit 107 for indicating the start position of the image in which the small intestine is imaged and the image in which the large intestine is imaged. Therefore, the user can easily observe a desired site in the body cavity, for example, when a case in which bleeding of the small intestine is suspected is observed preferentially and efficiently.
  • a button with a description such as “not shown” or “small intestine” may be provided on the main screen 101 of the view shown in FIG. 20, for example.
  • the control unit 9a of the terminal device 7 divides the image Ii into rectangular regions having the number of pixels in the X axis direction lx the number of pixels in the y axis direction ly. However, even if, for example, an area having the size of the number of pixels lx / 2 in the X-axis direction and the number of pixels ly / 2 in the y-axis direction is overlapped with the rectangular area, the same processing is performed. good. In this case, the power S is positive to reduce misclassification that may occur when the boundaries of each class to be classified are included in the rectangular area.
  • the control unit 9a of the terminal device 7 uses the image processing method of the present embodiment to identify and classify the gastric mucosa and the villi as separate classes. For example, after identifying and classifying the gastric mucosa and villus as one class of “biological mucosal surface”, and further classifying the gastric mucosa and villus into the region Hst classified as “biological mucosal surface”, The identification and classification in the two classes may be performed again.
  • the capsule endoscope 3 sequentially proceeds from the stomach to the small intestine. Therefore, based on the obtained classification result, the control unit 9a of the terminal device 7 switches to the gastric mucosa class when, for example, the ratio of the regions classified as villi to the total number of regions exceeds 0.7. Processing for stopping the classification may be performed.
  • the image processing method of the present embodiment may be used as an application for realizing a discriminator based on the color tone and pattern of the mucosal surface by setting, for example, an esophageal class and a large intestine class. Is possible.
  • the ratio of the regions classified as stool is large with respect to the total number of regions, and the proportion of the regions classified as villi is small with respect to the total number of regions. It can also be used for purposes such as distinguishing from the large intestine.
  • the image of the gastric mucosa and villus as the image of the biological mucosal surface is different from the surface of the biological mucosa, foreign matter or non- It is possible to identify and classify fecal and bubble images as images of biological mucous membranes for each image, and to display only images that need to be observed on the display 8c. As a result, the user can observe the body cavity in a state in which the image of the surface of the living body mucosa is not well captured, and as a result, the efficiency of observation using the capsule endoscope apparatus 1 can be improved. Improvements can be made.
  • the image processing method of the present embodiment described above is used in combination with an image processing method for detecting a lesion site such as bleeding or redness, for example, so that the detection result of the lesion site is a living body. It is possible to determine whether or not the force is obtained from the mucosal surface, and as a result, it is possible to improve the detection accuracy of the lesion site.
  • the control unit 9a of the terminal device 7 uses an image processing method for detecting a lesion site such as bleeding or redness, and refers to the classification result of the region Hst extracted as a region where a lesion is suspected.
  • the classification result is a non-biological mucosal surface image such as stool or foam
  • the detection accuracy of the lesion site can be improved by performing a process that treats it as a false detection.
  • FIG. 21 relates to the second embodiment of the present invention. Note that detailed description of portions having the same configuration as in the first embodiment is omitted. In addition, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Furthermore, the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first embodiment, and the image processing method in the present embodiment is also the same as the terminal device 7, for example, a personal It is assumed to be realized as a program executed on a computer. The image processing method according to the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 21 is a flowchart showing an image processing operation according to the present embodiment.
  • the control unit 9a inputs an image signal based on the image of the image in the body cavity imaged by the capsule endoscope 3, and Ri, Gi, and N that constitute the input i-th image Ii.
  • the control unit 9a For each Bi plane, for example, noise removal and reverse y correction by median filtering are performed as pre-processing, and the halation pixels and dark pixels are excluded from the subsequent processing targets, so detection is performed by processing based on threshold values. (Step S21 in FIG. 21).
  • the processing based on the threshold is, for example, that all of the density values of rik, gik, and bik are values of 10 or less. If this is the case, the processing is performed so that the pixel is a halo pixel if all the density values of rik, gik, and bik are 230 or more.
  • the control unit 9a divides the Ri, Gi, and Bi planes into small regions (step S22 in Fig. 21).
  • the control unit 9a processes the endmost area whose size is a fraction as an area having a fractional number of pixels or excludes it from the subsequent processing targets. It shall be.
  • the control unit 9a reflects the color tone information reflecting the color difference on the image of the image to be imaged and the difference in structure on the image of the image to be imaged.
  • the texture information is calculated as a feature amount (step S23 in FIG. 21).
  • one region out of the regions divided by the control unit 9a is represented as Hj (1 ⁇ j ⁇ m X n).
  • the tone information calculated by the control unit 9a is an average value of gik / rik (hereinafter referred to as Ai gj as a value based on a ratio of RGB values of each pixel included in one region Hj. 2) and the average value of bik / rik (hereinafter referred to as / i bj).
  • Ai gj average value of gik / rik
  • / i bj the average value of bik / rik
  • Each value of / i gj and i bj takes a value from 0 to 1.
  • each value of ⁇ p ⁇ bj takes a small value in a similar manner in a region showing a relatively red tone such as the gastric mucosa.
  • each value of / i gj and i bj is substantially the same in a region showing a relatively white tone such as the small intestine.
  • each value of / gj and i bj takes a value such that ⁇ gi> ⁇ bj in a relatively yellow tone region such as feces.
  • the texture information calculated by the control unit 9a reflects the difference in the structure of the image to be imaged as described above. And the structure on the image of the image to be imaged is shown, for example, as a fine structure such as villi on the mucosal surface, and an irregular pattern of stool.
  • the texture information calculated by the control unit 9a is the standard deviation ⁇ r of the RGB values of each pixel included in one region Hj. j, ⁇ gj, and ⁇ bj divided by the average RGB values mrj, mgj, and mbj of each pixel included in one region Hj, the variation coefficient CVrj of RGB values shown as three features CV gj and CVbj.
  • the calculation formulas for calculating the coefficient of variation CVrj, CVgj, and CVbj are shown as the following formulas (6), (7), and (8).
  • CVrj CT rj / mrj (6)
  • CVbj CT bj / mbj ⁇ ' ⁇ (8) Illumination light quantity supplied to the imaging target by the coefficient of variation CVrj, CVgj and CVbj calculated by the above equations (6), (7) and (8)
  • the degree of pixel variation due to texture structure can be quantified regardless of the effect of the difference.
  • Each value of CVrj, CVgj, and CVbj has a clear texture in a region where the structure on the image is relatively flat, such as the gastric mucosa imaged in normal observation in a state where magnification observation is not performed. Since there is no structure, the value is almost the same.
  • each value of CVrj, CVgj, and CVbj takes a large value in a similar manner, for example, in a region that includes a relatively large number of edges in the structure on the image, such as villi of the small intestine.
  • the control unit 9a sets the five feature quantities including the tone information and the texture information, that is, the values of / igg, / ibj, CVrj, CVgj, and CVbj, and the halation pixel and the dark part pixel. Based on the RGB value of each excluded pixel, it is calculated for each of (m X n) regions Hj. In the present embodiment, for example, in the (Ix X ly) pixels included in one region Hj, the ratio of the sum of the number of halation pixels and the number of dark pixels exceeds 50%. In such a case, control may be performed so as to exclude one region Hj from the subsequent processing.
  • ⁇ ( ⁇ a) is the prior probability of occurrence, and feature vectors determined from the five feature quantities in one region Hj are used, and the probability of occurrence of feature vectors from all classes
  • p (x) be a probability density function based on
  • p (SI ca) be a state-dependent probability density (multivariate normal probability density) function based on the probability of occurrence of a feature vector 2 £ from one class ⁇ a
  • belonging to the class ⁇ a of the generated feature vector ⁇ g is shown as the following formula (9).
  • d indicates the number of dimensions that is the same as the number of feature quantities of JL ⁇ and ⁇ a are the mean vectors of the feature vectors in class ⁇ a And the variance-covariance matrix in one class coa.
  • a transposed matrix of ( ⁇ & ) 3 ⁇ 4 ( ⁇ ia) is shown, I ⁇ a I denotes a determinant of ⁇ a, and ⁇ a ⁇ 1 denotes an inverse matrix of ⁇ a.
  • P ( ⁇ a) are equal in all classes, and the probability density function p () is calculated by the above equation (11). It shall be expressed as a function common to all classes.
  • the mean vector and the variance-covariance matrix ⁇ a as the classification criteria are elements constituting the parameter in one class ⁇ a, and before the first image II is input to the terminal device 7.
  • the terminal device 7 based on a plurality of images constituting four classes of teacher data consisting of gastric mucosa, villi, stool and foam, for example, as shown in FIGS. 13, 14, 15, and 16, After being calculated in advance for each class from the feature vector 2 £ determined each time in one area of the image, it is stored in the terminal device 7 as an initial value.
  • the variance-covariance matrix ⁇ a is a matrix that shows the variation and spread of the distribution of the feature vector ⁇ belonging to one class ⁇ a, and the number of dimensions d is the same as the number of features of the feature vector ⁇ . On the other hand, it is expressed as a dXd matrix.
  • the control unit 9a generates the a posteriori probability ⁇ ( ⁇
  • control unit 9a determines whether or not the classification result of the one region Hj classified into the class ⁇ a is accurate after the above processing. Further, a process based on the threshold for the value of the probability density function Pl (2 I coa) that gives the maximum posterior probability PI (coa I) is further performed.
  • the control unit 9a for example, out of the average values of the five feature amounts of the average vector, for example, the standard deviation ⁇ of the feature amount xl with respect to the average value ⁇ of the feature amount xl And a threshold vector 2 ⁇ 1 including a value obtained by adding a product of a multiplication coefficient as a predetermined constant.
  • a threshold vector ⁇ kl is expressed, for example, by the following mathematical formula (12).
  • the value of the multiplication coefficient H is 1.5.
  • the control unit 9a substitutes the threshold vector ⁇ hi as the ⁇ in the formula (9), the formula (10), and the formula (11), so that one region Hj classified
  • the value of the probability density function p (2 £ kl I ⁇ a) is calculated as the threshold value of the class co a.
  • control unit 9a detects that the value of pi I ⁇ a) is larger than the value of p
  • control unit 9a detects that the value of pl (x
  • step S29 in Fig. 21 the control unit 9a adds 1 to the region number j (step in Fig. 21).
  • step S30 the processing shown in steps S25 to S29 in FIG. 21 is performed.
  • step S31 in Fig. 21 the controller 9a adds 1 to the image number i (step in Fig. 21). S32), the process shown in steps S21 to S31 in FIG. 21 is continued for the next image.
  • the five-dimensional multivariate normal probability density that determines the feature vector 2 £ using all of the five feature amounts based on the tone information and texture information at a time is used.
  • the case to prescribe was described
  • image classification can be performed with higher accuracy.
  • the control unit 9a sets the state-dependent probability density function for the two feature quantities ⁇ gj and / bj constituting the tone information as pcIca), and configures the texture information.
  • the state-dependent probability density function for the three feature values CVrj, CVgj, and CVbj is calculated as pt (xt I co a).
  • the control unit 9a uses these two state-dependent probability density functions pc (Icoa) and pt (
  • ⁇ ( ⁇ I x) Pc ( W a
  • the threshold for judging the accuracy of the classification result for class ⁇ a is based on the mean vectors ⁇ c and ⁇ t of the feature values of the color tone information and the texture information, respectively, and the standard deviations ⁇ cl and ⁇ tl. For example, it is set as p (2 ⁇ I oa) and p ( ⁇ i I ⁇ a).
  • the prior probability P (coa) is assumed to be the same in all classes.
  • the prior probability P (ca) is set based on, for example, the time distribution of the part to be imaged by the capsule endoscope 3, and the prior probability P ( ⁇ a) of the villus class or stool class is set higher, or the capsule endoscope Based on the risk of misclassification of the part imaged by Mirror 3, the prior probability ⁇ ( ⁇ a) of the gastric mucosa class and villus class is set higher than the stool class and foam class that do not require observation, etc. It may be set to a value according to the application.
  • images of the gastric mucosa and villus as images of the surface of the living mucosa, and images of stool and bubbles as images of foreign matter or non-living mucosa. Can be identified and classified for each small area of the image.
  • the user can easily exclude images that do not have a good image of the surface of the biological mucosa, such as images of foreign matter occupying most of the small areas of the image, as images that do not require observation.
  • the observation efficiency in the capsule-type endoscope apparatus 1 can be improved.
  • the control unit 9a of the terminal device 7 can obtain a highly reliable image classification result by performing processing using the image processing method in the present embodiment.
  • FIG. 22 relates to the third embodiment of the present invention. Note that detailed description of portions having the same configurations as those of the first embodiment and the second embodiment is omitted. In addition, the same components as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and description thereof is omitted. Furthermore, the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first embodiment and the second embodiment, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized, for example, as a program executed on a personal computer. The image processing method in the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 22 is a flowchart showing an image processing operation according to the present embodiment.
  • the control unit 9a Before performing the image processing method according to the present embodiment, the control unit 9a first performs step S21 shown in FIG. 21 described in the second embodiment for the input i-th image Ii. To S30, the classification result for the image Ii is obtained (step S41 in FIG. 22).
  • the classification result obtained by the control unit 9a by performing the process shown in step S41 of FIG. 22 indicates that each region in the image includes a gastric mucosa class, a villus class, a stool class, a foam class, and an unknown class. It is assumed that the classification result is classified into one of the following five classes.
  • control unit 9a having a function as a classification determination value calculation unit sets the number of regions classified into the villi class based on the classification result for the image Ii to the total number of regions (m X n) of the image Ii.
  • the value of the share J is calculated (step S42 in FIG. 22).
  • the ratio J is specifically a value calculated by substituting p in the above formula (4) for J and z for the number of regions za classified into the villi class, for example.
  • control unit 9a compares the value of the ratio J with the threshold value thrj.
  • control unit 9a having the function as the region classifying unit detects that the value p of the ratio p in the image Ii is greater than the threshold value thrj (step S43 in FIG. 22)
  • the gastric mucosa The area classified into the class is reclassified as the villi class (step S44 in FIG. 22).
  • the value of the threshold value thrj is assumed to be 0.5.
  • control unit 9a having a function as a region classification unit has a value of the ratio p in the image Ii.
  • the region classified into the villi class is reclassified as the gastric mucosa class in each region Hj of the image Ii (step in FIG. 22). S45).
  • control unit 9a When the reclassification of the image Ii by the processing as described above is completed for the image Ii, the control unit 9a now performs the series of operations from step S41 in FIG. Processing is performed (step S46 in FIG. 22).
  • the control unit 9a of the terminal device 7 further includes regions Hj classified into the gastric mucosa and villus classes with respect to the obtained images. To reclassify by exchanging them exclusively. Therefore, the control unit 9a of the terminal device 7 performs processing using the image processing method according to the present embodiment, and the image of the gastric mucosa that cannot exist in a single image ( Misclassification in the case of classification with images of villi images of the small intestine can be eliminated, and as a result, highly accurate image classification results can be obtained.
  • FIG. 23 relates to a fourth embodiment of the present invention. Note that a detailed description of parts having the same configurations as those of the first to third embodiments is omitted. In addition, the same components as those in the first to third embodiments are denoted by the same reference numerals and description thereof is omitted. Furthermore, the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first to third embodiments, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized as a program executed on, for example, a personal computer. The image processing method in this embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 23 is a flowchart showing an image processing operation according to the present embodiment.
  • the control unit 9a Before performing the image processing method according to the present embodiment, the control unit 9a first inputs an image signal based on the image of the image in the body cavity imaged by the capsule endoscope 3, and the input The processing from step S21 to step S30 shown in FIG. 21 described in the second embodiment is performed on the i-th image Ii, and the classification result for the image Ii is obtained (step of FIG. 23). S51).
  • the classification result obtained by the control unit 9a by performing the process shown in step S51 of FIG. 23 indicates that each region in the image is composed of a fecal class, a foam class, an unknown class, and a biological mucous membrane class. Assume that the classification results are classified into one of the two classes.
  • step S55 in Fig. 23 the control unit 9a adds 1 to the region number j (step in Fig. 23).
  • step S56 For the next area, the processing shown in steps S53 to S55 in FIG. 23 is performed.
  • control unit 9a of the terminal device 7 when performing processing using the image processing method in the present embodiment, the control unit 9a of the terminal device 7 further performs an area Hj classified into the biological mucous membrane class on the image obtained as a result of classification. Is reclassified as gastric mucosa class or villus class. Therefore, the control unit 9a of the terminal device 7 performs processing using the image processing method in the present embodiment to classify the gastric mucosa image and the (small intestine) villi image with high accuracy. It can be carried out.
  • control unit 9a of the terminal device 7 is used in combination with the image processing method in the present embodiment and the image processing method in the third embodiment, so that an image of the gastric mucosa and an image of the (small intestine) villi It is possible to obtain a classification result in which the images are classified with higher accuracy.
  • the image processing methods described in the first to fourth embodiments of the present invention apply to the image of the image captured by the capsule endoscope 3 of the capsule endoscope apparatus 1.
  • it is used for an image of an image captured by an endoscope apparatus having an endoscope having an imaging element and an objective optical system at the distal end portion of the insertion portion. Also good.
  • the image processing method in the present embodiment is also realized as a program executed in the personal computer as the terminal device 7, for example.
  • the image processing method in the present embodiment is performed as a process in the control unit 9a included in the terminal body 9. Furthermore, in the present embodiment, the control unit 9a Assume that the image processing described below is used for a series of images input in advance to the terminal device 7.
  • FIG. 24 is a flowchart showing a part of the image processing operation according to the present embodiment.
  • FIG. 25 is a flowchart showing an image display control operation performed after the processing shown in the flowchart of FIG. 24 is performed as a part of the image processing operation according to the present embodiment.
  • the control unit 9a Before performing the image processing method according to the present embodiment, the control unit 9a first inputs the i-th image Ii (Il ⁇ Ii ⁇ of the N images (1 ⁇ N) in total. The classification result for IN) is obtained (step S61 in Fig. 24). In the present embodiment, the control unit 9a performs, for example, the processing from step S1 to step S4 shown in FIG. 11 or the step S shown in FIG. 21 as a processing method for obtaining the classification result for the image Ii. Any processing method from 21 to step S30 can be used.
  • the classification result obtained by the control unit 9a by performing the processing for obtaining the classification result for the image Ii is that each region in the image includes the gastric mucosa class, the villus class, the stool class, the foam class, and the unknown class. Assume that the classification results are classified as one of the five classes. Furthermore, when the control unit 9a performs processing for obtaining a classification result for the image Ii, the control unit 9a detects that the number of pixels such as an extremely dark portion or halation is greater than or equal to a predetermined threshold in one region. For example, the one area may be classified as either a fecal class, a foam class, or an unknown class.
  • the control unit 9a determines whether the image Ii is an image that does not require observation by comparing the value of the ratio K with a threshold value thlx (in this embodiment, for example, 0.7). To do.
  • a threshold value thlx in this embodiment, for example, 0.7
  • the control unit 9a determines the region classified as the stool class and the bubble class.
  • the ratio K1 may be compared with the threshold value thlx after calculating the ratio K1 that the total number of images occupies the total number of areas (m X n) of the image Ii. Further, in the process for performing the determination as described above, the control unit 9a performs the region classified as the gastric mucosa class and the villus class.
  • the value of the ratio K2 may be compared with a threshold thly (eg, 0 ⁇ 3).
  • a threshold thly eg, 0 ⁇ 3
  • the threshold value thlx and the threshold value thly are not limited to values that are fixed in advance.
  • the user can set desired values by operating the terminal device 7.
  • the user can select how much an image obtained by imaging the surface of the biological mucosa is to be observed. For this reason, for example, the user places importance on observation efficiency when performing screening examinations to detect lesions, and observes more images in more detail when conducting detailed examinations, depending on the application.
  • the controller 9a can execute the image processing method of the present embodiment.
  • the control unit 9a detects that the value K of the ratio K in the image Ii is greater than or equal to the threshold value thlx (step S63 in Fig. 24)
  • the image Ii is regarded as an image that does not require observation, and the reference value
  • the flag value kflagi is set to 1 (step S64 in FIG. 24).
  • control unit 9a detects that the value K of the ratio K in the image Ii is smaller than the threshold value thlx (step S63 in Fig. 24), the image Ii is not an image that does not require observation, and the flag value kflagi Is set to 0, for example (step S65 in FIG. 24).
  • control unit 9a holds the flag value kflagi determined by the processing as described above in association with the image Ii (step S66 in FIG. 24).
  • control unit 9a determines whether all the images up to the image II force image IN have been classified by the processing as described above (step S67 in Fig. 24), and classifies all the images. If not, this time, a series of processing from step S61 in FIG. 24 is performed on the (i + 1) -th image Ii + 1 (step S68 in FIG. 24). In addition, when the control unit 9a classifies all the images from the image II to the image IN by the processing as described above, the control unit 9a applies to a series of images that are input in advance to the terminal device 7. End processing
  • control unit 9a When the value of the flag value kflagi associated with the image Ii is 1 (step S72 in FIG. 25), the control unit 9a performs display control so that the image Ii is not displayed on the display 8c for each unit of the terminal device 7. (Step S73 in FIG. 25).
  • step S72 in Fig. 25 the control unit 9a displays the image Ii as a display. Display control to be displayed on the play 8c is performed on each part of the terminal device 7 (step S74 in FIG. 25).
  • control unit 9a determines whether or not the display control processing as described above has been performed for all the images from the image Ii to the image IN (step S75 in FIG. 25), and for all the images. If the process is not performed, 1 is added to the image number i, and then a series of processes from step S71 in FIG. 25 are performed on the next image Ii + 1 (step S76 in FIG. 25). In addition, when the control unit 9a performs the display control process as described above for all the images from the image II to the image IN, the user finishes sequentially observing a series of images from the image II to the image IN. The display control process is terminated.
  • the image processing method described above is not limited to the case where a user sequentially observes a series of images from image II to image IN, starting with image II. For example, It may be used when the user selects and observes a desired image among a series of images from image II to image IN.
  • the control unit 9a may control each unit of the terminal device 7 so as not to store an image classified as an image that does not require observation. After classification, each unit of the terminal device 7 may be controlled so as to delete the image stored in the storage unit (not shown).
  • images of the gastric mucosa and villus as images of the surface of the biological mucosa, and images of stool and bubbles as images of foreign matter or non-biological mucosa. Can be identified and classified for each image, and only the image that needs to be observed can be displayed on the display 8c. Therefore, the user can observe the body cavity in a state in which an image on which the surface of the biological mucosa is not well captured is excluded. It is possible to improve the observation efficiency in the observation using the portable endoscope apparatus 1.
  • FIG. 26 to FIG. 31 relate to the sixth embodiment of the present invention. Note that detailed description of portions having the same configurations as those in the first to fifth embodiments is omitted. In addition, the same components as those in the first embodiment to the fifth embodiment are denoted by the same reference numerals, and description thereof is omitted. Further, the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first to fifth embodiments, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized, for example, as a program executed in a personal computer. The image processing method according to the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 26 is a flowchart showing a part of the image processing operation according to the present embodiment.
  • FIG. 27 is a flowchart showing a part of the image processing operation according to the present embodiment, which is performed subsequent to the processing of FIG.
  • FIG. 28 is a flowchart showing a part of the image processing operation according to the present embodiment, which is performed subsequent to the processing of FIG.
  • FIG. 29A is a diagram showing one of the eight directions used as an index when determining an edge feature amount (also referred to as an edge feature vector) in the image processing operation according to the present embodiment. It is.
  • FIG. 29B is a diagram showing one direction different from FIG. 29A out of the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the present embodiment.
  • FIG. 29A is a diagram showing one of the eight directions used as an index when determining an edge feature amount (also referred to as an edge feature vector) in the image processing operation according to the present embodiment.
  • FIG. 29B is a diagram
  • FIG. 29C is a diagram showing one direction different from FIG. 29A and FIG. 29B among the eight directions that serve as indices when determining the edge feature amount in the image processing operation according to the present embodiment. is there.
  • FIG. 29D is a diagram showing one direction different from FIGS. 29A to 29C among the eight directions that serve as indices when determining the edge feature amount in the image processing operation according to the present embodiment.
  • FIG. 29E is a diagram showing one direction different from FIGS. 29A to 29D out of the eight directions used as an index when determining the edge feature amount in the image processing operation according to the present embodiment. It is.
  • FIG. 29F is a diagram showing one direction different from FIGS.
  • the FIG. 29G determines the edge feature amount in the image processing operation according to the present embodiment.
  • FIG. 30 is a diagram showing one direction different from FIG. 29A to FIG. 29F among the eight directions serving as indices.
  • FIG. 29H is a diagram showing one direction different from FIGS. 29A to 29G among the eight directions serving as indices when determining the edge feature amount in the image processing operation according to the present embodiment.
  • FIG. 30 is a diagram showing a positional relationship between the center area and the outermost peripheral area set in the image processing operation according to the present embodiment.
  • FIG. 31 is a diagram showing an angle formed by the direction of the edge feature vector and the direction of the vector VI set in the image processing operation according to the present embodiment.
  • control unit 9a Before performing the image processing method according to the present embodiment, the control unit 9a first inputs an image signal based on the image of the image in the body cavity imaged by the capsule endoscope 3, and the input The classification result for the i-th image Ii is obtained (step S81 in FIG. 26). Note that in the present embodiment, the control unit 9a performs, for example, the processing from step S1 to step S4 shown in FIG. 11 or the step shown in FIG. Any of the processing methods from step S21 to step S30 may be used.
  • the classification result obtained by the control unit 9a by performing the process for obtaining the classification result for the image Ii indicates that each region in the image is classified into the gastric mucosa class, the villus class, the stool class, the foam class, and the unknown class. It is assumed that the classification result is classified into one of the following five classes. Further, in the present embodiment, the control unit 9a divides the input i-th image Ii into MXM regions Hk (l ⁇ k ⁇ MXM) when performing the process of step S81 in FIG.
  • control unit 9a classified each of the MXM regions Hk into any one of the five classes including the gastric mucosa class, the villi class, the stool class, the foam class, and the unknown class. It is assumed that such a classification result is obtained.
  • the control unit 9a calculates the average value gak of the density values of the G (green) pixels in each of the MXM regions Hk (Fig. 26). Step S82). Then, the control unit 9a determines the G pixel based on the average value gak of the G pixel density values in the region Hk and the average value gakt of the G pixel density values in each of the regions Hkt (t ⁇ 8) adjacent to the region Hk.
  • the variation amount Gbt of the density value is calculated by the following equation (14) (step S83 in FIG. 26).
  • the control unit 9a uses the value of Gbt in each region Hkt obtained by the above equation (14). That is, the maximum value is the maximum value Gbm, and among the region Hkt, the region Hktm that gives the maximum value Gbm is the direction in which dirGbm exists with respect to the region Hk, then these two are the edge features of the region Hk This is held as a quantity (step S84 in FIG. 26). It should be noted that the region where the maximum value Gbm of the density value variation of the G pixel Gbm is given Hktm force The direction existing for the region Hk is one of the directions 1 to 8 shown in FIGS. It is assumed that the direction is determined.
  • the control unit 9a having a function as an edge detection unit compares the maximum value Gbm with the threshold value thr el (step S85 in FIG. 26), and the maximum value Gbm is larger than the threshold value threl. In this case, it is determined that the edge in the image Ii exists in the region Hk (step S86 in FIG. 26). If the maximum value Gbm is equal to or smaller than the threshold threl, it is determined that the edge in the image Ii does not exist in the region Hk. (Step S87 in FIG. 26).
  • the threshold value threl is assumed to be 0.3, for example.
  • control unit 9a adds 1 to the value of the region number k, and performs processing using the above equation (14) shown in step S83 to step S87 in FIG. 26 for all (MXM) regions Hk.
  • an area where an edge exists in the image Ii is specified (step S88 and step S89 in FIG. 26).
  • control unit 9a performs, for example, inverse gamma correction or shading correction as preprocessing for the image Ii. It is also possible to perform the process.
  • the control unit 9a performs the above-described processing on all the (MXM) regions Hk to identify the region where the edge exists in the image Ii, and then sets the region Hk as the central region.
  • Ml X M1 (Ml ⁇ M) area evaluation areas are acquired (step S91 in FIG. 27). Thereafter, the control unit 9a detects the outermost peripheral area number D, which is the number of areas existing on the outermost periphery among the areas constituting the arrangement evaluation area (step S92 in FIG. 27). In addition, the control unit 9a calculates a vector VI that is a vector facing the direction in which the region Hk exists in each of the D outermost peripheral regions Hkl in the arrangement evaluation region (step S93 in FIG. 27). Note that the positional relationship between the region Hk and the outermost peripheral region Hkl is, for example, as shown in FIG.
  • each of the regions defined as the outermost peripheral region Hkl and the control unit 9a is calculated (step S94 in FIG. 27).
  • the control unit 9a determines that the edge exists in the processing from step S81 to step S89 in FIG. 26 among the D outermost peripheral regions Hkl, and 6 1 ⁇ thre2.
  • the number of areas E is detected (step S95 in FIG. 27).
  • the value of the threshold thre2 is assumed to be 45 °, for example.
  • the control unit 9a calculates the value of EZD, and when the value of E / D is larger than the threshold value thre3 (step S96 in FIG. 27), the region Hk is represented as a bleeding part in the image Ii. It is determined that the region is a bleeding candidate region (step S97 in FIG. 27).
  • the control unit 9a determines that the edge exists in the process from step S81 to step S89 in FIG.
  • E outermost peripheral regions Hkl that satisfy 0 1 ⁇ thre2 are determined to be bleeding region edge candidate regions in which a bleeding region edge may exist (step S97 in FIG. 27).
  • the value of the threshold value thre3 is assumed to be 0 ⁇ 7, for example.
  • control unit 9a adds 1 to the value of the region number k, and calculates the equation (14) shown in steps S91 to S97 in Fig. 27 for all (MXM) regions Hk.
  • a candidate for a region where the bleeding part exists and a candidate for a region where the edge of the bleeding part exists are specified in the image Ii (step S98 and step S99 in FIG. 27).
  • the control unit 9a performs the above-described processing on all (MXM) regions Hk, thereby identifying the bleeding portion candidate region and the bleeding portion edge candidate region in the image Ii.
  • the number H of blood extraction area candidate regions is detected (step S101 in FIG. 28).
  • the control unit 9a detects E bleeding part edge candidate areas corresponding to the respective bleeding part candidate areas (step S102 in FIG. 28).
  • the control unit 9a corresponds to the region Hk as the bleeding part candidate region, and in the outermost peripheral region Hkl as the bleeding part edge candidate region, the density of the G pixel having the region defined as the region Hkl.
  • control unit 9a sets the density value of the R (red) pixel in the region defined as the region Hkl in the outermost peripheral region Hkl as the bleeding region edge candidate region corresponding to the region Hk as the bleeding region candidate region.
  • the average value rakl and the average value raklt of the density values of the R pixels in each region Hklt (t ⁇ 8) adjacent to the region Hkl are calculated.
  • the control unit 9a calculates the variation amount Rblt of the density value of the R pixel by the following formula (16) based on the average value rakl and the average value raklt (step S104 in FIG. 28).
  • the control unit 9a calculates the value of Gbm / Rblt as the color edge feature amount based on the maximum value Gbm of the region defined as the region Hkl and the variation amount Rblt in the direction dirGbm. After that, the control unit 9a detects the number F of regions where Gbm / Rblt> thre4 among the E regions Hkl (step S105 in FIG. 28).
  • the value of the threshold value t hre4 is assumed to be 1.0, for example.
  • the value used as the color edge feature amount in the processing performed by the control unit 9a is not limited to the Gbm / Rblt value.
  • control unit 9a uses, for example, the value of Gbm / Bblt as a color edge feature amount based on the variation amount Bblt of the density value of the B pixel calculated by a method substantially similar to the variation amount Rblt. It may be a thing.
  • the control unit 9a as the bleeding site determination unit calculates the value of F / E, and when the value of F / E is larger than the threshold value thre5 (step S106 in Fig. 28), the region Hk is image Ii. 28, and the region Hkl is determined as the bleeding region edge region corresponding to the region Hk (step S107 in FIG. 28). Further, when the value of F / E is equal to or less than the threshold thre5 (step S106 in FIG. 28), the control unit 9a determines that the region Hk is not a bleeding part (step S108 in FIG. 28). In the present embodiment, the value of the threshold thre5 is assumed to be 0.7, for example.
  • control unit 9a repeats the processing shown in Step S101 to Step S108 of FIG. 28 for all the H regions Hk detected as the bleeding region candidate regions, so that there is a bleeding portion in the image Ii. And the region where the edge of the bleeding part exists (step S109 and step S110 in FIG. 28).
  • control unit 9a identifies the region where the bleeding part exists in the image Ii, FIG.
  • the control unit 9a having a function as a classification result determination unit includes the region Hk specified as the region where the bleeding part exists, the gastric mucosa class included in the class related to the biological mucosa, the villi class included in the class related to the biological mucosa, Alternatively, if it is detected that the class of the unknown class is classified as a shift (step S112 in FIG.
  • control unit 9a classifies the region Hk specified as the region where the bleeding part exists as a stool class included in the class related to the non-biological mucosa, or as a foam class included in the class related to the non-biological mucosa.
  • step SI12 in FIG. 28 it is determined that the classification result of the region Hk in the image Ii is an error (step S114 in FIG. 28).
  • control unit 9a determines that the region Hk is classified as For example, another determination may be made as “an area where a lesion site may be imaged” without performing the correct / incorrect determination.
  • control unit 9a determines whether or not the processing as described above has been performed for all the input images Ii (step S115 in FIG. 28), and the processing has not been performed for all the images. Then, a series of processing from step S71 in FIG. 25 is performed on the next image Ii + 1 (step S116 in FIG. 28). In addition, when the processing as described above is performed on all input images Ii, the control unit 9a ends the processing.
  • the control unit 9a of the terminal device 7 specifies the region Hk where the bleeding portion exists in the image Ii, and then the region Hk of the image Ii obtained in advance.
  • the correctness / incorrectness is processed for the classification result of Therefore, the control unit 9a of the terminal device 7 uses the image processing method in the present embodiment, for example, a bleeding site as a lesion site in a region where a foreign object such as feces or an image of a non-biological mucosa is captured.
  • the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first to sixth embodiments, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized, for example, as a program executed in a personal computer. The image processing method according to the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 32 is a flowchart showing a part of the image processing operation according to the present embodiment.
  • FIG. 33 is a flowchart showing a part of the image processing operation according to the present embodiment, which is performed subsequent to the processing of FIG.
  • FIG. 34 is a diagram showing an example when an input image is divided into (m X n) regions in the image processing operation according to the present embodiment.
  • the control unit 9a inputs an image signal based on the image of the image in the body cavity imaged by the capsule endoscope 3, and Ri, Gi, and N that constitute the input i-th image Ii.
  • the processing based on the threshold value is, for example, if the density values of rik, gik, and bik are all 10 or less, and the density values of rik, gik, and bik are all 230 or more. If it is a value, it is processed as a gray pixel.
  • the control unit 9a divides each of the Ri, Gi, and Bi planes into small regions (step S202 in FIG. 32).
  • the control unit 9a processes the endmost region whose size is a fraction as a region having a fractional pixel number, or a subsequent processing target. Shall be excluded.
  • the control unit 9a reflects the color tone information reflecting the color difference on the image of the image to be imaged and the difference in structure on the image of the image to be imaged. Texture information is calculated as a feature amount (step S203 in FIG. 32).
  • one region among the regions divided by the control unit 9a is denoted as Hj (l ⁇ j ⁇ m X n).
  • the tone information calculated by the control unit 9a is an average value of gik / rik (hereinafter referred to as x gj) as a value based on a ratio of RGB values of each pixel included in one region Hj. 2) and the average value of bikZrik (hereinafter referred to as z bj).
  • x gj a value based on a ratio of RGB values of each pixel included in one region Hj. 2
  • z bj the average value of bikZrik
  • the texture information calculated by the control unit 9a reflects the difference in the structure of the image to be imaged as described above. And the structure on the image of the image to be imaged is shown, for example, as a fine structure such as villi on the mucosal surface, and an irregular pattern of stool.
  • the texture information calculated by the control unit 9a includes the standard deviations ⁇ rj, ⁇ , and ⁇ bj of the RGB values of each pixel included in one region Hj as the RGB of each pixel included in the one region Hj.
  • the average value of the values is the RGB coefficient of variation CVrj, CV gj and CVbj, which are the three feature values divided by mrj, mgj and mbj.
  • Calculation formulas for calculating the coefficient of variation CVrj, CVgj, and CVbj are shown as the following formula (17), formula (18), and formula (19).
  • CVgj a gj / mgj '' (18)
  • CVbj a bj / mbj (19)
  • the degree of pixel variation due to the texture structure can be quantified regardless of the effect of the difference.
  • the values of CVrj, CVgj, and CVbj are clear in a region where the structure on the image is relatively flat, such as the gastric mucosa imaged in normal observation, for example, in a state where magnification observation is not performed. Since there is no smooth texture structure, the value is almost the same.
  • each value of CVrj, CVgj, and CVbj takes a large value in a similar manner, for example, in a region that includes a relatively large number of edges in the structure on the image, such as villi of the small intestine.
  • the control unit 9a removes the values of the five feature amounts including the tone information and the texture information, that is, z gj, z bj, CVrj, CVgj, and CVbj from the halation pixel and the heel part pixel. Based on the RGB value of each pixel, it is calculated for each of m X n regions Hj. In the present embodiment, for example, in the (lx X ly) pixels of one region Hj, the ratio of the sum of the number of halation pixels and the number of dark pixels exceeds 50%. In such a case, control may be performed so as to exclude one region Hj from the subsequent processing.
  • p (SI ca) is a state-dependent probability density (multivariate normal probability density) function based on the probability of occurrence of a feature vector ⁇ from, the posterior probability belonging to the class ⁇ a of the generated feature vector ⁇ g (The calculation formula for calculating ⁇ a
  • Equation (22) ⁇ ⁇ ⁇ ⁇ (2 1)
  • d indicates the number of dimensions that is the same as the number of feature quantities of 2 £
  • ⁇ a is an average vector of feature vectors in class ⁇ a and one class ⁇
  • P ( ⁇ a) are equal in all classes
  • the probability density function p () is calculated by the above equation (22). It shall be expressed as a function common to all classes.
  • the mean vector and the variance-covariance matrix ⁇ a used as classification criteria are elements that constitute a parameter in one class ⁇ a.
  • a plurality of images constituting four classes of teacher data consisting of gastric mucosa, villi, feces and foam, for example, in the first embodiment
  • the feature vectors s determined each time in each region of the image are calculated in advance for each class, Each is recorded in the terminal device 7 as an initial value.
  • the control unit 9a may estimate the parameter by adding the feature vector of each class in the image Ii to the feature vector in the teacher data of each class.
  • the average vector “a” is a vector having the same number of dimensions as that of the feature vector s and consisting of an average value of each of the five feature quantities of the feature vector 2 £.
  • force Sx (xl, x2, x3, x4, x5)
  • the mean beta The average value of each of the five features of the feature vector is / ⁇ 1, / ⁇ 2, / ⁇ 3, / ⁇ 4, and i / ⁇ 4, ⁇ 5).
  • the variance-covariance matrix ⁇ a is a matrix indicating the distribution and spread of the distribution of the feature vector 2 £ belonging to one class ⁇ a
  • the dimension number d is the same as the number of feature quantities of the feature vector ⁇ .
  • the control unit 9a generates the posterior probability ⁇ ⁇ ( ⁇
  • control unit 9a determines whether or not the classification result of the one region Hj classified into the class ⁇ a is accurate in accordance with the above processing. Further, a process based on the threshold for the value of the probability density function Pl (2 I coa) that gives the maximum posterior probability PI (coa I) is further performed.
  • the control unit 9a for example, out of the average values of the five feature amounts of the average vector, for example, the standard deviation ⁇ of the feature amount xl with respect to the average value ⁇ of the feature amount xl.
  • a threshold vector 2 ⁇ including a value obtained by adding a product of the multiplication coefficient ⁇ as a predetermined constant is determined.
  • Such a threshold vector ⁇ kl is expressed, for example, by the following formula (23), and in the present embodiment, the value of the multiplication coefficient H is 1.5.
  • the control unit 9a substitutes the threshold vector ⁇ hi as ⁇ in the above formula (20), formula (21), and formula (22), so that one region
  • the value of the probability density function p I ca) is calculated as the threshold value of the class ca into which Hj is classified.
  • control unit 9a detects that the value of pi I coa) is larger than the value of p ( ⁇ kl
  • control unit 9a detects that the value of pl (x
  • step S209 in Fig. 32 When the classification for all the divided m X n regions has not been completed (step S209 in Fig. 32), the control unit 9a adds 1 to the region number j (step S210 in Fig. 32). For the next region, the processing shown in steps S205 and S209 in FIG. 32 is performed. In addition, when the classification for all the divided m X n regions is completed (step S209 in FIG. 32), the control unit 9a determines that the m X n classification results in the image Ii and the m X n regions are Based on each feature quantity, the average beta norm ⁇ and variance-covariance matrix ⁇ a are calculated again as classification criteria in each of the four classes (step S211 in Fig. 33).
  • the control unit 9a is generated using the equation (20) to the equation (22) in which the average vector and the variance-covariance matrix ⁇ a calculated in the process shown in step S211 of Fig. 33 are substituted.
  • the posterior probability ⁇ ⁇ ⁇ ( ⁇ 3 I belonging to 3 and the generated feature vector ⁇ ⁇ 4 I belonging again to the class ⁇ 4 are calculated again.
  • the control unit 9a then calculates these four posterior probabilities.
  • classification is performed on the assumption that the feature vector belongs to the class ⁇ a that gives the maximum posterior probability P2 (co a I, and the region where the feature vector ⁇ occurs based on the identification result.
  • Post The value of the probability density function P2 (2 £ I ⁇ a) giving the probability P2 (coa I) is calculated.
  • control unit 9a determines whether or not the reclassification result of the one area Hj reclassified to the class ⁇ a is accurate after the above processing. Then, further processing based on the threshold is performed on the value of the probability density function P2 ( ⁇ I ⁇ a) that gives the maximum posterior probability P2 (coa I).
  • a threshold vector ⁇ b including a value obtained by adding the standard deviation ⁇ xl of the feature quantity xl and the product of a multiplication coefficient as a predetermined constant is determined.
  • the control unit 9a substitutes the threshold vector ⁇ as in the above formula (20), formula (21), and formula (2 2), and one region Hj is reclassified. Calculate the value of the probability density function P ( ⁇ l coa) as the threshold value of the class ca.
  • control unit 9a detects that the value of p2 (2 £ Icoa) is larger than the value of ⁇ ( ⁇
  • control unit 9a detects that the value of ⁇ 2 ( ⁇
  • step S217 in Fig. 33 If the classification for all the divided mXn regions has not been completed (step S217 in Fig. 33), the control unit 9a adds 1 to the region number j (step S218 in Fig. 33), and The processing shown in Step S213 to Step S217 in FIG. 33 is performed for this area.
  • the control unit 9a for the (i + 1) -th image Ii + 1, starts from step S201 in FIG. A series of processes are performed (step S219 in FIG. 33).
  • the mean vector and the variance-covariance matrix ⁇ a calculated in the process shown in step S211 of FIG. 33 are performed on the (i + 1) -th image Ii + 1, and step S205 of FIG. It may be used in the processing shown in FIG. In this case, continuous in time Image classification can be performed with higher accuracy by dynamically changing the parameters used for image identification and classification between images.
  • the control unit 9a performs the process of calculating the average vector ⁇ and the variance covariance matrix ⁇ a again for both the tone information and the texture information in the process shown in step S211 of FIG. For example, a process for calculating again the variance-covariance matrix ⁇ a for only one of the tone information and the texture information may be performed.
  • the control unit 9a of the terminal device 7 performs the process using the classification result of the image Ii shown in step S201 and step S218 in Fig. 32 and Fig. 33 as described above, for example, It is possible to determine whether or not the image Ii is an image of the surface of the living mucosa, which is an image of the gastric mucosa, villi, etc.
  • the control unit 9a counts the number of regions classified into each class in the classification result of the image Ii shown in step S201 to step S218 in Fig. 32 and Fig. 33, for example, the gastric mucosa. Calculate the percentage of the total number of areas (m X n) by the number of areas A classified into the class or villi class. Then, when A / (m X n) is equal to or greater than a predetermined threshold (for example, 0.8), the control unit 9a determines that the image Ii is an image of the biological mucosa surface. Thereby, the control unit 9a can extract an image that is surely an image of the biological mucosa surface.
  • a predetermined threshold for example, 0.8
  • the five-dimensional multivariate normal probability density that determines the feature vector 2 £ using all the five feature amounts based on the tone information and texture information at a time is used.
  • the case where it prescribes was described.
  • image classification can be performed with higher accuracy.
  • the control unit 9a sets the state-dependent probability density function for the two feature values ⁇ gj and / zbj constituting the tone information as pcIca), and the texture information.
  • the controller 9a uses these two state-dependent probability density functions pc I coa) and pt ( ⁇
  • the threshold for judging the accuracy of the classification result for class ⁇ a is based on the mean vectors ⁇ c and ⁇ t of the feature values of the color tone information and the texture information, respectively, and the standard deviations ⁇ cl and ⁇ tl. For example, it is set as p (2 ⁇ I oa) and p ( ⁇ i I ⁇ a).
  • the classification result is accurate As a result, the region Hj having the feature vector xc and the feature vector xt is classified as one of the gastric mucosa, villi, stool or foam class, and otherwise classified as the unknown class.
  • the prior probability P (coa) is a force that is assumed to be equal in all classes.
  • the prior probability P (coa) is set based on, for example, the time distribution of the part to be imaged by the capsule endoscope 3 and the prior probability P ( ⁇ a) of the villus class or stool class is set higher, or the capsule endoscope Based on the risk of misclassification of the part imaged by Mirror 3, the prior probability ⁇ ( ⁇ a) of the gastric mucosa class and villus class is set higher than the stool class and foam class that do not require observation, etc. It may be set to a value according to the application.
  • the statistical discriminator used by the control unit 9a when classifying images is not limited to that based on Bayes' theorem, for example, based on a linear discriminant function or the like. Even if there is good ,.
  • an image of the gastric mucosa and villus as an image of the surface of the living mucosa and an image of feces and bubbles as an image of a foreign body or a non-living mucosa are displayed.
  • Each small area can be identified and classified. Therefore, the user can easily exclude images that are not well-captured images of the surface of the biological mucosa, such as images of foreign objects occupying most of the small areas of the image, as images that do not require observation.
  • the capsule endoscope device 1 The observation efficiency used can be improved.
  • the parameter of the statistical discriminator can be calculated as an optimum value according to the image input to the terminal device 7. Therefore, the capsule endoscope device 1 used in this embodiment is characterized by the color tone of the surface of the living mucous membrane and individual differences in the fine structure, characteristic variations of each part constituting the capsule endoscope 3, etc. Even when the amount changes, classification of each region of the image input to the terminal device 7 can be performed with high accuracy.
  • a normal mucosal image and disease By performing processing using an image processing method that classifies the image as an abnormal site image, the detection accuracy of the lesion site can be improved.
  • the control unit 9a performs a process that further uses a classification criterion such as, for example, if the stool image occupies most of the image, the colon is an imaged image.
  • a classification criterion such as, for example, if the stool image occupies most of the image, the colon is an imaged image.
  • An organ imaged in the image can be specified.
  • 35 to 40 relate to an eighth embodiment of the present invention.
  • the same components as those in the first embodiment to the seventh embodiment are denoted by the same reference numerals and description thereof is omitted.
  • the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first to seventh embodiments, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized, for example, as a program executed in a personal computer.
  • the image processing method according to the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 35 is a flowchart showing an image processing operation in the image processing apparatus of the present embodiment.
  • FIG. 36 is a flowchart showing an image processing operation in the image processing apparatus of this embodiment. It is a chart.
  • FIG. 37 is a diagram showing an example when determining a neighboring region in one region in the image processing operation of the present embodiment.
  • FIG. 38 is a schematic diagram illustrating an example of an image of a body cavity image captured by a capsule endoscope used in the image processing operation of the present embodiment.
  • FIG. 39 is a diagram showing an example of the image classification result shown in FIG.
  • FIG. 40 is a diagram showing a reclassification result after performing the image processing operation of the present embodiment based on the classification result shown in FIG.
  • the controller 9a Before performing the image processing operation in the present embodiment, the controller 9a first inputs an image signal based on the image of the image in the body cavity imaged by the capsule endoscope 3, and the input i For the second image Ii, the processing from step S201 to step S218 shown in FIG. 32 and FIG. 33 described in the seventh embodiment is performed, and the classification result for image Ii is obtained (step in FIG. 35). S221).
  • countmax indicating the maximum number of region integration iterations is a value set by the user.
  • the control unit 9a performs region integration processing as will be described in detail later, for the number of countmax values set by the user. In the present embodiment, the following description will be made assuming that the value of countmax is 5.
  • Each of the five classes from class 1 to class 5 has a one-to-one correspondence with any of the gastric mucosa class, villus class, stool class, foam class and unknown class.
  • each of the eight neighboring regions of Hj corresponds to one of the rectangular regions from region 1 to region 8 as shown in FIG.
  • each neighboring region of one region Hj is hereinafter referred to as Hjs.
  • the control unit 9a performs the subsequent processing only for the region that can be set as the neighborhood region of the one region Hj.
  • the control unit 9a determines whether or not the neighborhood region Hjs has been classified into class c (step S234 in FIG. 36).
  • the control unit 9a uses the cost function represented by the following formula (25) and evaluates it. Add 0.2 to the value Vjc (step S235 in Figure 36).
  • Vjc Vjc + 0.2 (25)
  • control unit 9a adds 1 to the value of the region s, and performs processing using the above formula (25) shown in Step S234 and Step S235 of FIG. 36 for all the neighboring regions Hjs of the one region Hj.
  • the evaluation value in class c is calculated (step S2 36 and step S237 in FIG. 36).
  • control unit 9a when determining the evaluation value in class c (step S236 in Fig. 36), the control unit 9a adds 1 to the value of class c and continues the series of processing shown in step S237 from step S232 in Fig. 36. By repeating the above, the evaluation values in all classes from class 1 to class 5 are calculated (step S238 and step S239 in FIG. 36).
  • the control unit 9a having a function as a region classification unit compares the value of each Vjc, that is, the values of Vjl, Vj2, Vj3, Vj4, and Vj5, to class c that gives the minimum Vjc value, Reclassify one region Hj (step S224 in FIG. 35). Note that, when there are a plurality of classes c that give the minimum Vjc value, the control unit 9a performs processing such as selecting a class that minimizes c.
  • Step S225 in Fig. 35 the control unit 9a sets 1 to the region number j.
  • Step S226 in FIG. 35 For the next region, the processing shown in Step S223 and Step S224 in FIG. 35 and the processing from Step S231 to Step S239 in FIG. 36 are repeated.
  • step S227 in Fig. 35 When the classification for all the divided m X n regions is completed and the control unit 9a is smaller than the value Scountmax of the count (step S227 in Fig. 35), the control unit 9a sets the count value to 1 (Step S228 in FIG. 35), the process shown in FIG. 35 from step S222 to step S227 and the processing from step S231 in FIG. Repeat the process. Further, the control unit 9a completes the classification for all the divided m X n regions, and the count value is equal to or greater than the countmax value (step S227 in FIG. 35), this time, (i + 1) A series of processing from step S221 in FIG. 35 is performed on the) th image Ii + 1 (step S229 in FIG. 35).
  • FIG. 38, FIG. 39, and FIG. 40 show an example when the control unit 9a of the terminal device 7 performs processing using the image processing operation in the present embodiment.
  • FIG. 38 is a diagram schematically showing an image corresponding to the image ⁇ ⁇ ⁇ ⁇ in the image processing operation in the present embodiment described above.
  • the control unit 9a of the terminal device 7 obtains a classification result as shown in FIG. 39 in the process shown in step S221 of FIG. .
  • the control unit 9a further sets the region integration processing shown in step S222 and subsequent steps in FIG. 35 as the countmax value (5 times in the present embodiment). Repeatedly, the reclassification result as shown in Fig. 40 is obtained.
  • the control unit 9a of the terminal device 7 reclassifies a predetermined region of the image input to the terminal device 7 and performs a classification result in a neighborhood region of the predetermined region. Therefore, it is possible to classify each area of the image with higher accuracy while suppressing the occurrence of misclassified areas.
  • the ninth embodiment of the present invention relate to the ninth embodiment of the present invention. Note that detailed description of parts having the same configurations as those in the first to eighth embodiments is omitted. Further, the same components as those in the first embodiment to the eighth embodiment are denoted by the same reference numerals and description thereof is omitted. Further, the configuration of the capsule endoscope apparatus 1 in the present embodiment is the same as that in the first to eighth embodiments, and the image processing method in the present embodiment is also similar. It is assumed that the terminal device 7 is realized, for example, as a program executed in a personal computer. The image processing method according to the present embodiment is performed as processing in the control unit 9a included in the terminal body 9.
  • FIG. 41 is a flowchart showing an image processing operation in the present embodiment.
  • FIG. 42 is a flowchart showing an image processing operation in the present embodiment.
  • FIG. 43 is a diagram showing an example of an array of numbers virtually assigned to each small rectangular area having 4 ⁇ 4 pixels in the image processing operation according to the present embodiment.
  • FIG. 44 is a diagram showing the positional relationship of the neighboring outer peripheral area Ht with respect to one rectangular area RO in the image processing operation according to the present embodiment.
  • FIG. 45 is a diagram illustrating an example of an angle ⁇ t formed by the approximate g radient vector sl and the direction vector d! In the image processing operation according to the present embodiment.
  • FIG. 46 is a schematic diagram showing an example of an image of a body cavity imaged by the capsule endoscope used in the present embodiment.
  • FIG. 47 is a diagram showing an example of the image classification result shown in FIG.
  • the control unit 9a of the terminal device 7 performs substantially the same processing as described above from Step S201 to Step S203 in FIG. That is, the control unit 9a inputs an image signal based on the image of the image inside the body cavity imaged by the capsule endoscope 3, and performs preprocessing on the input i-th image Ii (see FIG. In step S241 of 41), the image Ii is divided into m ⁇ n small regions (step S242 in FIG. 41), and in each divided region, the color tone information and texture information are calculated as feature amounts (in FIG. 41). Step S243).
  • control unit 9a performs image processing described below, and is a class preset as a class having structurally clear characteristics among the divided areas, for example, areas classified into the bubble class The It is detected (step S244 in FIG. 41).
  • control unit 9a further divides each rectangular area having the number of pixels of 8 ⁇ 8 into four in the plane Gi that is the green plane among the planes of the image Ii.
  • small rectangular areas each having 4 ⁇ 4 pixels are generated (step S25 1 in FIG. 42).
  • the control unit 9a performs G (green) in each small rectangular area having 4 ⁇ 4 pixels.
  • G green
  • a number having an arrangement as shown in FIG. 43 is virtually assigned to each small rectangular area having 4 ⁇ 4 pixels.
  • control unit 9a sets the direction consisting of the line segment connecting the area 1 and the area 7 or the area 2 and the area 8 to the vertical direction on the image, and the direction consisting of the line segment connecting the area 3 and the area 4 or the area 5 and the area 6 to each other.
  • the horizontal direction on the image, the direction consisting of the line segment connecting area 2 and area 5 or area 4 and area 7 is the left diagonal direction on the image
  • the direction consisting of the line segment connecting area 1 and area 6 or area 3 and area 8 Is set as the diagonal direction to the right on the image, and the logarithmic difference value of the average value ga of the density values of the G pixels is calculated between the regions.
  • control unit 9a determines that there is an array of pixels indicating substantially circular edges in the direction on the image where there is a combination of regions where the value of the logarithmic difference is maximum, and the maximum value of the logarithmic difference And the direction on the image that gives the maximum value are temporarily held.
  • control unit 9a having a function as the attention region setting unit and the neighboring outer peripheral region detection unit is configured as one of the attention regions as shown in FIG. 44 among the rectangular regions having the number of pixels of 8 X 8.
  • Is set as a coordinate (xo, yo) as a region where the center of the substantially circular shape exists, and then the distance Q (Q 1, 2, 3, (3)
  • the control unit 9a having a function as a vector calculation unit obtains coordinates (x After all of t, yt) are detected, the approximate gradient beta sl in each detected neighboring outer peripheral region and the direction vector dl connecting the coordinates (xt, yt) and coordinates (xo, yo) are calculated (Fig. 42). Step S253).
  • the approximate gradient vector gi in each of the neighboring outer peripheral regions Ht has the maximum value of the logarithmic difference of the average value ga of the density values of the G pixels held in the control unit 9a, and A vector having a direction on the image giving the maximum value as a direction.
  • the control unit 9a calculates the approximate gradient vector gi and the direction vector Vdt in each of the neighboring outer peripheral regions Ht, the value of the magnitude I gi I of Vgt is set to a threshold value (in this embodiment, 0. 4) Judge whether it is above or not.
  • a threshold value in this embodiment 0. 4
  • the control unit 9a uses the inner product formula to calculate the angle ⁇ t formed by the approximate gradient vector Vgt and the direction vector Vdt as shown in FIG.
  • the value of co s is calculated according to 27) (step S254 in Fig. 42).
  • the control unit 9a having a function as an edge determination unit detects that the value of I cos 6 t I is larger than 0 ⁇ 7 based on the calculation result of cos ⁇ t using the above equation (27) (FIG. 42).
  • the control unit 9a having a function as a region extraction unit, when there is a radial gradient betatono centered on one rectangular region RO in L regions out of T neighboring outer peripheral regions, L / Based on the value of T, if the value of L / T is, for example, 0.7 or more (step S256 in FIG. 42), the central portion of the bubble having a substantially circular shape is extracted in the one rectangular region R0 extracted. Judge that it exists. Then, the control unit 9a performs the process as described above for each value of the distance Q while changing the value of the distance Q to the value of Qmax set in advance by the user (Step S257 and Step S258 in FIG. 42). ).
  • control unit 9a sequentially performs the processing described above for each set region RO while sequentially setting one rectangular region R0 for all the rectangular regions having the number of pixels of 8 ⁇ 8. 42 steps S259 and S260).
  • the controller 9a performs various processes on the image Ii by performing the processing described above. Detect areas that fall into the bubble class according to the size of various bubbles present in different areas
  • control unit 9a detects a region classified into the villi class in a region other than the region classified into the bubble class (step S245 in Fig. 41). Processes similar to those shown in FIG.
  • the control unit 9a calculates the equation (20) to the equation (22) having the average vector and the variance-covariance matrix ⁇ a calculated in advance for each class based on the teacher data.
  • where the generated feature vector belongs to class ⁇ , and the posterior probability ⁇ ( ⁇ 2 I that belongs to the generated feature vector ⁇ force S class ⁇ 2 and the generated feature vector force S class The posterior probability ⁇ ( ⁇ 3 I belonging to ⁇ 3 and the posterior probability ⁇ ( ⁇ 4
  • the control unit 9a The class ⁇ a that gives the maximum posterior probability ⁇ 1 ( ⁇ a
  • is identified as belonging to the feature beta 2 £, and one area where the feature vector is generated based on the identification result Hj is classified into class ⁇ a and villi class Assuming class ⁇ 1 (a 1), the control unit 9a detects a region classified into class ⁇ 1 in the above processing from the mXn regions, and the maximum posterior probability P1 in each of the regions. The value of the probability density function pi (x I ⁇ 1) giving ( ⁇
  • control unit 9a determines the power of whether the classification result of each region classified into the class ⁇ 1 is accurate, so that the probability density giving the maximum posterior probability ⁇ 1 ( ⁇ 1 I 2 ⁇ Further processing based on a threshold value for the value of the function Pi (x I ⁇ ) is performed.
  • the control unit 9a for example, among the average values of the five feature amounts of the average vector ill calculated in advance based on the teacher data, for example, the average of the feature amount xl
  • a threshold vector ⁇ hl including a value obtained by adding the product of the standard deviation ⁇ xl of the feature quantity xl and the multiplication coefficient H as a predetermined constant to the value ⁇ xl is determined.
  • the value of the multiplication factor is set as 0.8 in this process as a value that constitutes a threshold for the value of pl (x I ⁇ 1) in order to reliably classify the villi class.
  • the control unit 9a substitutes the threshold vector 2 ⁇ 1 as in the above formulas (20), (21), and (22) to obtain the probability density function. Calculate the value of p ( ⁇ hl I ⁇ ) Put out.
  • control unit 9a determines that the classification result classified into the villi class is accurate for the region where the value of pi ( ⁇
  • the mean vector 2 and the variance covariance matrix ⁇ 2 that are the parameters to be calculated are calculated (step S246 in FIG. 41). Thereafter, the control unit 9a sets the mean vector jl and the variance covariance matrix ⁇ 1 that are the parameters constituting the villi class, the mean vector ⁇ 2 and the variance covariance matrix ⁇ 2 that is the parameter that constitutes the bubble class, and For example, the image processing described in the seventh embodiment or the eighth embodiment of the present invention is further performed on the image Ii as shown in FIG. 46 to obtain a final result as shown in FIG. A classification result is obtained (step S247 in FIG. 41).
  • the detection of the region classified into the bubble class in the present embodiment is not limited to the detection as described above, but may be, for example, as described below.
  • the control unit 9a uses, for example, the neighboring outer peripheral region Ht indicated by the coordinates (xt, yt) for a bubble whose edge shape is distorted to become an elliptical shape based on the following equation (28). To detect.
  • is an integer equal to or greater than 1, and [] indicates a Gaussian symbol.
  • the control unit 9a After detecting all the coordinates (xt, yt) satisfying the above formula (28), the control unit 9a detects the approximate gradient vector Ygi, the coordinates (xt, yt), and the coordinates The direction vector dl connecting (xo, yo) is calculated. Then, the control unit 9a determines whether or not the value of the magnitude I Vgt I of sl is equal to or greater than a threshold value (0.4 in the present embodiment). When the control unit 9a detects that the value of I Vgt I is greater than or equal to the threshold value, the control unit 9a determines the angle ⁇ t formed by the approximate gradient vector i and the direction vector based on the inner product formula by using the above equation (27). Calculate the value of t.
  • the control unit 9a Based on the calculation result of cos ⁇ t using Equation (27), the control unit 9a detects that the value of
  • the controller 9a calculates the value of L1 / T from the number of regions L1 and the number T of neighboring outer peripheral regions detected by using the above equation (26). Then, based on the value of L1 / T, if the value of L1 / T is greater than or equal to a threshold value (for example, 0.7), the control unit 9a has an distorted edge shape in one rectangular region RO. It is determined that there is a central part of a circular bubble.
  • a threshold value for example, 0.7
  • the control unit 9a changes the distance (Q-) from the distance (Q-) while changing the direction by an angle ⁇ between 0 ° force and 360 ° around the region RO.
  • a process may be performed to detect a neighboring outer peripheral region having a radial gradient vector.
  • the control unit 9a sets S as the number of directions in which it is determined that there is a neighboring outer peripheral region having a radial gradient vector, and sets the number of neighboring outer peripheral regions T to [360 / ⁇ ], and then sets the value of SZT. calculate. Then, based on the value of S / T, if the value of SZT is equal to or greater than a threshold value (for example, 0.7), the control unit 9a determines that the central portion of the bubble exists in one rectangular region R0.
  • a threshold value for example, 0.7
  • the vector used when the control unit 9a detects the region classified into the bubble class is not limited to the approximate gradient vector, and may be, for example, an average gradient NT.
  • the turntable described in the seventh embodiment is used.
  • it is possible to improve the observation efficiency in observation using the cell-type endoscope device 1 it is possible to obtain a reflex effect and it is difficult to classify according to the feature amount composed of color tone information and texture information.
  • the bubble class and the villus having structurally distinct features are calculated in advance based on the image input to the terminal device 7, so that the bubble class and the villi are calculated.
  • the region of the villi class can be classified with higher accuracy.
  • the force using five values based on the color tone information and texture information as values constituting the feature amount constitutes the feature amount.
  • the value can be changed or added as appropriate according to the purpose of the user.
  • the detection result of a lesion site is converted into a living body by being used in combination with image processing for detecting a lesion site such as bleeding or redness. It is possible to determine whether or not it is obtained from the mucosal surface, and as a result, it is possible to improve the detection accuracy of the lesion site.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 ユーザによる観察効率を向上させることのできる画像処理装置及び画像処理方法を提供する。本発明の画像処理装置は、複数の色信号からなる医用画像を入力する画像入力部と、 前記入力された医用画像が生体粘膜を十分に撮像したか否かを判定する判定部と、前記判定部における判定結果に基づき前記医用画像の表示または記憶の少なくとも1つを制御する制御部と、を備える。

Description

明 細 書
画像処理装置及び画像処理方法
技術分野
[0001] 本発明は、画像処理装置及び画像処理方法に関し、特に、生体粘膜表面の像が 良好に撮像されていない画像を除外することができる画像処理装置及び画像処理 方法に関するものである。
背景技術
[0002] 従来、医療分野にぉレ、て、 X線、 CT、 MRI、超音波観測装置及び内視鏡装置等 の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、 内視鏡装置は、例えば、生体としての体腔内に挿入される細長の挿入部を有し、該 挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素 子等により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等に体腔 内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、前記モニ タ等に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観 察を行う。また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能であ る。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な 構造等の様々な所見を総合的に観察することができる。
[0003] そして、近年、前述したような内視鏡装置と略同様の有用性が期待できる画像撮像 機器として、例えば、カプセル型内視鏡装置が提案されている。一般的に、カプセノレ 型内視鏡装置は、被検者が口から飲み込むことにより体腔内に配置され、撮像した 該体腔内の像を撮像信号として外部に送信するカプセル型内視鏡と、送信された該 撮像信号を体腔外で受信した後、受信した該撮像信号を蓄積するレシーバと、レシ ーバに蓄積された撮像信号に基づく体腔内の像の画像を観察するための観察装置 とから構成される。
[0004] カプセル型内視鏡装置を構成するカプセル型内視鏡は、消化管の蠕動運動により 進むため、例えば、口から体腔内に入れられた後、肛門力 排出されるまで数時間 程度の時間力 Sかかることが一般的である。そして、カプセル型内視鏡は、体腔内に入 れられた後、排出されるまでの間、レシーバに対して撮像信号を略常時出力し続ける ため、例えば、数時間分の動画像における、レシーバに蓄積されたフレーム画像とし ての静止画像の枚数は膨大なものとなる。そのため、ユーザによる観察の効率化とい う点において、例えば、蓄積された画像のうち、出血部位等の病変部位が含まれる所 定の画像を検出するような画像処理方法が行われた上において、該所定の画像以 外の画像を表示または保存しないという処理が行われることにより、画像のデータ量 が削減されるような提案が望まれている。
[0005] 前述したような画像処理方法としては、例えば、 PCT WO 02/073507 A2号 公報に記載されているようなものがある。特許文献 1に記載されている、生体内での 比色分析の異常を検出するための方法は、正常粘膜と出血部位との色調の違いに 着目し、色調を特徴量と設定した特徴空間における各平均値からの距離に基づき、 画像の分割領域毎に出血部位の検出を行う方法、すなわち、病変部位としての出血 部位が含まれる所定の画像を検出するための方法を有する画像処理方法である。
[0006] しかし、 PCT WO 02/073507 A2号公報に記載されている画像処理方法に おいては、以下に記すような課題がある。
[0007] 一般に、消化管においては、常に生体粘膜表面の像のみの撮像が行われている 訳ではなぐ例えば、便、泡、粘液または食物残渣等の異物の像と、生体粘膜表面の 像とが混在した状態において撮像が行われている。そのため、前述したような異物の 存在を考慮していない PCT WO 02/073507 A2号公報に記載されている画 像処理方法においては、例えば、該異物により正常粘膜を出血部位と誤検出してし まう可能性、及び該異物の像が大部分を占めるような画像を検出する可能性が考え られる。その結果、 PCT WO 02/073507 A2号公報の画像処理方法を用いた 観察が行われる場合、病変部位の検出精度が低下してしまうことに起因する、観察 効率の低下が発生してしまうという課題が生じている。
[0008] 本発明は、前述した点に鑑みてなされたものであり、ユーザによる観察効率を向上 させることのできる画像処理装置及び画像処理方法を提供することを目的としている 発明の開示 課題を解決するための手段
[0009] 本発明の第 1の画像処理装置は、複数の色信号からなる医用画像を入力する画像 入力部と、前記入力された医用画像が生体粘膜を十分に撮像したか否力 ^判定す る判定部と、前記判定部における判定結果に基づき前記医用画像の表示または記 憶の少なくとも 1つを制御する制御部と、を備えたことを特徴とする。
[0010] 本発明の第 2の画像処理装置は、前記第 1の画像処理装置において、さらに、前 記医用画像を複数の領域に分割する画像分割部と、前記医用画像の前記複数の領 域各々における特徴量を算出する特徴量算出部と、前記特徴量に基づき、前記複 数の領域各々が複数のクラスのいずれに属するかを識別するとともに、該識別結果 により前記複数の領域各々を分類する領域分類部と、前記領域分類部による分類結 果に基づいて、前記複数のクラスの内、所定のクラスに分類された領域群が前記複 数の領域に占める割合を算出する分類判定値算出部と、前記分類判定値算出部に より算出された前記割合と、前記割合に関する所定の閾値とに基づき、前記所定のク ラスに分類された前記領域群を有する前記画像を分類する画像分類部と、を具備し 、前記判定部は、前記画像分類部の分類結果に基づき、前記割合が所定の閾値以 下である場合に、前記医用画像を、生体粘膜を十分に撮像していない画像であると 判定し、前記割合が所定の閾値より大きい場合に、前記医用画像を、生体粘膜を十 分に撮像した画像であると判定することを特徴とする。
[0011] 本発明の第 3の画像処理装置は、前記第 2の画像処理装置において、前記制御部 は、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像 を表示しなレ、ように制御することを特徴とする。
[0012] 本発明の第 4の画像処理装置は、前記第 2の画像処理装置において、前記制御部 は、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像 を記憶しなレ、ように制御することを特徴とする。
[0013] 本発明の第 5の画像処理装置は、前記第 3の画像処理装置において、前記制御部 は、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像 を記憶しなレ、ように制御することを特徴とする。
[0014] 本発明の第 6の画像処理装置は、前記第 2の画像処理装置において、さらに、前 記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像を削除 する画像削除部を具備することを特徴とする。
[0015] 本発明の第 7の画像処理装置は、前記第 3の画像処理装置において、さらに、前 記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像を削除 する画像削除部を具備することを特徴とする。
[0016] 本発明の第 8の画像処理装置は、前記第 4の画像処理装置において、さらに、前 記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像を削除 する画像削除部を具備することを特徴とする。
[0017] 本発明の第 9の画像処理装置は、前記第 5の画像処理装置において、さらに、前 記判定部により生体粘膜を十分に撮像していないと判定された前記医用画像を削除 する画像削除部を具備することを特徴とする。
[0018] 本発明の第 10の画像処理装置は、前記第 2の画像処理装置において、前記特徴 量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方の 特徴量を有することを特徴とする。
[0019] 本発明の第 11の画像処理装置は、複数の色信号力 なる複数の医用画像を入力 する画像入力部と、前記入力された医用画像に対し、複数の領域を設定する領域設 定部と、前記複数の領域の中から病変の存在が疑われる領域を検出する検出部と、 前記領域設定部により設定された前記複数の複数の領域が生体粘膜を撮像した領 域であるか否力を判定する領域判定部と、前記領域判定部における判定結果に基 づき、前記検出部による検出結果が正しいか否力を判定する検出結果判定部と、を 備えたことを特徴とする。
[0020] 本発明の第 12の画像処理装置は、前記第 11の画像処理装置において、さらに、 前記医用画像の前記複数の領域各々における特徴量を算出する特徴量算出部と、 前記特徴量に基づき、前記複数の領域を、生体粘膜に関するクラスと非生体粘膜に 関するクラスを含む複数のクラスのいずれかに各々分類する領域分類部と、前記医 用画像の緑成分の濃度値に基づき、前記複数の領域においてエッジを有する領域 を検出するエッジ検出部と、前記画像の赤成分の濃度値に基づき、前記エッジを有 する領域が出血部位を含む領域であるか否かを判定する出血部位判定部と、前記 出血部位判定部の判定結果に基づき、前記領域分類部の分類結果が正しいか否か を判定する分類結果判定部と、を具備し、前記検出部は、前記出血部位を含む領域 を病変の存在が疑われる領域として検出することを特徴とする。
[0021] 本発明の第 13の画像処理装置は、前記第 12の画像処理装置において、前記領 域判定部は、前記領域分類部の分類結果に基づき、一の領域が生体粘膜に関する クラスに分類された場合に、該一の領域を、生体粘膜を撮像した領域であると判定す ることを特徴とする。
[0022] 本発明の第 14の画像処理装置は、前記第 13の画像処理装置において、前記検 出結果判定部は、前記検出部の検出結果と、前記領域判定部の判定結果に基づき 、前記病変の存在が疑われる領域が、前記生体粘膜を撮像した領域である場合に、 前記検出部の検出結果を正しいと判定することを特徴とする。
[0023] 本発明の第 15の画像処理装置は、前記第 12の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0024] 本発明の第 16の画像処理装置は、時間的に連続して撮像された複数の医用画像 を入力する画像入力部と、前記医用画像に複数の領域を設定する領域設定部と、前 記領域設定部により設定された前記複数の領域における撮像対象を判定する判定 部と、前記判定部の判定結果に基づき、前記医用画像に撮像されている臓器を特定 する特定部と、前記特定部における特定結果を表示する特定結果表示部と、を備え たことを特徴とする。
[0025] 本発明の第 17の画像処理装置は、前記第 16の画像処理装置において、さらに、 前記医用画像を複数の領域に分割する画像分割部と、前記医用画像の前記複数の 領域各々における特徴量を算出する特徴量算出部と、前記特徴量に基づき、前記 複数の領域各々が複数のクラスのいずれに属するかを識別するとともに、該識別結 果により前記複数の領域各々を分類する領域分類部と、前記領域分類部による分類 結果に基づいて、前記複数のクラスの内、所定のクラスに分類された領域群が前記 複数の領域に占める割合を算出する分類判定値算出部と、前記分類判定値算出部 により算出された前記割合と、前記割合に関する所定の閾値とに基づき、前記所定 のクラスに分類された前記領域群を有する前記画像を分類する画像分類部と、を具 備し、前記特定部は、前記画像分類部の分類結果に基づき、前記医用画像に撮像 されてレ、る臓器を特定することを特徴とする。
[0026] 本発明の第 18の画像処理装置は、前記第 17の画像処理装置において、前記複 数のクラスは、胃粘膜クラスと、絨毛クラスと、便クラスとを少なくとも有することを特徴 とする。
[0027] 本発明の第 19の画像処理装置は、前記第 18の画像処理装置において、前記所 定のクラスが胃粘膜クラスである場合、前記特定部は、前記医用画像に撮像されて レ、る臓器が胃であると判定することを特徴とする。
[0028] 本発明の第 20の画像処理装置は、前記第 18の画像処理装置において、前記所 定のクラスが絨毛クラスである場合、前記特定部は、前記医用画像に撮像されている 臓器が小腸であると判定することを特徴とする。
[0029] 本発明の第 21の画像処理装置は、前記第 18の画像処理装置において、前記所 定のクラスが便クラスである場合、前記特定部は、前記医用画像に撮像されている臓 器が大腸であると判定することを特徴とする。
[0030] 本発明の第 22の画像処理装置は、前記第 17の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0031] 本発明の第 23の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力部と、前記画像信号入力部におい て入力した画像信号に基づいて当該医療機器により撮像された画像を複数の領域 に分割する画像分割部と、前記画像分割部により分割された複数の領域各々におけ る特徴量を算出する特徴量算出部と、前記特徴量算出部において算出された特徴 量と、所定の第 1の分類基準とに基づき、前記複数の領域を複数のクラスのいずれか に各々分類する第 1の領域分類部と、前記特徴量と、前記第 1の領域分類部による 分類結果とに基づいて第 2の分類基準を設定する分類基準設定部と、前記特徴量と 、前記第 2の分類基準とに基づき、前記複数の領域を前記複数のクラスのいずれか に各々分類する第 2の領域分類部と、を具備したことを特徴とする。 [0032] 本発明の第 24の画像処理装置は、前記第 23の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0033] 本発明の第 25の画像処理装置は、前記第 23の画像処理装置において、前記第 1 の領域分類部は、前記第 1の分類基準を定める母数を用いた統計的識別器を用い て前記複数の領域を前記複数のクラスのいずれかに各々分類し、前記第 2の領域分 類部は、前記第 2の分類基準を定める母数を用いた統計的識別器を用いて前記複 数の領域を前記複数のクラスのレ、ずれかに各々分類することを特徴とする。
[0034] 本発明の第 26の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力部と、前記画像信号入力部におい て入力した画像信号に基づいて当該医療機器により撮像された画像を複数の領域 に分割する画像分割部と、前記画像分割部により分割された複数の領域各々におけ る特徴量を算出する特徴量算出部と、前記特徴量算出部において算出された特徴 量と、所定の第 1の分類基準とに基づき、前記複数の領域を複数のクラスのいずれか に各々分類する第 1の領域分類部と、前記複数の領域のうち、一の領域の前記第 1 の領域分類部による分類結果を、前記一の領域の近傍に位置する領域の前記第 1 の領域分類部による分類結果に基づいた評価値を算出することにより評価する評価 値算出部と、前記評価値算出部における評価値に基づき、前記一の領域を前記複 数のクラスのいずれかに分類する第 2の領域分類部と、を具備したことを特徴とする。
[0035] 本発明の第 27の画像処理装置は、前記第 26の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0036] 本発明の第 28の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力部と、前記画像信号入力部におい て入力した画像信号に基づいて当該医療機器により撮像された画像を複数の領域 に分割する画像分割部と、前記画像分割部により分割された複数の領域各々におけ る特徴量を算出する特徴量算出部と、前記複数の領域のうち、一の領域を注目領域 として設定する注目領域設定部と、前記注目領域から所定の距離だけ離れた領域で ある近傍外周領域を検出する近傍外周領域検出部と、前記近傍外周領域において 、前記特徴量に基づき、略円形形状の輪郭部の少なくとも一部が存在することを検 出する略円形形状検出部と、前記略円形形状検出部により、前記略円形形状が検 出された場合、前記注目領域を抽出する領域抽出部と、を具備したことを特徴とする
[0037] 本発明の第 29の画像処理装置は、前記第 28の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0038] 本発明の第 30の画像処理装置は、前記第 28の画像処理装置において、前記略 円形形状検出部は、前記近傍外周領域のうち、前記略円形形状の輪郭部の少なくと も一部が存在する領域の割合が所定の閾値以上であると判断した場合に略円形形 状を検出し、前記領域抽出部は、前記注目領域を前記略円形形状の中央部が存在 する領域として抽出することを特徴とする。
[0039] 本発明の第 31の画像処理装置は、前記第 29の画像処理装置において、前記略 円形形状は、泡であることを特徴とする。
[0040] 本発明の第 32の画像処理装置は、前記第 30の画像処理装置において、前記略 円形形状は、泡であることを特徴とする。
[0041] 本発明の第 33の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力部と、前記画像信号入力部におい て入力した画像信号に基づいて当該医療機器により撮像された画像を複数の領域 に分割する画像分割部と、前記画像分割部により分割された複数の領域各々におけ る特徴量を算出する特徴量算出部と、前記特徴量算出部において算出された特徴 量と、所定の分類基準とに基づき、前記複数の領域を複数のクラスのいずれかに各 々分類する領域分類部と、前記複数のクラスのうち、構造的に明確な特徴を有するク ラスとして予め設定された所定のクラスに分類される領域を、前記複数の領域から検 出する領域検出部と、前記領域検出部において検出された前記領域が有する前記 特徴量に基づき、前記領域分類部における前記所定の分類基準を設定する分類基 準設定部と、を具備したことを特徴とする。 [0042] 本発明の第 34の画像処理装置は、前記第 33の画像処理装置において、前記所 定のクラスは、泡クラスまたは絨毛クラスのうち、少なくとも 1つのクラスであることを特 徴とする。
[0043] 本発明の第 35の画像処理装置は、前記第 33の画像処理装置において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0044] 本発明の第 1の画像処理方法は、撮像機能を有する医療機器により撮像された画 像を入力する画像入力ステップと、前記画像を複数の領域に分割する領域分割ステ ップと、前記複数の領域各々から特徴量を算出する特徴量算出ステップと、前記特 徴量に基づき、前記複数の領域各々を、生体粘膜表面を撮像した領域または非生 体粘膜を撮像した領域のいずれかに分類する領域分類ステップと、を有することを特 徴とする。
[0045] 本発明の第 2の画像処理方法は、撮像機能を有する医療機器により撮像された画 像を入力する画像入力ステップと、前記画像を複数の領域に分割する領域分割ステ ップと、前記複数の領域各々から特徴量を算出する特徴量算出ステップと、前記特 徴量に基づき、前記複数の領域各々を、複数の異なるクラスのうち、いずれか一のク ラスに分類する領域分類ステップと、を有する画像処理方法であって、前記領域分 類ステップは、生体粘膜表面を撮像した領域と、非生体粘膜を撮像した領域と、前記 生体粘膜表面及び前記非生体粘膜のどちらにも該当しない領域とのいずれかに前 記複数の領域各々を分類することを特徴とする。
[0046] 本発明の第 3の画像処理方法は、撮像機能を有する医療機器により撮像された画 像を入力する画像入力ステップと、前記画像を複数の領域に分割する領域分割ステ ップと、前記複数の領域各々から特徴量を算出する特徴量算出ステップと、前記特 徴量に基づき、前記複数の領域各々を、複数の異なるクラスのうち、いずれか一のク ラスに分類する領域分類ステップと、前記複数の異なるクラスにおいて、前記画像上 に混在することを許可しない排他クラスの組み合わせを設定する排他クラス設定ステ ップと、前記排他クラスの組み合わせのうち、いずれのクラスを優先するかを設定する 優先クラス設定ステップと、を有する画像処理方法であって、前記領域分類ステップ は、前記排他クラス設定ステップで設定された排他クラスの組み合わせのレ、ずれか のクラスに分類された領域が存在する場合、前記領域を前記優先クラス設定ステップ におレ、て設定されたクラスに分類することを特徴とする。
[0047] 本発明の第 4の画像処理方法は、前記第 3の画像処理方法において、さらに、前 記領域分類ステップによる分類結果に基づレ、て、前記排他クラスの組み合わせに含 まれるクラスのうち、一のクラスに分類された領域群が前記複数の領域に占める割合 を算出する分類判定値算出ステップを具備し、前記優先クラス設定ステップは、前記 分類判定値算出ステップにより算出された前記割合と、前記割合に関する所定の閾 値とに基づく比較を行うことにより、前記排他クラスの組み合わせのうち、いずれのク ラスを優先するかを設定することを特徴とする。
[0048] 本発明の第 5の画像処理方法は、前記第 1の画像処理方法において、前記特徴量 は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方の特 徴量を有することを特徴とする。
[0049] 本発明の第 6の画像処理方法は、前記第 2の画像処理方法において、前記特徴量 は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方の特 徴量を有することを特徴とする。
[0050] 本発明の第 7の画像処理方法は、前記第 3の画像処理方法において、前記特徴量 は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方の特 徴量を有することを特徴とする。
[0051] 本発明の第 8の画像処理方法は、前記第 1の画像処理方法において、さらに、前 記領域分類ステップにおける前記複数の領域各々の分類結果に基づき、前記画像 が生体粘膜表面を撮像したか否かを判定する判定ステップを有することを特徴とする
[0052] 本発明の第 9の画像処理方法は、前記第 2の画像処理方法において、さらに、前 記領域分類ステップにおける前記複数の領域各々の分類結果に基づき、前記画像 が生体粘膜表面を撮像したか否かを判定する判定ステップを有することを特徴とする
[0053] 本発明の第 10の画像処理方法は、前記第 4の画像処理方法において、さらに、前 記領域分類ステップにおける前記複数の領域各々の分類結果に基づき、前記画像 が生体粘膜表面を撮像したか否かを判定する判定ステップを有することを特徴とする
[0054] 本発明の第 11の画像処理方法は、前記第 8の画像処理方法において、さらに、前 記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラスの内、所 定のクラスに分類された領域群が前記複数の領域に占める割合を算出する分類判 定値算出ステップと、前記分類判定値算出ステップにより算出された前記割合と、前 記割合に関する所定の閾値とに基づき、前記所定のクラスに分類された前記領域群 を有する前記画像を分類する画像分類ステップと、を具備し、前記判定ステップは、 前記画像分類ステップの分類結果に基づき、前記割合が所定の閾値以下である場 合に、前記画像を、生体粘膜を十分に撮像していない画像であると判定し、前記割 合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十分に撮像した画像で あると判定することを特徴とする。
[0055] 本発明の第 12の画像処理方法は、前記第 9の画像処理方法において、さらに、前 記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラスの内、所 定のクラスに分類された領域群が前記複数の領域に占める割合を算出する分類判 定値算出ステップと、前記分類判定値算出ステップにより算出された前記割合と、前 記割合に関する所定の閾値とに基づき、前記所定のクラスに分類された前記領域群 を有する前記画像を分類する画像分類ステップと、を具備し、前記判定ステップは、 前記画像分類ステップの分類結果に基づき、前記割合が所定の閾値以下である場 合に、前記画像を、生体粘膜を十分に撮像していない画像であると判定し、前記割 合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十分に撮像した画像で あると判定することを特徴とする。
[0056] 本発明の第 13の画像処理方法は、前記第 10の画像処理方法において、さらに、 前記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラスの内、 所定のクラスに分類された領域群が前記複数の領域に占める割合を算出する分類 判定値算出ステップと、前記分類判定値算出ステップにより算出された前記割合と、 前記割合に関する所定の閾値とに基づき、前記所定のクラスに分類された前記領域 群を有する前記画像を分類する画像分類ステップと、を具備し、前記判定ステップは 、前記画像分類ステップの分類結果に基づき、前記割合が所定の閾値以下である場 合に、前記画像を、生体粘膜を十分に撮像していない画像であると判定し、前記割 合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十分に撮像した画像で あると判定することを特徴とする。
[0057] 本発明の第 14の画像処理方法は、撮像機能を有する医療機器により撮像された 画像を入力する画像入力ステップと、前記画像を複数の領域に分割する領域分割ス テツプと、前記複数の領域各々における特徴量を算出する特徴量算出ステップと、 前記特徴量に基づき、前記複数の領域各々が複数のクラスのいずれに属するかを 識別するとともに、該識別結果により前記複数の領域各々を分類する領域分類ステ ップと、前記領域分類ステップにおける分類結果に基づき、前記医療機器が撮像し た臓器を推定する撮像臓器推定ステップと、を有することを特徴とする。
[0058] 本発明の第 15の画像処理方法は、前記第 14の画像処理方法において、さらに、 前記領域分類ステップによる分類結果に基づいて、前記複数のクラスの内、所定の クラスに分類された領域群が前記複数の領域に占める割合を算出する分類判定値 算出ステップと、前記分類判定値算出ステップにより算出された前記割合と、前記割 合に関する所定の閾値とに基づき、前記所定のクラスに分類された前記領域群を有 する前記画像を分類する画像分類ステップと、を具備し、前記撮像臓器推定ステップ は、前記画像分類ステップの分類結果に基づき、前記画像が撮像した臓器を特定す ることを特 ί数とする。
[0059] 本発明の第 16の画像処理方法は、前記第 15の画像処理方法において、前記複 数のクラスは、胃粘膜クラスと、絨毛クラスと、便クラスとを少なくとも有することを特徴 とする。
[0060] 本発明の第 17の画像処理方法は、前記第 16の画像処理方法において、前記所 定のクラスが胃粘膜クラスである場合、前記特定部は、前記画像に撮像されている臓 器が胃であると判定することを特徴とする。
[0061] 本発明の第 18の画像処理方法は、前記第 16の画像処理方法において、前記所 定のクラスが絨毛クラスである場合、前記特定部は、前記画像に撮像されている臓器 が小腸であると判定することを特徴とする。
[0062] 本発明の第 19の画像処理方法は、前記第 16の画像処理方法において、前記所 定のクラスが便クラスである場合、前記特定部は、前記画像に撮像されている臓器が 大腸であると判定することを特徴とする。
[0063] 本発明の第 20の画像処理方法は、前記第 14の画像処理方法において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0064] 本発明の第 21の画像処理方法は、撮像機能を有する医療機器により撮像された 画像に応じた画像信号を入力する画像信号入力部において入力した画像信号に基 づき、該医療機器により撮像された前記画像を複数の領域に分割する画像分割ステ ップと、前記画像分割ステップにより分割された複数の領域各々における特徴量を算 出する特徴量算出ステップと、前記特徴量算出ステップにおいて算出された特徴量 と、所定の第 1の分類基準とに基づき、前記複数の領域を複数のクラスのいずれかに 各々分類する第 1の領域分類ステップと、前記特徴量と、前記第 1の領域分類ステツ プによる分類結果とに基づいて第 2の分類基準を設定する分類基準設定ステップと 、前記特徴量と、前記第 2の分類基準とに基づき、前記複数の領域を前記複数のク ラスのいずれかに各々分類する第 2の領域分類ステップと、を具備したことを特徴と する。
[0065] 本発明の第 22の画像処理方法は、前記第 21の画像処理方法において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0066] 本発明の第 23の画像処理方法は、前記第 21の画像処理方法において、前記第 1 の領域分類ステップは、前記第 1の分類基準を定める母数を用いた統計的識別器を 用いて前記複数の領域を前記複数のクラスのいずれかに各々分類し、前記第 2の領 域分類ステップは、前記第 2の分類基準を定める母数を用いた統計的識別器を用い て前記複数の領域を前記複数のクラスのレ、ずれかに各々分類することを特徴とする
[0067] 本発明の第 24の画像処理方法は、撮像機能を有する医療機器により撮像された 画像に応じた画像信号を入力する画像信号入力部において入力した画像信号に基 づき、該医療機器により撮像された前記画像を複数の領域に分割する画像分割ステ ップと、前記画像分割ステップにより分割された複数の領域各々における特徴量を算 出する特徴量算出ステップと、前記特徴量算出ステップにおいて算出された特徴量 と、所定の第 1の分類基準とに基づき、前記複数の領域を複数のクラスのいずれかに 各々分類する第 1の領域分類ステップと、前記複数の領域のうち、一の領域の前記 第 1の領域分類ステップによる分類結果を、前記一の領域の近傍に位置する領域の 前記第 1の領域分類ステップによる分類結果に基づいた評価値を算出することにより 評価する評価値算出ステップと、前記評価値算出ステップにおける評価値に基づき
、前記一の領域を前記複数のクラスのレ、ずれかに分類する第 2の領域分類ステップ と、を具備したことを特徴とする。
[0068] 本発明の第 25の画像処理方法は、前記第 24の画像処理方法において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0069] 本発明の第 26の画像処理方法は、撮像機能を有する医療機器により撮像された 画像に応じた画像信号を入力する画像信号入力部において入力した画像信号に基 づき、該医療機器により撮像された前記画像を複数の領域に分割する画像分割ステ ップと、前記画像分割ステップにより分割された複数の領域各々における特徴量を算 出する特徴量算出ステップと、前記複数の領域のうち、一の領域を注目領域として設 定する注目領域設定ステップと、前記注目領域から所定の距離だけ離れた領域であ る近傍外周領域を検出する近傍外周領域検出ステップと、前記近傍外周領域にお いて、前記特徴量に基づき、略円形形状の輪郭部の少なくとも一部が存在することを 検出する略円形形状検出ステップと、前記略円形形状検出ステップにより、前記略 円形形状が検出された場合、前記注目領域を抽出する領域抽出ステップと、を具備 したことを特徴とする。
[0070] 本発明の第 27の画像処理方法は、前記第 26の画像処理方法において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。 [0071] 本発明の第 28の画像処理方法は、前記第 26の画像処理方法において、前記略 円形形状検出ステップは、前記近傍外周領域のうち、前記略円形形状の輪郭部の 少なくとも一部が存在する領域の割合が所定の閾値以上であると判断した場合に略 円形形状を検出し、前記領域抽出ステップは、前記注目領域を前記略円形形状の 中央部が存在する領域として抽出することを特徴とする。
[0072] 本発明の第 29の画像処理方法は、前記第 26の画像処理方法において、前記略 円形形状は、泡であることを特徴とする。
[0073] 本発明の第 30の画像処理方法は、前記第 28の画像処理方法において、前記略 円形形状は、泡であることを特徴とする。
[0074] 本発明の第 31の画像処理方法は、撮像機能を有する医療機器により撮像された 画像に応じた画像信号を入力する画像信号入力部において入力した画像信号に基 づき、該医療機器により撮像された前記画像を複数の領域に分割する画像分割ステ ップと、前記画像分割ステップにより分割された複数の領域各々における特徴量を算 出する特徴量算出ステップと、前記特徴量算出ステップにおいて算出された特徴量 と、所定の分類基準とに基づき、前記複数の領域を複数のクラスのいずれかに各々 分類する領域分類ステップと、前記複数のクラスのうち、構造的に明確な特徴を有す るクラスとして予め設定された所定のクラスに分類される領域を、前記複数の領域か ら検出する領域検出ステップと、前記領域検出ステップにおレ、て検出された前記領 域が有する前記特徴量に基づき、前記領域分類ステップにおける前記所定の分類 基準を設定する分類基準設定ステップと、を具備したことを特徴とする。
[0075] 本発明の第 32の画像処理方法は、前記第 31の画像処理方法において、前記特 徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なくとも一方 の特徴量を有することを特徴とする。
[0076] 本発明の第 33の画像処理方法は、前記第 31の画像処理方法において、前記所 定のクラスは、泡クラスまたは絨毛クラスのうち、少なくとも 1つのクラスであることを特 徴とする。
図面の簡単な説明
[0077] [図 1]第 1の実施形態である画像処理動作が行われる画像処理装置および周辺機器 の外観を示した外観正面図。
[図 2]第 1の実施形態の画像処理装置において処理する所定の画像情報を生成する カプセル型内視鏡の一部を切り取って示した要部拡大断面図。
園 3]第 1の実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視 鏡装置の概略内部構成を示すブロック図。
園 4]第 1の実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視 鏡装置の一使用例を示した図。
園 5]図 2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチヤ ート。
園 6]図 2に示すカプセル型内視鏡の位置検出を説明する説明図。
園 7]図 3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示 した要部拡大断面図。
園 8]図 3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを 説明する説明図。
園 9]図 3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明 する説明図。
園 10]図 2に示すカプセル型内視鏡の電気的な構成を示すブロック図。
[図 11]第 1の実施形態に係る画像処理動作を示すフローチャート。
[図 12]第 1の実施形態に係る画像処理動作にぉレ、て、入力された画像が(m X n)個 の領域に分割される際の一例を示す図。
園 13]教師データを構成する複数の画像のうち、胃粘膜の画像の一例を示す図。 園 14]教師データを構成する複数の画像のうち、絨毛の画像の一例を示す図。 園 15]教師データを構成する複数の画像のうち、便の画像の一例を示す図。
園 16]教師データを構成する複数の画像のうち、泡の画像の一例を示す図。
園 17]カプセル型内視鏡により撮像された体腔内の像の画像の一例を示す模式図。 園 18]図 17に示す画像の分類結果の一例を示す図。
[図 19]第 1の実施形態に係る画像処理動作において、図 11とは異なる画像処理動 作を示すフローチャート。 [図 20]ディスプレイに表示されるビュヮ一の画像のうち、メインメニュー画面の一例を 示す図。
[図 21]第 2の実施形態に係る画像処理動作を示すフローチャート。
[図 22]第 3の本実施形態に係る画像処理動作を示すフローチャート。
[図 23]第 4の実施形態に係る画像処理動作を示すフローチャート。
[図 24]第 5の実施形態に係る画像処理動作の一部を示すフローチャート。
[図 25]第 5の実施形態に係る画像処理動作の一部として、図 24のフローチャートに 示す処理が行われた後に行われる、画像の表示制御動作を示すフローチャート。
[図 26]第 6の実施形態に係る画像処理動作の一部を示すフローチャート。
園 27]図 26の処理に引き続いて行われる、第 6の実施形態に係る画像処理動作の 一部を示すフローチャート。
園 28]図 27の処理に引き続いて行われる、第 6の実施形態に係る画像処理動作の 一部を示すフローチャート。
[図 29A]第 6の実施形態に係る画像処理動作において、エッジ特徴量(エッジ特徴べ タトル)を決定する際に指標となる 8つの方向のうち、一の方向を示す図。
[図 29B]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aとは異なる一の方向を示す図。
[図 29C]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29A及び図 29Bとは異なる一の方向を示す図。
[図 29D]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aから図 29Cまでとは異なる一の方向を示す図
[図 29E]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aから図 29Dまでとは異なる一の方向を示す図
[図 29F]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aから図 29Eまでとは異なる一の方向を示す図 [図 29G]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aから図 29Fまでとは異なる一の方向を示す図
[図 29H]第 6の実施形態に係る画像処理動作において、エッジ特徴量を決定する際 に指標となる 8つの方向のうち、図 29Aから図 29Gまでとは異なる一の方向を示す図 園 30]第 6の実施形態に係る画像処理動作において設定される、中心領域と最外周 領域との位置関係を示す図。
園 31]第 6の実施形態に係る画像処理動作において設定される、エッジ特徴ベクトル の方向と、ベクトル VIの方向とがなす角度を示す図。
[図 32]第 7の実施形態に係る画像処理動作の一部を示すフローチャート。
園 33]図 32の処理に引き続いて行われる、第 7の実施形態に係る画像処理動作の 一部を示すフローチャート。
園 34]第 7の実施形態に係る画像処理動作において、入力された画像が(m X n)個 の領域に分割される際の一例を示す図。
[図 35]第 8の実施形態の画像処理装置における画像処理動作を示すフローチャート
[図 36]第 8の実施形態の画像処理装置における画像処理動作を示すフローチャート 園 37]第 8の実施形態の画像処理動作において、一の領域における近傍領域を決 定する際の一例を示す図。
園 38]第 8の実施形態の画像処理動作において用いられる、カプセル型内視鏡によ り撮像された体腔内の像の画像の一例を示す模式図。
[図 39]図 38に示す画像の分類結果の一例を示す図。
園 40]図 39に示す分類結果に基づき、第 8の実施形態の画像処理動作を行った後 の再分類結果を示す図。
[図 41]第 9の実施形態における画像処理動作を示すフローチャート。
[図 42]第 9の実施形態における画像処理動作を示すフローチャート。 [図 43]第 9の実施形態における画像処理動作において、 4 X 4の画素数を有する小 矩形領域各々に対して仮想的に付与する番号の配列の一例を示す図。
[図 44]第 9の実施形態における画像処理動作において、一の矩形領域 ROに対する 近傍外周領域 Htの位置関係を示す図。
[図 45]第 9の実施形態における画像処理動作において、近似 gradientベクトル Ygi 及び方向ベクトル: mがなす角度 Θ tの一例を示す図。
[図 46]第 9の実施形態において用いられるカプセル型内視鏡により撮像された体腔 内の像の画像の一例を示す模式図。
[図 47]図 46に示す画像の分類結果の一例を示す図。
発明を実施するための最良の形態
[0078] 以下、図面を参照して本発明の実施の形態を説明する。
[0079] (第 1の実施形態)
図 1から図 20は、本発明の第 1の実施形態に係るものである。図 1は、本発明の第 1 の実施形態である画像処理動作が行われる画像処理装置および周辺機器の外観を 示した外観正面図である。図 2は、本実施形態の画像処理装置において処理する所 定の画像情報を生成するカプセル型内視鏡の一部を切り取って示した要部拡大断 面図である。図 3は、本実施形態の画像処理装置に所定の画像情報を供給するカブ セル型内視鏡装置の概略内部構成を示すブロック図である。図 4は、本実施形態の 画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の一使用例を 示した図である。図 5は、図 2に示すカプセル型内視鏡から出力される信号の一例を 示したタイミングチャートである。図 6は、図 2に示すカプセル型内視鏡の位置検出を 説明する説明図である。図 7は、図 3に示すカプセル型内視鏡装置を使用した際に おけるアンテナユニットを示した要部拡大断面図である。図 8は、図 3に示すカプセル 型内視鏡装置を使用した際におけるシールドジャケットを説明する説明図である。図 9は、図 3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明 する説明図である。図 10は、図 2に示すカプセル型内視鏡の電気的な構成を示すブ ロック図である。図 11は、本実施形態に係る画像処理動作を示すフローチャートであ る。図 12は、本実施形態に係る画像処理動作において、入力された画像が(m X n) 個の領域に分割される際の一例を示す図である。図 13は、教師データを構成する複 数の画像のうち、胃粘膜の画像の一例を示す図である。図 14は、教師データを構成 する複数の画像のうち、絨毛の画像の一例を示す図である。図 15は、教師データを 構成する複数の画像のうち、便の画像の一例を示す図である。図 16は、教師データ を構成する複数の画像のうち、泡の画像の一例を示す図である。図 17は、カプセル 型内視鏡により撮像された体腔内の像の画像の一例を示す模式図である。図 18は、 図 17に示す画像の分類結果の一例を示す図である。図 19は、本実施形態に係る画 像処理動作において、図 11とは異なる画像処理動作を示すフローチャートである。 図 20は、ディスプレイに表示されるビュヮ一の画像のうち、メインメニュー画面の一例 を示す図である。
[0080] 本発明の第 1の実施形態である画像処理装置に所定の画像情報を供給するカブ セル型内視鏡装置 1は、図 3に示すように、カプセル型内視鏡 3、アンテナユニット 4 及び外部装置 5とにより主要部が構成されている。
[0081] 医療機器としてのカプセル型内視鏡 3は、詳細は後述するが、被検体である患者 2 のロカ 体腔内に飲み込まれることにより体腔内に配置された後、蠕動運動により消 化管内を進行する形状に形成され、かつ、内部に体腔内を撮像し、その撮像画像情 報を生成する撮像機能と、その撮像画像情報を体外に送信する送信機能とを有して いる。アンテナユニット 4は、詳細は後述するが、患者 2の身体表面上に設置され、前 記カプセル型内視鏡 3から送信される撮像画像情報を受信する複数の受信アンテナ
11を有している。外部装置 5は、外形が箱形形状に形成されており、詳細は後述す るが、前記アンテナユニット 4が受信した撮像画像情報の各種処理、撮像画像情報 の記憶、及び撮像画像情報による撮像画像表示等の機能を有している。この外部装 置 5の外装の表面に前記撮像画像を表示させる液晶モニタ 1 2と、各種機能の操作 指示を行う操作部 13とが設けられている。
[0082] また、この外部装置 5は、駆動電源用の電池の残量に関する警告表示用の LEDと 、電源スィッチ等のスィッチからなる操作部 13とが外装の表面に設けられている。又 、カプセル型内視鏡 3の内部には、 CPU及びメモリを用いた演算実行部が設けられ ており、例えば、該演算実行部において、受信及び記憶した撮像画像情報に対して 後述する本発明に係る画像処理方法が実行されるような構成であっても良い。
[0083] この外部装置 5は、患者 2の身体に着脱自在に装着されると共に、図 1に示すように 、クレードル 6に装着されることにより、本発明の第 1の実施形態である画像処理装置 (以下、端末装置と記す) 7に着脱自在に接続されるようになっている。この端末装置 7は、たとえば、パーソナルコンピュータが用いられ、各種データの処理機能や記憶 機能を有する端末本体 9と、各種操作処理入力用のキーボード 8a及びマウス 8bと、 及び各種処理結果を表示する、表示部としての機能を有するディスプレイ 8cとを有し ている。この端末装置 7は、基本的機能として、例えば、前記外部装置 5に記憶され ている撮像画像情報をクレードル 6を介して取り込み、端末本体 9に内蔵されている 書換可能なメモリ、或いは端末本体 9に着脱自在な書換可能な半導体メモリ等の可 搬型メモリに書込記憶させ、かつ、その記憶した撮像画像情報をディスプレイ 8cに表 示する画像処理を行うような機能を有している。なお、前記外部装置 5に記憶されて いる撮像画像情報は、前記クレードル 6に代えて、 USBケーブル等によって端末装 置 7に取り込まれるようにしても良い。
[0084] なお、端末装置 7が行う画像処理は、例えば、前記外部装置 5から取り込み、図示 しない記憶部としての機能を有するメモリ等に記憶された撮像画像情報から経過時 間に応じて表示させる画像を選択する処理、及び後述する本発明に係る画像処理 方法に基づく処理として、端末本体 9が有する制御部 9aにおいて行われるものであ るとする。制御部 9aは、 CPU等からなり、例えば、前述したような処理を行う場合に、 処理結果を一時的に図示しないレジスタ等に保持することができる。
[0085] 次に、前記カプセル型内視鏡 3の外形と内部構造について、図 2を用いて説明する 。カプセル型内視鏡 3は、断面が U字状の外装部材 14と、この外装部材 14の先端側 の開放端に接着剤により水密装着された透明部材により形成された略半球形状の力 バー部材 14aとからなる。そのため、カプセル型内視鏡 3の外装は、外装部材 14と、 カバー部材 14aとが接続された状態においては、水密構造かつカプセル形状を有す るように形成されている。
[0086] この外装部材 14とカバー部材 14aからなるカプセル形状の内部中空部であって、 前記カバー部材 14aの半球の円弧の略中央にあたる部分には、カバー部材 14aを 介して入射された観察部位像を取り込む対物レンズ 15がレンズ枠 16に収納されて 配置されている。この対物レンズ 15の結像位置には、撮像素子である電荷結合素子 (以降、 CCDと記す) 17が配置されている。また、前記対物レンズ 15を収納するレン ズ枠 16の周囲には、照明光を発光放射させる 4つの白色系の LED18が同一平面 上に配置されてレ、る(図中には 2つの LEDのみを表記してレ、る)。前記 CCD17の後 端側の前記外装部材 14の内部中空部には、前記 CCD17を駆動制御して光電変換 された撮像信号の生成、その撮像信号に所定の信号処理を施して撮像画像信号を 生成する撮像処理、及び前記 LED18の点灯 Z非点灯の動作を制御する LED駆動 の処理を行う処理回路 19と、この処理回路 19の撮像処理により生成された撮像画像 信号を無線信号に変換して送信する通信処理回路 20と、この通信処理回路 20から の無線信号を外部に送信する送信アンテナ 23と、前記処理回路 19と通信処理回路 20の駆動用電源を供給する複数のボタン型の電池 21とが配置されている。
[0087] なお、 CCD17、 LED18、処理回路 19、通信処理回路 20及び送信アンテナ 23は 、図示しない基板上に配置され、それらの基板の間は、図示しないフレキシブル基板 にて接続されている。また、前記処理回路 19には、後述する画像処理を行うための 図示しない演算回路を備えている。つまり、前記カプセル型内視鏡 3は、図 3に示す ように、前記 CCD17、 LED18及び処理回路 19を有する撮像装置 43と、前記通信 処理回路 20を有する送信器 37と、送信アンテナ 23とを有する。
[0088] 次に、前記カプセル型内視鏡 3の撮像装置 43の詳細構成について、図 10を用い て説明する。撮像装置 43は、 LED18の点灯/非点灯の動作を制御する LEDドライ バ 18Aと、 CCD17の駆動を制御して光電変換された電荷の転送を行う為の CCDド ライバ 17Aと、前記 CCD17から転送された電荷を用いて撮像信号を生成し、かつ、 その撮像信号に所定の信号処理を施して撮像画像信号を生成する処理回路 19Aと 、前記 LEDドライバ 18A、 CCDドライバ 17A、処理回路 19A、及び送信器 37に電 池 21からの駆動電源を供給するスィッチ部と、前記スィッチ部及び CCDドライバ 17 Aにタイミング信号を供給するタイミングジェネレータ 19Bとを有する。なお、前記スィ ツチ部は、電池 21から前記 LEDドライバ 18Aへの電源供給をオン/オフをするスィ ツチ 19Cと、前記 CCD17、 CCDドライバ 17A及び処理回路 19Aへの電源供給をォ ン 'オフするスィッチ 19Dと、前記送信器 37への電源供給をオン/オフするスィッチ 19Eとを有する。また、前記タイミングジェネレータ 19Bには、電池 21から常時駆動 電源が供給されるようになっている。
[0089] このような構成を有するカプセル型内視鏡 3の撮像装置 43においては、スィッチ 19 Cと、スィッチ 19Dと、スィッチ 19Eとがオフ状態である場合、タイミングジェネレータ 1 9B以外の各部は非動作状態である。そして、タイミングジェネレータ 19Bからタイミン グ信号が出力されると、前記スィッチ 19Dがオンされ、これにより、電池 21から電源が 供給された CCD17、 CCDドライバ 17A及び処理回路 19Aは動作状態となる。
[0090] 前記 CCD17の駆動初期時に、 CCD17の電子シャッターを動作させて、不要な喑 電流を除去した後、タイミングジェネレータ 19Bは、スィッチ 19Cをオンさせて LEDド ライバ 18Aを駆動させて LED18を点灯させ CCD17を露光する。 LED18は、 CCD 17の露光に必要な所定の時間だけ点灯された後、消費電力低減の為に、スィッチ 1 9Cがオフしたタイミングにおいて消灯される。
[0091] 前記 CCD17の露光が行われた前記所定の時間内に蓄えられた電荷は、 CCDドラ ィバ 17Aの制御により処理回路 19Aへ転送される。処理回路 19Aは、 CCD17力 転送された電荷を基に撮像信号を生成し、その撮像信号に所定の信号処理を施し て内視鏡画像信号を生成する。処理回路 19Aは、例えば、送信器 37から送信される 信号がアナログ無線方式である場合、 CDS出力信号に対して複合同期信号を重畳 させたアナログ撮像信号を生成した後、該アナログ撮像信号を内視鏡画像信号とし て送信器 37へ出力する。また、処理回路 19Aは、例えば、送信器 37から送信される 信号がデジタル無線方式である場合、アナログ/デジタルコンバータにより生成した シリアルなデジタル信号に対し、さらにスクランブル等の符号ィ匕処理を施したデジタ ル撮像画像信号を生成し、該デジタル撮像信号を内視鏡画像信号として送信器 37 へ出力する。
[0092] この送信器 37は、前記処理回路 19Aから供給された内視鏡画像信号である、アナ ログ撮像画像信号またはデジタル撮像画像信号に対して変調処理を施して送信アン テナ 23から外部へ無線送信する。この時、スィッチ 19Eは、前記処理回路 19Aから 撮像画像信号が出力されたタイミングにおいてのみ送信器 37に駆動電力が供給さ れるように、タイミングジェネレータ 19Bによりオン/オフされる。
[0093] なお、スィッチ 19Eは、処理回路 19Aから撮像画像信号が出力されてから所定の 時間が経過した後に、送信器 37に駆動電力が供給されるように制御されても良い。 また、スィッチ 19Eは、カプセル型内視鏡 3に設けられた、図示しない pHセンサーに よる所定値の pH値の検出、図示しない湿度センサーによる所定値以上の湿度の検 出、図示しない圧力センサーまたは図示しない加速度センサーによる所定値以上の 圧力または加速度の検出等の検出結果に基づいてタイミングジェネレータ 19Bから 出力される信号により、被検体である患者 2の体腔内に挿入された際に、送信器 37 に電源を供給するように制御されるような構成を有していても良い。
[0094] なお、前記カプセル型内視鏡 2の撮像装置 43は、通常毎秒 2枚の画像(毎秒 2フレ ーム = 2fps)を撮像するものである力 例えば、食道の検査の場合は、毎秒 15〜30 枚の画像(15fps〜30fps)を撮像できるようにする。具体的には、カプセル型内視鏡 3に、図示しないタイマー回路を設け、このタイマー回路により、例えば、タイマーカウ ントが所定時間以内においては毎秒当たりの撮像枚数の多い高速撮像とし、所定時 間が経過した後は、毎秒当たりの撮像枚数の少ない低速撮像となるように撮像装置 4 3の駆動を制御させる。或いは、カプセル型内視鏡 3の電源の投入と共にタイマー回 路を作動させて、このタイマー回路により、例えば、患者 2が飲み込んだ直後の食道 を通過するまでの時間は高速撮像となるように、撮像装置 43の駆動を制御させること も可能である。さらに、低速撮像用カプセル型内視鏡と高速撮像用カプセル型内視 鏡とを個別に設けて、観察対象部位に応じて使い分けるようにしても良い。
[0095] 次に、前記患者 2の身体表面上に設置されるアンテナユニット 4について説明する 。図 4に示すように、カプセル型内視鏡 3を飲み込んで内視鏡検查を行う場合、患者 2は、複数の受信アンテナ 11からなるアンテナユニット 4が設置されたジャケット 10を 装着する。このアンテナユニット 4は、図 7に示すように、たとえば、 GPSに使用されて レ、るパッチアンテナのような単方向の指向性を有する複数の受信アンテナ 11を患者 2の身体内方向にその指向性を向けて配置する。つまり、カプセル型内視鏡 3のカプ セル本体 3Dは、身体内に留置されるため、その身体内のカプセル本体 3Dを取り囲 むように前記複数のアンテナ 11が配置される。この指向性の高いアンテナ 11を使用 することにより、身体内のカプセル本体 3D以外からの電波による干渉妨害の影響を 受けにくくしている。
[0096] 前記ジャケット 10は、図 8に示すように、患者 2の身体表面に設置する前記アンテナ ユニット 4と、ベルトにより患者 2の腰に設置された外部装置 5の本体部 5Dを覆うよう に電磁シールド繊維で形成されたシールドジャケット 72とからなる。このシールドジャ ケット 72を形成する電磁シールド繊維は、金属繊維、金属化学繊維または硫化銅含 有繊維等が用いられている。なお、このシールドジャケット 72は、ジャケット形状に限 るものではなぐ例えば、ベストまたはワンピース形状等であっても良い。
[0097] 又、前記シールドジャケット 72に前記外部装置 5を装着する例として、図 9に示すよ うに、前記外部装置 5の外部本体 5Dに鍵穴 74を設け、前記シールドジャケット 72に 設けた鍵 75を前記鍵穴 74に差し込むことにより、ベルト 73に着脱自在に装着できる ようにする。或いは、単にシールドジャケット 72に図示しないポケットを設け、そのポケ ットに外部本体 5Dを収納しても良ぐ又は、外部装置 5の外部本体 5Dとシールドジャ ケット 72にマジックテープ (登録商標)を設置し、そのマジックテープ (登録商標)によ り取付固定しても良い。
[0098] つまり、アンテナユニット 4が配置された身体にシールドジャケット 72を装着すること により、アンテナユニット 4に対する外部からの電波がシールド遮蔽されて、外部電波 による干渉妨害の影響を一層受けに《している。
[0099] 次に、前記アンテナユニット 4と外部装置 5の構成について、図 3を用いて説明する 。前記アンテナユニット 4は、前記カプセル型内視鏡 3の送信アンテナ 23から送信さ れた無線信号を受信する複数の受信アンテナ l la〜l Idと、このアンテナ l la〜l l dを切り替えるアンテナ切換スィッチ 45とからなる。前記外部装置 5は、アンテナ切換 スィッチ 45からの無線信号を撮像画像信号に変換及び増幅等の受信処理を行う受 信回路 33と、この受信回路 33から供給された撮像画像信号に所定の信号処理を施 して、撮像画像の表示用信号及び撮像画像データを生成する信号処理回路 35と、 この信号処理回路 35により生成された撮像画像表示用信号に基づいて撮像画像を 表示する液晶モニタ 12と、前記信号処理回路 35により生成された撮像画像データを 記憶するメモリ 47と、前記受信回路 33により受信処理された無線信号の大きさにより 前記アンテナ切換スィッチ 45を制御するアンテナ選択回路 46とからなる。
[0100] 前記アンテナユニット 4の図中受信アンテナ l la〜l Idとして示した複数の受信ァ ンテナ 11は、前記カプセル型内視鏡 3の送信アンテナ 23から一定の電波強度により 送信された無線信号を受信する。この複数の受信アンテナ 11 a〜: l idは、前記外部 装置 5のアンテナ選択回路 46からのアンテナ選択信号によりアンテナ切替スィッチ 4 5が制御されて、前記無線信号を受信する受信アンテナを順次切り替える。つまり、 前記アンテナ切替スィッチ 45により順次切り替えられた受信アンテナ l la〜d毎に受 信した無線信号が前記受信器 33に出力される。この受信器 33において、受信アン テナ l la〜l Id毎の無線信号の受信強度を検出して、各受信アンテナ 11a〜: l idと カプセル型内視鏡 3の位置関係を算出すると共に、その無線信号を復調処理して撮 像画像信号を信号処理回路 35へと出力する。前記アンテナ選択回路 46は、前記受 信器 33からの出力によって制御される。
[0101] 前記アンテナ選択回路 46によるアンテナ切替スィッチ 45の動作について説明する 。前記カプセル型内視鏡 3から送信される無線信号は、図 5に示すように、撮像画像 信号の 1フレームの送信期間に、無線信号の受信強度を示す受信強度信号の送信 期間である強度受信期間と、撮像画像信号の送信期間である映像信号期間とが順 次繰り返されて送信されるとする。
[0102] 前記アンテナ選択回路 46は、前記受信回路 33を介して、各受信アンテナ l la〜l Idが受信した受信強度信号の受信強度が供給される。前記アンテナ選択回路 46は 、前記受信器 33からの供給された各アンテナ l la〜l Idの受信強度信号の強度を 比較して、映像信号期間の撮像画像信号を受信する最適な受信アンテナ、つまり、 受信強度信号の強度が最も高レ、アンテナ 1 li (i = a〜d)を決定して、アンテナ切替 回路 45をそのアンテナ l liに切り替えるための制御信号を生成出力する。これにより 、現在画像信号を受信しているアンテナよりも、他のアンテナの受信強度信号の受信 強度が高い場合には、映像信号期間の受信アンテナを次フレーム分力 切り替える ようにする。
[0103] このように、カプセル型内視鏡 3からの無線信号を受信するたびに、撮像画像信号 、又は受信強度信号の受信強度を比較し、この比較結果を受けたアンテナ選択回路 46によって受信強度が最大となるアンテナ l liを画像信号受信用のアンテナとを指 定するようにしてレ、る。これにより、カプセル型内視鏡 3が患者 2の体内で移動しても、 その移動位置において最も受信強度の高い信号を検出できるアンテナ 11により取得 した画像信号を受信することができる。また、体内でのカプセル型内視鏡 3の移動速 度は非常に遅い部分と早い部分に分かれるので、撮像動作 1回につき常にアンテナ 切替動作を 1回行うとは限らず、高速撮像モードなどでは複数回の撮像動作に対し てアンテナ切替動作を 1回行うようにしてもょレ、。
[0104] なお、カプセル型内視鏡 3は、患者 2の体内を移動しているので、適宜の時間間隔 で外部装置 5から電波強度を検出した結果である検出結果信号を送り、その信号に 基づいてカプセル型内視鏡 3が送信する際のその出力を更新するようにしてもよい。 このようにすれば、カプセル型内視鏡 3が患者 2の体内を移動した場合にも、適切な 送信出力に設定でき、電池 21のエネルギを無駄に消費すること等を防止でき、信号 の送受信状態を適切な状態に維持できるようになる。
[0105] 次に、前記複数の受信アンテナ 11とカプセル型内視鏡 3の位置関係を示す情報の 取得方法について、図 6を用いて説明する。なお、図 6において、カプセル型内視鏡 3を 3次元座標 X、 Y、 Ζの原点に設定した場合を例に説明する。又、前記複数の受 信アンテナ l la〜l ldのうち、説明を簡単化するために、 3つの受信アンテナ l la、 1 lb、 11cを用い、受信アンテナ 11aと受信アンテナ l ibとの間の距離を Dab、受信ァ ンテナ l ibと受信アンテナ 11cとの間の距離を Dbc、受信アンテナ 11aと受信アンテ ナ 11cとの間の距離 Dacとしている。さらに、この受信アンテナ l la〜l lcとカプセル 型内視鏡 3の間は、所定の距離関係としている。
[0106] カプセル型内視鏡 3の送信された一定の送信強度の無線信号は、各受信アンテナ l lj (j = a、 b、 c)で受信した場合の受信強度は、カプセル型内視鏡 3 (カプセル型内 視鏡 3の送信アンテナ 23)からの距離 Li (i = a, b, c)の関数となる。具体的には電波 減衰量が伴う距離 Liに依存する。従って、カプセル型内視鏡 3から送信された無線 信号の受信アンテナ l ljにより受信した受信強度からカプセル型内視鏡 3と各受信ァ ンテナ l ljとの間の距離 Liを算出する。この距離 Liの算出には、前記カプセル型内 視鏡 3と受信アンテナ l ljの間の距離による電波の減衰量などの関係データを事前 に前記アンテナ選択回路 46に設定する。又、その算出されたカプセル型内視鏡 3と 各受信アンテナ 1 ljの位置関係を示す距離データは、前記メモリ 47にカプセル型内 視鏡 3の位置情報として記憶させる。このメモリ 47に記憶された撮像画像情報及び力 プセル型内視鏡 3の位置情報を基に、前記端末装置 7による後述する画像情報処理 方法において、内視鏡観察所見の位置設定に有用となる。
[0107] 次に、本実施形態の画像処理装置における画像処理動作について説明を行う。
[0108] なお、本実施形態においては、カプセル型内視鏡 3により撮像された体腔内の像の 画像は、大きさ ISX X ISY(1≤ISX、 1≤ IS Yを満たす値であり、例えば、 ISX= 300 、 ISY= 300)、 RGBの 3プレーンからなり、各プレーンにおける各画素は各々 8bit、 すなわち、 0力 255の値をとるものとする。また、本実施形態においては、時間的に 連続して撮像された N枚の画像(1≤N)における i番目の画像を Ii (l≤i≤N)、その RGB各プレーンをそれぞれ Ri、 Gi及び Biと示すものとする。さらに、本実施形態に おいては、各プレーンにぉける 番目の画素(1≤ ≤13 13丫)をそれぞれ rik、 gi k及び bikと示すものとする。
[0109] なお、本実施形態における画像処理装置における画像処理動作は、上述した端末 装置 7の端末本体 9が有する制御部 9aにおける処理として行われるものとする。
[0110] まず、画像信号入力部及び画像入力部としての機能を有する制御部 9aは、カプセ ル型内視鏡 3により撮像された体腔内の像の画像に基づく画像信号を入力し、入力 された i番目の画像 Iiを構成する Ri、 Gi及び Biの各プレーンに対し、前処理として、 例えば、メディアンフィルタリングによるノイズ除去及び逆 γ補正を行うと共に、ハレー シヨン画素及び暗部画素を以降の処理対象から除外するため、閾値に基づく処理に より検出しておく(図 11のステップ Sl)。そして、前記閾値に基づく処理は、例えば、 r ik、 gik及び bikの濃度値の全てが 10以下の値であれば喑部画素、また、 rik、 gik及 び bikの濃度値の全てが 230以上の値であればハレーション画素とするような処理と して行われる。
[0111] その後、画像分割部及び領域設定部としての機能を有する制御部 9aは、 Ri、 Gi及 び Biの各プレーンを小領域に分割する(図 11のステップ S2)。なお、本実施形態に おいて、制御部 9aは、図 12に示すように、 Ri、 Gi及び Biの各プレーンを、 x軸方向の 画素数 lx X y軸方向の画素数 ly (l≤lx、 1≤ly)からなる矩形領域に分割するものと し、その領域数は(m X n)個(m=ISX/lx、 n=ISY/ly)であるものとする。また、 制御部 9aは、 mまたは nが整数とならなレ、場合にぉレ、ては、大きさが端数となる最端 部の領域を、端数の画素数を有する領域として処理するか、または以降の処理対象 力 除外するものとする。
[0112] 特徴量算出部としての機能を有する制御部 9aは、分割した各領域において、撮像 対象の像の画像上における色の違いを反映する色調情報、及び撮像対象の像の画 像上における構造の違いを反映するテクスチャ情報を特徴量として算出する(図 11 のステップ S3)。なお、以降の説明においては、制御部 9aにおいて分割された領域 のうち、一の領域を Hst (l≤s≤m、 l≤t≤n)と示すものとする。
[0113] 本実施形態において、制御部 9aが算出する色調情報は、一の領域 Hstに含まれる 各画素の RGB値の比に基づく値としての、 gik/rikの平均値(以降、 x gstと記す) 及び bik/rikの平均値(以降、 /i bstと記す)からなる、 2つの特徴量として示される 値である。なお、 /i gst及び の各値は、 0力 1の値をとるものとする。また、 /i gs t及び/ i bstの各値は、例えば、胃粘膜のような比較的赤色調を示す領域においては 、略同様に小さな値をとる。一方、 /i gst及び Ai bstの各値は、例えば、小腸のような 比較的白色調を示す領域においては、略同様に大きな値をとる。また、 / gst及び/ bstの各値は、例えば、便のような比較的黄色調を示す領域においては、 μ gst > μ bstとなるような値をとる。
[0114] 本実施形態において、制御部 9aが算出するテクスチャ情報は、前述したように、撮 像対象の像の画像上における構造の違いを反映するものである。そして、撮像対象 の像の画像上における構造は、例えば、粘膜表面における絨毛等の微細構造、及 び便が有する不定形な模様等として示されるものである。具体的には、制御部 9aが 算出するテクスチャ情報は、一の領域 Hstに含まれる各画素の RGB値の標準偏差 a rst、 a gst及び a bstを、一の領域 Hstに含まれる各画素の RGB値の平均値 mrst 、 mgst及び mbstで除したものである、 3つの特徴量として示される RGB値の変動係 数 CVrst、 CVgst及び CVbstである。なお、変動係数 CVrst、 CVgst及び CVbstを 算出するための計算式は、下記数式(1)、数式 (2)及び数式 (3)として示される。 [0115] CVrst = σ rst/mrst · · · (1)
CVgst= σ gst/mgst · · · (2)
CVbst = σ bst/mbst · · · (3) 上記数式(1)、数式(2)及び数式(3)により算出される変動係数 CVrst、 CVgst及 び CVbstにより、撮像対象に対して供給される照明光量の違い等による影響によら ず、テクスチャ構造による画素変動の程度を数値化することができる。 CVrst, CVgs t及び CVbstの各値は、例えば、拡大観察を行っていない状態である、通常観察に おいて撮像された胃粘膜のような、画像上における構造が比較的平坦な領域におい ては、明瞭なテクスチャ構造がないため、略同様に小さな値をとる。一方、 CVrst、 C Vgst及び CVbstの各値は、例えば、小腸の絨毛のような、画像上における構造にェ ッジを比較的多く含む領域においては、略同様に大きな値をとる。
[0116] なお、本実施形態の制御部 9aが行う以降の処理においては、色調情報及びテクス チヤ情報を有する 5つの特徴量を使用するが、この特徴量を構成する値は、ユーザ の用途等に応じ、適宜変更または追加することが可能である。例えば、制御部 9aは、 色調情報としての μ gstの値及び/ i bstの値に代わり、色度として示される値である、 各領域の各画素における rik、 gik及び bikの比率、すなわち、 rik/ (rik + gik + bik) 、 gik/ (rik + gik + bik)及び bik/ (rik + gik + bik)の値を使用して以降の処理を 行うものであっても良い。
[0117] そして、制御部 9aは、色調情報及びテクスチャ情報からなる 5つの特徴量、すなわ ち、 /i gst、 t bst, CVrst, CVgst及び CVbstの各値を、ハレーション画素及び暗部 画素を除いた各画素の RGB値に基づき、(m X n)個の領域 Hst各々において算出 する。なお、本実施形態においては、一の領域 Hstが有する、 (lx X ly)個の画素に おいて、例えば、ハレーション画素の個数と、喑部画素の個数との和が占める割合が 50%を超えた場合、一の領域 Hstを以降の処理から除外するような制御が行われる ものであっても良い。
[0118] その後、領域分類部としての機能を有する制御部 9aは、分割した領域 Hstにおい て各々算出された 5個の特徴量に基づく識別分類を実行することにより、領域毎の撮 像対象が何であるかを識別した後、該識別結果に基づいて領域 Hstを各々分類する
[0119] 具体的には、まず、制御部 9aは、胃粘膜、絨毛、便及び泡からなる 4つのクラスの 教師データを構成する画像として予め用意された、例えば、図 13、図 14、図 15及び 図 16に示すような画像に基づき、該画像の一の領域各々において都度決定される、 前述した 5個の特徴量を算出した後、該 4つのクラス各々についての線形判別関数 を作成する。そして、制御部 9aは、前述した手順により算出した、識別器としての線 形判別関数を用レ、、例えば、胃粘膜、絨毛、便及び泡からなる 4つのクラスのうち、一 の領域 Hstがどのクラスに属するかを識別し、該識別結果に基づく分類を行う。制御 部 9aは、以上に述べたような識別及び分類を画像 Iiが有する領域 Hst全てに対して 行うことにより、例えば、図 17に示すような画像が入力された場合、図 18に示すような 、絨毛と泡とが分類されたような分類結果を得る(図 11のステップ S4)。
[0120] なお、本実施形態の制御部 9aが画像の一の領域各々に対し、識別器を用いて行う 識別及び分類は、線形判別関数によるものに限るものではなぐ例えば、 2次分類規 貝 IJまたはニューラルネットワーク等の手法によるものであっても良い。また、本実施形 態においては、制御部 9aは、胃粘膜、絨毛、便及び泡の 4クラスのいずれかというこ ととして、入力される画像の一の領域各々に対する識別及び分類を行ったが、分類さ れるクラスの数及び種類は、ユーザの用途等に応じ、適宜変更または追加することが 可能である。制御部 9aは、前述した 4クラスに加え、例えば、食道あるいは大腸粘膜 の分類を行うものであっても良いし、また、十二指腸と絨毛とを別のクラスとして扱った 上において分類を行うものであっても良い。
[0121] さらに、分類判定値算出部としての機能を有する制御部 9aは、前述した分類結果 に基づき、生体粘膜表面として分類された、すなわち、胃粘膜または絨毛として分類 された領域数の合計数 zが画像 Iiの全領域数 (m X n)に占める割合 pの値を、下記数 式 (4)に基づレ、て算出する(図 11のステップ S5)。
[0122]
Figure imgf000033_0001
そして、画像分類部としての機能を有する制御部 9aは、画像 Iiが生体粘膜表面を 十分に撮像されている画像か否力を識別するため、数式 (4)により算出された割合 p の値と、閾値 thrとの比較を行う。制御部 9aは、画像 Iiにおける割合 pの値力 閾値 th rより大きいことを検出する(図 1 1のステップ S6)と、画像 Iiを、生体粘膜表面が十分 に撮像されている画像である、すなわち、観察が必要な画像として識別及び分類し、 参照値としてのフラグ値 flagiを 1とする(図 11のステップ S7)。なお、本実施形態にお いては、例えば、閾値 thrの値は 0. 5であるとする。
[0123] また、制御部 9aは、画像 Iiにおける割合 pの値力 閾値 thr以下であることを検出す る(図 11のステップ S6)と、画像 Iiを、便及び泡により生体粘膜表面が十分に撮像さ れていない画像である、すなわち、観察が不必要な画像として識別及び分類し、フラ グ値 flagiを 0とする(図 11のステップ S8)。
[0124] その後、制御部 9aは、入力された画像 Iiの全てに対し、前述した処理が完了してい ない場合(図 11のステップ S9)、画像番号 iに 1を加え(図 11のステップ S 10)、次の 画像について、図 11のステップ S1からステップ S9までに示す処理を引き続き行う。
[0125] 画像表示制御部としての機能を有する制御部 9aは、以上に述べたような処理を行 うことにより、ユーザが撮像対象の像の観察を行う際に、フラグ値 flagiの値に基づき、 例えば、フラグ値 flagiが 1である、観察が必要な画像のみをディスプレイ 8cに表示し 、また、フラグ値 flagiが 0である、観察が不必要な画像をディスプレイ 8cに非表示と すること力 Sできる。なお、画像削除部としての機能を有する制御部 9aは、フラグ値 fla giが 0である、観察が不必要な画像を削除することにより、記憶する画像データのサイ ズを削減するようにしても良い。
[0126] また、以上に述べた処理のうち、図 11のステップ S5に示す処理において、制御部
9aは、胃粘膜または絨毛として分類された領域数を合計した値 zから割合 pを算出し た。しかし、制御部 9aが行う処理は、このようなものに限るものではなぐ例えば、以下 に記すような、胃粘膜として分類された領域数 zlと、絨毛として分類された領域数 z2 とを個別に扱うようなものであっても良い。
[0127] その場合、制御部 9aは、図 11のステップ S5に示す処理において、胃粘膜または 絨毛として分類された領域数の合計数 (zl + z2)が画像 Iiの全領域数 (m X n)に占 める割合 pの値を、下記数式(5)に基づいて算出する。 [0128] p= (zl + z2) / (m X n) · · · (5)
また、制御部 9aは、各々のクラスに分類された領域数に基づき、該領域数が画像 Ii の全領域数 (m X n)に占める割合を、クラス毎に個別に算出するような処理を行うも のであっても良い。
[0129] まず、制御部 9aは、図 11のステップ S1からステップ S4までの処理を行うことにより、 画像 Iiが有する領域 Hst全てに対しての分類結果を得る(図 19のステップ Sl l)。そ して、胃粘膜として分類された領域数を zl、絨毛として分類された領域数を z2、便と して分類された領域数を z3とすると、制御部 9aは、上記数式 (4)に基づき、胃粘膜と して分類された領域数 zlが画像 Iiの全領域数 (m X n)に占める割合 piと、絨毛とし て分類された領域数 z2が画像 Iiの全領域数 (m X n)に占める割合 p2と、便として分 類された領域数 z3が画像 Iiの全領域数 (m X n)に占める割合 p3とを各々算出する( 図 19のステップ S 12)。
[0130] そして、制御部 9aは、割合 piの値と、閾値 thrlとの比較を行う。画像分類部として の機能を有する制御部 9aは、画像 Iiにおける割合 piの値力 閾値 thrlより大きいこ とを検出する(図 19のステップ S 13)と、画像 Iiを、被写体として胃の像が撮像された ものであるとして識別及び分類する(図 19のステップ S14)。なお、本実施形態にお いては、例えば、閾値 thrlの値は 0. 8であるとする。
[0131] また、制御部 9aは、画像 Iiにおける割合 piの値力 閾値 thrl以下であることを検出 する(図 11のステップ S 13)と、今度は、割合 p2の値と、閾値 thr2との比較を行う。画 像分類部としての機能を有する制御部 9aは、画像 Iiにおける割合 p2の値が、閾値 th r2より大きいことを検出する(図 19のステップ S15)と、画像 Iiを、被写体として小腸( の絨毛)の像が撮像されたものであるとして識別及び分類する(図 19のステップ S 16 )。なお、本実施形態においては、例えば、閾値 thr2の値は 0. 8であるとする。
[0132] さらに、制御部 9aは、画像 Iiにおける割合 p2の値力 閾値 thr2以下であることを検 出する(図 11のステップ S 15)と、今度は、割合 p3の値と、閾値 thr3との比較を行う。 画像分類部としての機能を有する制御部 9aは、画像 Iiにおける割合 p3の値力 閾値 thr3より大きいことを検出する(図 19のステップ S17)と、画像 Ii中における便の占め る割合が大きいことから、画像 Iiを、被写体として大腸の像が撮像されたものであると して識別及び分類する(図 19のステップ S18)。なお、本実施形態においては、例え ば、閾値 thr3の値は 0· 8であるとする。
[0133] その後、制御部 9aは、以上までの処理において、胃粘膜、絨毛及び便のいずれの 画像としても識別及び分類されなかった画像に対しての識別及び分類を保留する。 そして、制御部 9aは、入力された画像 Iiの全てに対し、前述した処理が完了していな い場合(図 19のステップ S 19)、画像番号 iに 1を加え(図 19のステップ S20)、次の画 像について、図 19のステップ S11からステップ S19までに示す処理を引き続き行う。
[0134] 制御部 9aは、以上に述べた、図 19のステップ S11からステップ S19までの処理を 行うことにより、小腸が撮像された画像及び大腸が撮像された画像として識別及び分 類された画像を各々特定する。換言すると、制御部 9aは、以上に述べた、図 19のス テツプ S 11からステップ S 19までの処理を行うことにより、被写体として撮像された臓 器が胃、小腸または大腸のいずれであるかを検出することができる。
[0135] また、ユーザが撮像対象の像の観察を行う際には、図 20に示すような、 GUIを備え たビュヮ一が端末装置 7のディスプレイ 8cに表示される。図 20に示すビュヮ一のメイ ン画面 101は、撮像対象の像の画像が表示される画像表示部 102と、患者及び検 查内容についての情報が表示される患者/検査情報表示部 103と、画像の枚数等 が表示される画像情報表示部 104と、画像表示部 102に対する表示制御を行う画像 表示制御部 105と、スライダ 106とを有している。
[0136] スライダ 106は、図示しないマウスカーソルを用いた指示が行われることにより、該 指示に基づく所望の画像を画像表示部 102に表示する機能を有している。また、こ のスライダ 106は、小腸が撮像された画像及び大腸が撮像された画像の開始位置を 指し示すための案内表示部 107を有する。そのため、ユーザは、例えば、小腸の出 血が疑われる症例については、小腸を優先的かつ効率的に観察するといつたような 、体腔内の所望の部位の観察を容易に行うことができる。また、図 20に示すビュヮ一 のメイン画面 101においては、例えば、図示しなレ、「小腸」等の記載がなされたボタン が設けられていても良い。この場合、ユーザは、前記ボタンを図示しないマウスカーソ ルを用いてクリックすることにより、小腸が撮像された画像を直接表示して観察を行う こと力 Sできる。 [0137] なお、本実施形態の画像処理方法においては、端末装置 7の制御部 9aは、画像 Ii を、 X軸方向の画素数 lx X y軸方向の画素数 lyからなる矩形領域に分割したが、さら に、例えば、 X軸方向の画素数 lx/2及び y軸方向の画素数 ly/2の大きさからなる 領域を該矩形領域に重複させて同様の処理を行うものであっても良い。この場合、分 類対象となる各クラスの境界が前記矩形領域に含まれた際に生じ得る誤分類を軽減 すること力 S可肯 となる。
[0138] また、前述したように、端末装置 7の制御部 9aは、本実施形態の画像処理方法を用 レ、ることにより、胃粘膜と絨毛とを個別のクラスとして識別及び分類を行ったが、例え ば、胃粘膜及び絨毛を 1つのクラスである「生体粘膜表面」として識別及び分類を行 つた後、さらに、「生体粘膜表面」として分類された領域 Hstに対し、胃粘膜及び絨毛 の 2つのクラスにおける識別及び分類を再度行うものであっても良い。
[0139] また、カプセル型内視鏡 3は、体腔内に配置された後、胃から小腸へと順次進んで ゆく。そのため、端末装置 7の制御部 9aは、得られた分類結果に基づき、例えば、全 領域数に対して絨毛に分類された領域の割合が 0. 7を超えた時点において、胃粘 膜クラスへの分類を停止するような処理を行うものであっても良い。
[0140] また、本実施形態の画像処理方法は、例えば、食道クラス及び大腸クラスを設定す ることにより、粘膜表面の色調及び模様の違いによる識別器を実現するという用途と して用いることも可能である。さらに、本実施形態の画像処理方法は、全領域数に対 して便に分類された領域の割合が多ぐかつ、全領域数に対して絨毛に分類された 領域の割合が少なくなつた場合に大腸と識別するような用途として用いることも可能 である。
[0141] 以上に述べたように、本実施形態における画像処理方法によれば、生体粘膜表面 の像としての胃粘膜及び絨毛の像と、生体粘膜表面とは異なるものである、異物また は非生体粘膜の像としての便及び泡の像とを画像毎に識別及び分類し、観察が必 要な画像のみをディスプレイ 8cに表示することができる。そのため、ユーザは、生体 粘膜表面の像が良好に撮像されていない画像が除外された状態において体腔内の 観察を行うことができ、その結果、カプセル型内視鏡装置 1を用いた観察効率の向上 をはかることができる。 [0142] また、以上に述べた本実施形態の画像処理方法は、例えば、出血または発赤等の 病変部位の検出を行う画像処理方法と組み合わせて用いられることにより、病変部 位の検出結果が生体粘膜表面上から得られたものであるか否力を判定でき、その結 果、病変部位の検出精度を高めることができる。具体的には、端末装置 7の制御部 9 aは、出血または発赤等の病変部位の検出を行う画像処理方法を用レ、、病変が疑わ れる領域として抽出された領域 Hstの分類結果を参照し、該分類結果が便、泡等の 非生体粘膜表面像である場合には誤検出として扱う処理を行うことにより、病変部位 の検出精度を高めることができる。
[0143] また、本実施形態によれば、生体粘膜表面の像として分類された各々の領域に対 し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病 変部位の像と分類するような画像処理方法を用いることにより、病変部位の検出精度 を高めることができる。
[0144] (第 2の実施形態)
図 21は、本発明の第 2の実施形態に係るものである。なお、第 1の実施形態と同様 の構成を持つ部分については、詳細説明は省略する。また、第 1の実施形態と同様 の構成要素については、同一の符号を用いて説明は省略する。さらに、本実施形態 におけるカプセル型内視鏡装置 1の構成は、第 1の実施形態と同様であると共に、本 実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パーソ ナルコンピュータにおいて実行されるプログラムとして実現されているものとする。そし て、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける 処理として行われるものとする。
[0145] 図 21は、本実施形態に係る画像処理動作を示すフローチャートである。
[0146] まず、制御部 9aは、カプセル型内視鏡 3により撮像された体腔内の像の画像に基 づく画像信号を入力し、入力された i番目の画像 Iiを構成する Ri、 Gi及び Biの各プレ ーンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆 y補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外す るため、閾値に基づく処理により検出しておく(図 21のステップ S21)。そして、前記 閾値に基づく処理は、例えば、 rik、 gik及び bikの濃度値の全てが 10以下の値であ れば喑部画素、また、 rik、 gik及び bikの濃度値の全てが 230以上の値であればハ レーシヨン画素とするような処理として行われる。
[0147] その後、制御部 9aは、 Ri、 Gi及び Biの各プレーンを小領域に分割する(図 21のス テツプ S22)。なお、本実施形態において、制御部 9aは、第 1の実施形態において行 つた方法と同様に、 Ri、 Gi及び Biの各プレーンを、 X軸方向の画素数 lx X y軸方向の 画素数 ly (l≤lx、 l≤ly)からなる矩形領域に分割するものとし、その領域数は (m X n)個(m = ISX/lx、 n=ISYZly)であるものとする。また、制御部 9aは、 mまたは n が整数とならない場合においては、大きさが端数となる最端部の領域を、端数の画素 数を有する領域として処理するか、または以降の処理対象から除外するものとする。
[0148] 制御部 9aは、分割した各領域において、撮像対象の像の画像上における色の違 レ、を反映する色調情報、及び撮像対象の像の画像上における構造の違レ、を反映す るテクスチャ情報を特徴量として算出する(図 21のステップ S23)。なお、本実施形態 の画像処理方法においては、制御部 9aにおいて分割された領域のうち、一の領域を Hj (1≤j≤m X n)と示すものとする。
[0149] 本実施形態において、制御部 9aが算出する色調情報は、一の領域 Hjに含まれる 各画素の RGB値の比に基づく値としての、 gik/rikの平均値(以降、 Ai gjと記す)及 び bik/rikの平均値(以降、 /i bjと記す)からなる、 2つの特徴量として示される値で ある。なお、 /i gj及び i bjの各値は、 0から 1の値をとるものとする。また、 μ ぴ μ bjの各値は、例えば、胃粘膜のような比較的赤色調を示す領域においては、略同様 に小さな値をとる。一方、 /i gj及び i bjの各値は、例えば、小腸のような比較的白色 調を示す領域においては、略同様に大きな値をとる。また、 / gj及び i bjの各値は、 例えば、便のような比較的黄色調を示す領域においては、 β gi > β bjとなるような値 をとる。
[0150] 本実施形態において、制御部 9aが算出するテクスチャ情報は、前述したように、撮 像対象の像の画像上における構造の違いを反映するものである。そして、撮像対象 の像の画像上における構造は、例えば、粘膜表面における絨毛等の微細構造、及 び便が有する不定形な模様等として示されるものである。具体的には、制御部 9aが 算出するテクスチャ情報は、一の領域 Hjに含まれる各画素の RGB値の標準偏差 σ r j、 σ gj及び σ bjを、一の領域 Hjに含まれる各画素の RGB値の平均値 mrj、 mgj及び mbjで除したものである、 3つの特徴量として示される RGB値の変動係数 CVrj、 CV gj及び CVbjである。なお、変動係数 CVrj、 CVgj及び CVbjを算出するための計算 式は、下記数式 (6)、数式(7)及び数式 (8)として示される。
[0151] CVrj = CT rj/mrj · · · (6)
CVgj = σ gj/ mgj · · · ( 7 )
CVbj = CT bj/mbj · ' · (8) 上記数式 (6)、数式 (7)及び数式 (8)により算出される変動係数 CVrj、 CVgj及び CVbjにより、撮像対象に対して供給される照明光量の違い等による影響によらず、 テクスチャ構造による画素変動の程度を数値化することができる。 CVrj , CVgj及び CVbjの各値は、例えば、拡大観察を行っていない状態である、通常観察において 撮像された胃粘膜のような、画像上における構造が比較的平坦な領域においては、 明瞭なテクスチャ構造がないため、略同様に小さな値をとる。一方、 CVrj、 CVgj及 び CVbjの各値は、例えば、小腸の絨毛のような、画像上における構造にエッジを比 較的多く含む領域にぉレ、ては、略同様に大きな値をとる。
[0152] そして、制御部 9aは、色調情報及びテクスチャ情報からなる 5つの特徴量、すなわ ち、 /i gj、 /i bj、 CVrj、 CVgj及び CVbjの各値を、ハレーション画素及び暗部画素を 除いた各画素の RGB値に基づき、(m X n)個の領域 Hj各々において算出する。な お、本実施形態においては、一の領域 Hjが有する、(Ix X ly)個の画素において、例 えば、ハレーション画素の個数と、暗部画素の個数との和が占める割合が 50%を超 えた場合、一の領域 Hjを以降の処理から除外するような制御が行われるものであつ ても良い。
[0153] その後、制御部 9aは、以降に説明する処理を行うため、一の領域 Hjの領域番号 jを j = lとする(図 21のステップ S24)。そして、制御部 9aは、ベイズの定理に基づく統計 的識別器を用い、胃粘膜、絨毛、便及び泡からなる 4つのクラスのうち、一の領域 Hj 力 Sどのクラスに属するかを識別し、該識別結果に基づく分類を行う。
[0154] 具体的には、 4つのクラスの識別及び分類において、一のクラス co a (a = l、 2、 ·■·、 C、 Cはクラス数を示す)が発生する事前確率を Ρ(ω a)とし、一の領域 Hjにおける 5 つの特徴量から決定された特徴ベクトルを とし、全クラスからの特徴ベクトル の発 生確率に基づく確率密度関数を p (x)とし、一のクラス ω aからの特徴ベクトル 2£の発 生確率に基づく状態依存確率密度 (多変量正規確率密度)関数を p(S I c a)とする と、発生した特徴べクトル≤がーのクラス ω aに属する事後確率 Ρ(ω a | を算出する ための計算式は、下記数式(9)として示される。
[0155]
Ρ{ωα I X) = ρ{χ \ ωα)Ρ{ωα)Ι ρ{χ) · · · (9) なお、状態依存確率密度関数 P(S I coa)及び確率密度関数 p(s)は、下記数式(1 0)及び数式(11)として示される。
Figure imgf000041_0001
Υ∑α~ (χ- μ )] ■ · ■ (10)
ρ(χ)
Figure imgf000041_0002
… (1 1) なお、上記数式(10)及び数式(11)において、 dは の特徴量の個数と同数である 次元数を示し、 JL ^及び∑ aはクラス ω aにおける特徴ベクトル の平均ベクトル及び 一のクラス coaにおける分散共分散行列を示すものとする。また、 (χ- &)¾(χ- ia)の転置行列を示し、 I∑a Iは∑ aの行列式を示し、∑ a— 1は∑ aの逆行列を示 すものとする。さらに、説明の簡単のため、事前確率 P ( ω a)は、全クラスにぉレ、て等 しい値をとると仮定し、また、確率密度関数 p( )は、上記数式(11)により全クラス共 通の関数として表されるものとする。
[0157] 分類基準としての平均ベクトル且 及び分散共分散行列∑ aは、一のクラス ω aにお ける母数を構成する要素であり、 1番目の画像 IIが端末装置 7に入力される以前の 段階において、胃粘膜、絨毛、便及び泡からなる 4つのクラスの教師データを構成す る複数の画像、例えば、図 13、図 14、図 15及び図 16に示すような画像に基づき、該 画像の一の領域各々において都度決定される特徴ベクトル 2£から、クラス毎に予め算 出された後、初期値として端末装置 7に各々記憶される。
[0158] なお、平均ベクトル " aは、特徴ベクトル 2£が有する 5つの特徴量各々の平均値から なり、かつ、特徴ベクトル Sと同一の次元数を有するベクトルである。すなわち、特徴 ベクトル 2^½=(xl, x2, x3, x4, x5)として表される場合、平均べタト/レ u aは、特 徴ベクトル が有する 5つの特徴量各々の平均値である、 /ιχ1、 /ιχ2、 /ιχ3、 /ιχ4 及び Atx5を用レ、て、 = ( zxl, μχ2, μχ3, μ χ4, χ5)として表されるものと する。また、分散共分散行列∑ aは、一のクラス ω aに属する特徴べクトル≤の分布の バラツキ及び広がり具合を示す行列であり、特徴ベクトル≤の特徴量の個数と同数で ある次元数 dに対し、 dXd行列として表されるものとする。
[0159] 制御部 9aは、発生した特徴ベクトル≤がクラス ω 1に属する事後確率 Ρ (ωΐ | と、 発生した特徴べクトル≤力 Sクラス ω 2に属する事後確率 Ρ ( ω 2 I と、発生した特徴 ベクトル 力 Sクラス ω 3に属する事後確率 Ρ ( ω 3 I と、発生した特徴ベクトル≤がクラ ス ω4に属する事後確率 Ρ(ω4 | とを、ベイズの定理に基づいた上記数式(9)か ら数式(11)を用いて各々算出する。そして、制御部 9aは、これら 4つの事後確率のう ち、最大の事後確率 Pl(coa I を与えるクラス ω aに特徴ベクトル sが属するものと して識別を行い、該識別結果に基づいて特徴ベクトル sが発生した領域である一の 領域 Hjをクラス ω aに分類する(図 21のステップ S 25 )と共に、最大の事後確率 P 1 ( coa I を与える確率密度関数 Pl(2 I ω a)の値を算出する。
[0160] そして、制御部 9aは、以上までの処理にぉレ、て、クラス ω aに分類された一の領域 Hjの分類結果が正確なものであるか否かを判定するため、平均値からの距離に基づ く処理、すなわち、最大の事後確率 PI (coa I を与える確率密度関数 Pl(2 I coa) の値に対する閾値に基づく処理をさらに行う。
[0161] 具体的には、まず、制御部 9aは、平均ベクトル が有する 5つの特徴量各々の平 均値のうち、例えば、特徴量 xlの平均値 μχΐに対し、特徴量 xlの標準偏差 σχΐと 、所定の定数としての乗算係数ひとの積を加えた値を含む、閾値ベクトル 2^1を決定 する。なお、このような閾値ベクトル≤klは、例えば、下記数式(12)として示されるも のであり、また、本実施形態においては、乗算係数ひの値は 1. 5であるとする。
[0162] x l= (μ 1+ α X σχΐ, μχ2, μχ3, μ χ4, μ χ5) ··· (12)
上記数式(12)により閾値ベクトル≤klが決定されると、制御部 9aは、閾値ベクトル≤ hiを上記数式(9)、数式(10)及び数式(11)の≤として代入し、一の領域 Hjが分類 されたクラス co aの閾値としての、確率密度関数 p (2£kl I ω a)の値を算出する。
[0163] そして、制御部 9aは、 pi I ω a)の値が p | ω a)の値より大きいことを検出 する(図 21のステップ S26)と、図 21のステップ S25に示す処理において、一の領域 Hjをクラス ω aに分類した分類結果が正確であると判断する(図 21のステップ S27)。
[0164] また、制御部 9aは、 pl (x | ω a)の値が p (xbl | ω a)の値以下であることを検出す る(図 21のステップ S26)と、図 21のステップ S25に示す処理において、一の領域 Hj をクラス ω aに分類した分類結果が不正確であると判断し、一の領域 Hjを不明クラス に分類する(図 21のステップ S 28)。
[0165] そして、制御部 9aは、分割した (m X n)個の領域全てについての分類が完了して いない場合(図 21のステップ S29)、領域番号 jに 1を加え(図 21のステップ S30)、次 の領域について、図 21のステップ S25からステップ S29までに示す処理を行う。
[0166] また、制御部 9aは、入力された画像 Iiの全てに対し、前述した処理が完了していな い場合(図 21のステップ S31)、画像番号 iに 1を加え(図 21のステップ S32)、次の画 像について、図 21のステップ S21からステップ S31までに示す処理を引き続き行う。
[0167] また、以上の説明においては、色調情報及びテクスチャ情報に基づく 5個の特徴量 の全てを一度に用いて特徴ベクトル 2£を決定するような、 5次元の多変量正規確率密 度を規定する場合について述べた。しかし、本実施形態における画像処理方法にお いては、例えば、色調情報及びテクスチャ情報についての各々の特徴量を個別に用 いて 2種類の特徴ベクトル^及び を決定し、 1つのクラスにつき 2個の多変量正規 確率密度を規定することにより、画像の分類をさらに高精度に行うことができる。
[0168] 具体的には、まず、制御部 9aは、色調情報を構成する 2個の特徴量 μ gj及び/ bj についての状態依存確率密度関数を pc I c a)として、また、テクスチャ情報を構 成する 3個の特徴量 CVrj、 CVgj及び CVbjについての状態依存確率密度関数を pt (xt I co a)として各々算出する。なお、 は、≤£= gj, At bj)として表される 2次元 のベクトルであり、また、 は、 = (Cvrj、 Cvgj、 Cvbj)として表される 3次元のベタト ルである。
[0169] 制御部 9aは、これら 2つの状態依存確率密度関数 pc ( I co a)及び pt ( | c a) を用いて数式(10)に基づく事後確率 Pc ( c a I )及び Pt ( c a | )を算出した後 、最終的な事後確率 P(coa I を下記数式(13)により算出する。
[0170] Ρ(ω I x) =Pc(Wa | 2£c) X Pt ( ω a | 2rt) · · · (13)
また、クラス ω aへの分類結果の正確性を判断するための閾値は、色調情報及びテ タスチヤ情報の特徴量各々の平均ベクトル μ c及び μ tと、標準偏差 σ cl及び σ tl に基づき、例えば、 p(2^ I oa)及び p(≤i I ω a)として設定される。そして、制御 ¾9a¾, pi (xc I ωα) >p(xcb | ω a)であり、力、つ、 pi ( I ω a) >p(xtb | ω a) であれば、分類結果は正確であるとして、特徴ベクトル 及び特徴ベクトル を有す る一の領域 Hjを、胃粘膜、絨毛、便または泡のいずれかのクラスとして分類し、そうで なければ不明クラスとして分類する。
[0171] なお、以上の説明において、事前確率 P(coa)は、全クラスにおいて等しいと仮定し た力 これに限るものではなレ、。事前確率 P(c a)は、例えば、カプセル型内視鏡 3が 撮像する部位の時間配分に基づき、絨毛クラスまたは便クラスの事前確率 P ( ω a)を 高めに設定したり、カプセル型内視鏡 3が撮像した部位の誤分類によるリスクに基づ き、胃粘膜クラス及び絨毛クラスの事前確率 Ρ(ω a)を、観察不要とする便クラス及び 泡クラスより高めに設定したり等、種々の用途に応じた値に設定されるものであっても 良い。
[0172] 以上に述べたように、本実施形態における画像処理方法によれば、生体粘膜表面 の像としての胃粘膜及び絨毛の像と、異物または非生体粘膜の像としての便及び泡 の像とを画像の小領域毎に識別及び分類することができる。そのため、ユーザは、画 像の小領域の多くを異物の像が占めるような、生体粘膜表面の像が良好に撮像され ていない画像を、観察不要の画像として容易に除外することができ、その結果、カブ セル型内視鏡装置 1における観察効率の向上をはかることができる。
[0173] さらに、本実施形態における画像処理方法によれば、例えば、特徴量が分類対象 クラスの分布境界または分布重複範囲に該当する等の理由により、確実な分類が困 難となるような画像が存在する場合、該画像を不明クラスとして分類することができる 。そのため、端末装置 7の制御部 9aは、本実施形態における画像処理方法を用いた 処理を行うことにより、信頼性の高い画像分類結果を得ることができる。
[0174] (第 3の実施形態) 図 22は、本発明の第 3の実施形態に係るものである。なお、第 1の実施形態及び第 2の実施形態と同様の構成を持つ部分については、詳細説明は省略する。また、第 1 の実施形態及び第 2の実施形態と同様の構成要素については、同一の符号を用い て説明は省略する。さらに、本実施形態におけるカプセル型内視鏡装置 1の構成は 、第 1の実施形態及び第 2の実施形態の形態と同様であると共に、本実施形態にお ける画像処理方法もまた同様に、端末装置 7としての、例えば、パーソナルコンピュー タにおいて実行されるプログラムとして実現されているものとする。そして、本実施形 態における画像処理方法は、端末本体 9が有する制御部 9aにおける処理として行わ れるものとする。
[0175] 図 22は、本実施形態に係る画像処理動作を示すフローチャートである。
[0176] 制御部 9aは、本実施形態に係る画像処理方法を行う前に、まず、入力された i番目 の画像 Iiに対し、第 2の実施形態において説明した、図 21に示す、ステップ S21から ステップ S30までの処理を行レ、、画像 Iiについての分類結果を得る(図 22のステップ S41)。なお、本実施形態において、図 22のステップ S41に示す処理を行うことにより 制御部 9aが得る分類結果は、画像内の各領域が胃粘膜クラス、絨毛クラス、便クラス 、泡クラス及び不明クラスからなる 5つのクラスのいずれかに分類されたような分類結 果であるとする。
[0177] そして、分類判定値算出部としての機能を有する制御部 9aは、画像 Iiについての 分類結果に基づき、絨毛クラスに分類された領域数が画像 Iiの全領域数 (m X n)に 占める割合 Jの値を算出する(図 22のステップ S42)。なお、割合 Jは、具体的には、 例えば、上記数式 (4)における pを Jに、また、 zを絨毛クラスに分類された領域数 zaに 置換することにより算出される値である。
[0178] その後、制御部 9aは、割合 Jの値と閾値 thrjとの比較を行う。領域分類部としての機 能を有する制御部 9aは、画像 Iiにおける割合 pの値力 閾値 thrjより大きいことを検 出する(図 22のステップ S43)と、画像 Iiの各領域 Hjにおいて、胃粘膜クラスに分類さ れていた領域を絨毛クラスとして再分類する(図 22のステップ S44)。なお、本実施形 態においては、例えば、閾値 thrjの値は 0. 5であるとする。
[0179] また、領域分類部としての機能を有する制御部 9aは、画像 Iiにおける割合 pの値が 、閾値 thrj以下であることを検出する(図 22のステップ S43)と、画像 Iiの各領域 Hjに おいて、絨毛クラスに分類されていた領域を胃粘膜クラスとして再分類する(図 22の ステップ S45)。
[0180] そして、制御部 9aは、画像 Iiについての、前述したような処理による再分類が完了 すると、今度は(i+ 1)番目の画像 Ii+ 1に対し、図 22のステップ S41からの一連の処 理を行う(図 22のステップ S46)。
[0181] 以上に述べたように、制御部 9aにより本実施形態における画像処理方法を用いた 処理が行われる場合、ユーザは、第 2の実施形態において述べた効果と同様の効果 として、カプセル型内視鏡装置 1を用いた観察における観察効率の向上をはかること ができるとレ、う効果を得ることができる。
[0182] また、本実施形態における画像処理方法を用いた場合、端末装置 7の制御部 9aは 、分類結果を得た画像に対し、さらに、胃粘膜及び絨毛の各クラスに分類された領域 Hjを排他的に置換して再分類するような処理を行う。そのため、端末装置 7の制御部 9aは、本実施形態における画像処理方法を用いた処理を行うことにより、一の画像 内に混在して存在し得ないような、胃粘膜の像の画像と(小腸の)絨毛の像の画像と の分類を行う場合における誤分類を無くすことができ、その結果、精度の高い画像分 類結果を得ることができる。
[0183] (第 4の実施形態)
図 23は、本発明の第 4の実施形態に係るものである。なお、第 1の実施形態から第 3の実施形態までと同様の構成を持つ部分については、詳細説明は省略する。また 、第 1の実施形態から第 3の実施形態までと同様の構成要素については、同一の符 号を用いて説明は省略する。さらに、本実施形態におけるカプセル型内視鏡装置 1 の構成は、第 1の実施形態から第 3の実施形態までの形態と同様であると共に、本実 施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パーソナ ルコンピュータにおいて実行されるプログラムとして実現されているものとする。そして 、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける処 理として行われるものとする。
[0184] 図 23は、本実施形態に係る画像処理動作を示すフローチャートである。 [0185] 制御部 9aは、本実施形態に係る画像処理方法を行う前に、まず、カプセル型内視 鏡 3により撮像された体腔内の像の画像に基づく画像信号を入力し、入力された i番 目の画像 Iiに対し、第 2の実施形態において説明した、図 21に示す、ステップ S21か らステップ S30までの処理を行レ、、画像 Iiについての分類結果を得る(図 23のステツ プ S51)。なお、本実施形態において、図 23のステップ S51に示す処理を行うことに より制御部 9aが得る分類結果は、画像内の各領域が便クラス、泡クラス、不明クラス 及び生体粘膜クラスからなる 4つのクラスのいずれかに分類されたような分類結果で あるとする。
[0186] その後、制御部 9aは、以降に説明する処理を行うため、一の領域 Hjの領域番号 jを j = lとする(図 23のステップ S52)。そして、制御部 9aは、画像 Iiについての分類結 果から、領域 Hjを生体粘膜クラスに分類したか否力、を判定する(図 23のステップ S53
[0187] 制御部 9aは、領域 Hjを生体粘膜クラスに分類したことを検出すると、教師データを 構成する胃粘膜の画像及び絨毛の画像が各々有する特徴量に基づいて算出された 平均ベクトル且 及び分散共分散行列∑ aが代入された上記数式 (9)から数式(11) を用い、該領域 Hjにおいて発生した特徴ベクトル 2£が胃粘膜クラス(a= lとする)に属 する事後確率 Ρ ( ω 1 I と、発生した特徴ベクトル sが絨毛クラス(a = 2とする)に属 する事後確率 Ρ ( ω 2 I とを各々算出する。そして、制御部 9aは、これら 2つの事後 確率のうち、最大の事後確率 P2 ( co a I を与えるクラスに特徴ベクトル 2が属するも のとして識別を行レ、、該識別結果に基づいて特徴ベクトル 2£が発生した領域である一 の領域 Hjを胃粘膜クラスまたは絨毛クラスのいずれかに分類する(図 23のステップ S 54)。
[0188] そして、制御部 9aは、分割した (m X n)個の領域全てについての分類が完了して いない場合(図 23のステップ S55)、領域番号 jに 1を加え(図 23のステップ S56)、次 の領域について、図 23のステップ S53からステップ S55までに示す処理を行う。
[0189] また、制御部 9aは、画像めについての、前述したような処理による分類を完了すると 、今度は(i+ 1)番目の画像 Ii+ 1に対し、図 23のステップ S51からの一連の処理を 行う(図 23のステップ S57)。 [0190] 以上に述べたように、制御部 9aにより本実施形態における画像処理方法を用いた 処理が行われる場合、ユーザは、第 2の実施形態において述べた効果と同様の効果 として、カプセル型内視鏡装置 1を用いた観察における観察効率の向上をはかること ができるとレ、う効果を得ることができる。
[0191] また、本実施形態における画像処理方法を用いた処理を行う場合、端末装置 7の 制御部 9aは、分類結果を得た画像に対し、さらに、生体粘膜クラスに分類された領 域 Hjを、胃粘膜クラスまたは絨毛クラスとして再分類するような処理を行う。そのため 、端末装置 7の制御部 9aは、本実施形態における画像処理方法を用いた処理を行う ことにより、胃粘膜の像の画像と (小腸の)絨毛の像の画像との分類を高精度に行うこ とができる。そして、端末装置 7の制御部 9aは、本実施形態における画像処理方法と 、第 3の実施形態における画像処理方法と組み合わせて用いることにより、胃粘膜の 像の画像と (小腸の)絨毛の像の画像とがさらに高精度に分類されたような分類結果 を得ること力 Sできる。
[0192] なお、本発明における第 1の実施形態から第 4の実施形態において説明した画像 処理方法は、カプセル型内視鏡装置 1のカプセル型内視鏡 3が撮像した像の画像に 対して用いられるものに限らず、例えば、撮像素子及び対物光学系を挿入部の先端 部に有するような内視鏡を有する内視鏡装置が撮像した像の画像に対して用いられ るものであっても良い。
[0193] (第5の実施形態)
図 24及び図 25は、本発明の第 5の実施形態に係るものである。なお、第 1の実施 形態から第 4の実施形態までと同様の構成を持つ部分については、詳細説明は省略 する。また、第 1の実施形態から第 4の実施形態までと同様の構成要素については、 同一の符号を用いて説明は省略する。また、本実施形態におけるカプセル型内視鏡 装置 1の構成は、第 1の実施形態から第 4の実施形態までの形態と同様であると共に
、本実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パ 一ソナルコンピュータにおいて実行されるプログラムとして実現されているものとする
。そして、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにお ける処理として行われるものとする。さらに、本実施形態においては、制御部 9aは、 端末装置 7に予め入力された状態の一連の画像に対し、以降に説明する画像処理 を用いるものとする。
[0194] 図 24は、本実施形態に係る画像処理動作の一部を示すフローチャートである。図 2 5は、本実施形態に係る画像処理動作の一部として、図 24のフローチャートに示す 処理が行われた後に行われる、画像の表示制御動作を示すフローチャートである。
[0195] 制御部 9aは、本実施形態に係る画像処理方法を行う前に、まず、全部で N枚(1≤ N)の画像のうち、入力された i番目の画像 Ii (Il≤Ii≤IN)についての分類結果を得 る(図 24のステップ S61)。なお、本実施形態において、制御部 9aは、画像 Iiについ ての分類結果を得るための処理方法として、例えば、図 11に示すステップ S1からス テツプ S4までの処理、または図 21に示すステップ S 21からステップ S 30までの処理 のうち、いずれの処理方法を用いるものであっても良レ、。また、画像 Iiについての分 類結果を得るための処理を行うことにより制御部 9aが得る分類結果は、画像内の各 領域が胃粘膜クラス、絨毛クラス、便クラス、泡クラス及び不明クラスからなる 5つのク ラスのいずれかに分類されたような分類結果であるとする。さらに、制御部 9aは、画 像 Iiについての分類結果を得るための処理を行う際に、一の領域において、極端な 暗部あるいはハレーション等の画素数が所定の閾値以上含まれることを検出した場 合、例えば、該一の領域を便クラス、泡クラスまたは不明クラスのいずれ力として分類 するものであっても良い。
[0196] そして、制御部 9aは、図 24のステップ S61の処理により得た分類結果に基づき、例 えば、便クラス、泡クラス及び不明クラスとして分類された領域数の合計が画像 Iiの全 領域数 (m X n)に占める割合 Kを算出する(図 24のステップ S62)。その後、制御部 9aは、割合 Kの値と閾値 thlx (本実施形態においては、例えば 0. 7とする)との比較 を行うことにより、画像 Iiが観察不要の画像であるか否かを判定する。なお、前述した ような判定を行うための処理において、制御部 9aが得た分類結果に不明クラスの分 類結果が含まれない場合、制御部 9aは、便クラス及び泡クラスとして分類された領域 数の合計が画像 Iiの全領域数 (m X n)に占める割合 K1を算出した後、割合 K1の値 と閾値 thlxとの比較を行うものであっても良レ、。また、前述したような判定を行うため の処理においては、制御部 9aは、胃粘膜クラス及び絨毛クラスとして分類された領域 数の合計が画像 Iiの全領域数 (m X n)に占める割合 K2を算出した後、割合 K2の値 と閾値 thly (例えば 0· 3とする)との比較を行うものであっても良い。なお、閾値 thlx 及び閾値 thlyは、予め固定された値に限るものではなぐ例えば、端末装置 7の操作 により、ユーザが所望の値を設定できるものであっても良レ、。これにより、ユーザは、 どの程度生体粘膜表面が撮像された画像を観察対象とするかを選択することができ る。そのため、ユーザは、例えば、病変発見のためにスクリーニング検查を行う場合に は観察効率を重視し、精密検査を行う場合にはより詳細に多くの画像を観察するとい つたように、用途に応じて使い分けるような処理として、制御部 9aに本実施形態の画 像処理方法を実行させることができる。
[0197] その後、制御部 9aは、画像 Iiにおける割合 Kの値力 閾値 thlx以上であることを検 出する(図 24のステップ S63)と、画像 Iiを観察不要の画像であるとし、参照値として のフラグ値 kflagiの値を例えば 1とする(図 24のステップ S64)。
[0198] また、制御部 9aは、画像 Iiにおける割合 Kの値力 閾値 thlxより小さいことを検出す る(図 24のステップ S63)と、画像 Iiを観察不要な画像ではないとし、フラグ値 kflagi の値を例えば 0とする(図 24のステップ S65)。
[0199] 制御部 9aは、以上に述べたような処理により決定されたフラグ値 kflagiを、画像 Iiに 関連付けて保持する(図 24のステップ S66)。
[0200] その後、制御部 9aは、画像 II力 画像 INまでの全ての画像について、前述したよ うな処理による分類を行ったかどうかを判定し(図 24のステップ S67)、全ての画像に ついて分類が行われていない場合、今度は(i+ 1)番目の画像 Ii+ 1に対し、図 24の ステップ S61からの一連の処理を行う(図 24のステップ S68)。また、制御部 9aは、画 像 IIから画像 INまでの全ての画像について、前述したような処理による分類を行つ た場合、端末装置 7に予め入力された状態の一連の画像に対しての処理を終了する
[0201] 次に、前述したような処理により分類された画像 IIから画像 INまでの一連の画像を 、例えば、ユーザが画像 II (画像番号 i= lの画像)から順次観察すると想定した場合 、制御部 9aは、画像 Iiに関連付けて保持したフラグ値 kflagiの値を読み込む(図 25 のステップ S71)。そして、制御部 9aは、フラグ値 kflagiの値に基づき、画像 Iiが観察 不要の画像か否かを判定する。
制御部 9aは、画像 Iiに関連付けられたフラグ値 kflagiの値が 1である場合(図 25の ステップ S72)、画像 Iiをディスプレイ 8cに表示させないような表示制御を、端末装置 7の各部に対して行う(図 25のステップ S73)。
[0202] また、制御部 9aは、画像 Iiに関連付けられたフラグ値 kflagiの値が 1でない場合、 すなわち、フラグ値 kflagiの値が 0である場合(図 25のステップ S72)、画像 Iiをデイス プレイ 8cに表示させるような表示制御を、端末装置 7の各部に対して行う(図 25のス テツプ S 74)。
[0203] その後、制御部 9aは、画像 Iiから画像 INまでの全ての画像について、前述したよう な表示制御処理を行ったかどうかを判定し(図 25のステップ S75)、全ての画像につ いて処理が行われていない場合、画像番号 iに 1を加えた後、次の画像 Ii+ 1に対し、 図 25のステップ S71からの一連の処理を行う(図 25のステップ S76)。また、制御部 9 aは、画像 IIから画像 INまでの全ての画像について前述したような表示制御処理を 行った場合、ユーザが画像 IIから画像 INまでの一連の画像を順次観察し終えたも のであるとし、表示制御処理を終了する。
[0204] なお、以上に述べた画像処理方法は、画像 IIから画像 INまでの一連の画像を、ュ 一ザが画像 IIから順次観察する場合についてのみに用いられるものに限らず、例え ば、画像 IIから画像 INまでの一連の画像のうち、ユーザが所望の画像を選択して観 察する場合について用いられるものであっても良い。また、以上に述べた画像処理 方法において、制御部 9aは、観察不要の画像として分類した画像を記憶しないよう に端末装置 7の各部に制御を行っても良いし、また、観察不要の画像として分類した 後、図示しない記憶部に記憶させた画像を削除するように端末装置 7の各部に制御 を行っても良い。
[0205] 以上に述べたように、本実施形態における画像処理方法によれば、生体粘膜表面 の像としての胃粘膜及び絨毛の像と、異物または非生体粘膜の像としての便及び泡 の像とを画像毎に識別及び分類し、観察が必要な画像のみをディスプレイ 8cに表示 すること力 Sできる。そのため、ユーザは、生体粘膜表面の像が良好に撮像されていな い画像が除外された状態において体腔内の観察を行うことができ、その結果、カプセ ル型内視鏡装置 1を用いた観察における観察効率の向上をはかることができる。
[0206] (第 6の実施形態)
図 26から図 31は、本発明の第 6の実施形態に係るものである。なお、第 1の実施形 態から第 5の実施形態までと同様の構成を持つ部分については、詳細説明は省略す る。また、第 1の実施形態から第 5の実施形態までと同様の構成要素については、同 一の符号を用いて説明は省略する。また、本実施形態におけるカプセル型内視鏡装 置 1の構成は、第 1の実施形態から第 5の実施形態までの形態と同様であると共に、 本実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パー ソナルコンピュータにおいて実行されるプログラムとして実現されているものとする。そ して、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける 処理として行われるものとする。
[0207] 図 26は、本実施形態に係る画像処理動作の一部を示すフローチャートである。図 2 7は、図 26の処理に引き続いて行われる、本実施形態に係る画像処理動作の一部 を示すフローチャートである。図 28は、図 27の処理に引き続いて行われる、本実施 形態に係る画像処理動作の一部を示すフローチャートである。図 29Aは、本実施形 態に係る画像処理動作にぉレ、て、エッジ特徴量(エッジ特徴ベクトルとも記す)を決 定する際に指標となる 8つの方向のうち、一の方向を示す図である。図 29Bは、本実 施形態に係る画像処理動作において、エッジ特徴量を決定する際に指標となる 8つ の方向のうち、図 29Aとは異なる一の方向を示す図である。図 29Cは、本実施形態 に係る画像処理動作にぉレ、て、エッジ特徴量を決定する際に指標となる 8つの方向 のうち、図 29A及び図 29Bとは異なる一の方向を示す図である。図 29Dは、本実施 形態に係る画像処理動作において、エッジ特徴量を決定する際に指標となる 8つの 方向のうち、図 29Aから図 29Cまでとは異なる一の方向を示す図である。図 29Eは、 本実施形態に係る画像処理動作にぉレ、て、エッジ特徴量を決定する際に指標となる 8つの方向のうち、図 29Aから図 29Dまでとは異なる一の方向を示す図である。図 2 9Fは、本実施形態に係る画像処理動作において、エッジ特徴量を決定する際に指 標となる 8つの方向のうち、図 29Aから図 29Eまでとは異なる一の方向を示す図であ る。図 29Gは、本実施形態に係る画像処理動作において、エッジ特徴量を決定する 際に指標となる 8つの方向のうち、図 29Aから図 29Fまでとは異なる一の方向を示す 図である。図 29Hは、本実施形態に係る画像処理動作において、エッジ特徴量を決 定する際に指標となる 8つの方向のうち、図 29Aから図 29Gまでとは異なる一の方向 を示す図である。図 30は、本実施形態に係る画像処理動作において設定される、中 心領域と最外周領域との位置関係を示す図である。図 31は、本実施形態に係る画 像処理動作において設定される、エッジ特徴ベクトルの方向と、ベクトル VIの方向と がなす角度を示す図である。
[0208] 制御部 9aは、本実施形態に係る画像処理方法を行う前に、まず、カプセル型内視 鏡 3により撮像された体腔内の像の画像に基づく画像信号を入力し、入力された i番 目の画像 Iiについての分類結果を得る(図 26のステップ S81)。なお、本実施形態に おいて、制御部 9aは、画像 Iiについての分類結果を得るための処理方法として、例 えば、図 11に示すステップ S1からステップ S4までの処理、または図 21に示すステツ プ S21からステップ S30までの処理のうち、いずれの処理方法を用いるものであって も良い。また、画像 Iiについての分類結果を得るための処理を行うことにより制御部 9 aが得る分類結果は、画像内の各領域が胃粘膜クラス、絨毛クラス、便クラス、泡クラ ス及び不明クラスからなる 5つのクラスのいずれかに分類されたような分類結果である とする。さらに、本実施形態において、制御部 9aは、図 26のステップ S81の処理を行 う場合、入力された i番目の画像IiをM X M個の領域Hk (l≤k≤M X M)に分割す るものとする。換言すると、制御部 9aは、画像 Iiの分類結果として、 M X M個の領域 Hk各々が胃粘膜クラス、絨毛クラス、便クラス、泡クラス及び不明クラスからなる 5つ のクラスのいずれかに分類されたような分類結果を得るものであるとする。
[0209] 制御部 9aは、画像 Iiにつレ、ての分類結果を得た後、 M X M個の領域 Hk各々にお ける G (緑)画素の濃度値の平均値 gakを算出する(図 26のステップ S82)。そして、 制御部 9aは、領域 Hkにおける G画素の濃度値の平均値 gakと、領域 Hkに隣接する 領域 Hkt (t≤8)各々における G画素の濃度値の平均値 gaktとに基づき、 G画素の 濃度値の変動量 Gbtを下記数式(14)により算出する(図 26のステップ S83)。
[0210] Gbt = log (gakt) -log (gak) · · · (14)
制御部 9aは、上記数式(14)により得られた、領域 Hkt各々における Gbtの値のう ち、最大のものを最大値 Gbmとし、また、領域 Hktのうち、最大値 Gbmを与える領域 Hktmが、領域 Hkに対して存在する方向を dirGbmとした後、これら 2つを領域 Hk のエッジ特徴量として保持する(図 26のステップ S84)。なお、 G画素の濃度値の変 動量の最大値 Gbmを与える領域 Hktm力 領域 Hkに対して存在する方向は、図 29 Aから図 29Hまでに示す方向 1から方向 8のうち、いずれ力 4つの方向として決定さ れるものであるとする。
[0211] その後、エッジ検出部としての機能を有する制御部 9aは、最大値 Gbmと、閾値 thr elとの比較を行レ、(図 26のステップ S85)、最大値 Gbmが閾値 threlよりも大きい場 合、領域 Hkには画像 Iiにおけるエッジが存在すると判定し(図 26のステップ S86)、 また、最大値 Gbmが閾値 threl以下である場合、領域 Hkには画像 Iiにおけるエッジ が存在しないと判定する(図 26のステップ S87)。なお、本実施形態においては、閾 値 threlの値は、例えば 0. 3であるとする。そして、制御部 9aは、領域番号 kの値に 1 を加えつつ、(M X M)個の領域 Hk全てに対して、図 26のステップ S83からステップ S87に示す、上記数式(14)を用いた処理を繰り返し行うことにより、画像 Iiにおいて エッジが存在する領域を特定する(図 26のステップ S88およびステップ S89)。
[0212] なお、以上に述べたような、画像 Iiにおけるエッジを検出するための処理を行う以前 の段階において、制御部 9aは、画像 Iiに対する前処理として、例えば、逆ガンマ補正 またはシェーディング補正等の処理を行うものであっても良い。
[0213] 制御部 9aは、(M X M)個の領域 Hk全てに対して前述したような処理を行うことに より、画像 Iiにおいてエッジが存在する領域を特定した後、領域 Hkを中心領域とする 、 Ml X M1 (Ml≤M)個の領域からなる配置評価領域を取得する(図 27のステップ S91)。その後、制御部 9aは、配置評価領域を構成する領域のうち、最外周に存在 する領域の数である最外周領域数 Dを検出する(図 27のステップ S92)。また、制御 部 9aは、配置評価領域における D個の最外周領域 Hkl各々において、領域 Hkが存 在する方向を向くベクトルであるベクトル VIを算出する(図 27のステップ S93)。なお 、領域 Hkと最外周領域 Hklとの位置関係は、例えば、図 30に示すようなものとなる。
[0214] 制御部 9aは、最外周領域 Hklとして定められた領域各々が有する、エッジ特徴べク トルの方向を示す dirGbmと、ベクトル VIの方向とに基づき、図 31に示すような、これ ら 2つのベクトルがなす角度 θ 1を算出する(図 27のステップ S94)。その後、制御部 9 aは、 D個の最外周領域 Hklのうち、図 26のステップ S81からステップ S89までの処 理においてエッジが存在する領域であると判定され、かつ、 6 1≤thre2となる領域数 Eを検出する(図 27のステップ S95)。なお、本実施形態においては、閾値 thre2の 値は、例えば 45° であるとする。
[0215] そして、制御部 9aは、 EZDの値を算出し、 E/Dの値が閾値 thre3よりも大きい場 合(図 27のステップ S96)、領域 Hkを、画像 Iiにおいて出血部が存在する可能性の ある、出血部候補領域であると判定する(図 27のステップ S97)。また、制御部 9aは、 E/Dの値が閾値 thre3よりも大きい場合(図 27のステップ S96)、図 26のステップ S 81からステップ S89までの処理においてエッジが存在する領域であると判定され、か つ、 0 1≤thre2を満たす E個の最外周領域 Hklを、出血部のエッジが存在する可能 性のある、出血部エッジ候補領域であると判定する(図 27のステップ S97)。なお、本 実施形態においては、閾値 thre3の値は、例えば 0· 7であるとする。
[0216] そして、制御部 9aは、領域番号 kの値に 1を加えつつ、(M X M)個の領域 Hk全て に対して、図 27のステップ S91からステップ S97に示す、上記数式(14)を用いた処 理を繰り返し行うことにより、画像 Iiにおいて、出血部が存在する領域の候補と、出血 部のエッジが存在する領域の候補とを特定する(図 27のステップ S98およびステップ S99)。
[0217] 制御部 9aは、(M X M)個の領域 Hk全てに対して前述したような処理を行うことに より、画像 Iiにおける出血部候補領域と、出血部エッジ候補領域とを特定した後、出 血部候補領域の領域数 Hを検出する(図 28のステップ S101)。その後、制御部 9aは 、各々の出血部候補領域に対応する、 E個の出血部エッジ候補領域を検出する(図 28のステップ S102)。
[0218] そして、制御部 9aは、出血部候補領域としての領域 Hkに対応する、出血部エッジ 候補領域としての最外周領域 Hklにおいて、領域 Hklとして定められた領域が有す る G画素の濃度値の平均値 gaklと、領域 Hklに隣接する領域 Hklt (t≤8)各々にお ける G画素の濃度値の平均値 gakltとに基づき、 G画素の濃度値の変動量 Gbltを下 記数式(15)により算出する(図 28のステップ S103)。 [0219] Gblt=log (gaklt) -log (gakl) · · · (15)
また、制御部 9aは、出血部候補領域としての領域 Hkに対応する、出血部エッジ候 補領域としての最外周領域 Hklにおいて、領域 Hklとして定められた領域における R (赤)画素の濃度値の平均値 raklと、領域 Hklに隣接する領域 Hklt (t≤8)各々にお ける R画素の濃度値の平均値 rakltとを算出する。そして、制御部 9aは、平均値 rakl と、平均値 rakltと基づき、 R画素の濃度値の変動量 Rbltを下記数式(16)により算出 する(図 28のステップ S104)。
[0220] Rblt = log (raklt) -log (rakl) · · · (16)
制御部 9aは、領域 Hklとして定められた領域が有する最大値 Gbmと、方向 dirGb mにおける変動量 Rbltとに基づき、カラーエッジ特徴量としての Gbm/Rbltの値を 算出する。その後、制御部 9aは、 E個の領域 Hklのうち、 Gbm/Rblt >thre4となる 領域数 Fを検出する(図 28のステップ S105)。なお、本実施形態においては、閾値 t hre4の値は、例えば 1. 0であるとする。また、本実施形態においては、制御部 9aが 行う処理においてカラーエッジ特徴量として用いる値は Gbm/Rbltの値に限るもの ではない。制御部 9aは、前述した処理において、例えば、変動量 Rbltと略同様の方 法により算出した B画素の濃度値の変動量 Bbltに基づき、 Gbm/Bbltの値をカラー エッジ特徴量として用レ、るものであっても良い。
[0221] そして、出血部位判定部としての制御部 9aは、 F/Eの値を算出し、 F/Eの値が 閾値 thre5よりも大きい場合(図 28のステップ S106)、領域 Hkを画像 Iiにおける出血 部であると判定し、また、領域 Hklを領域 Hkに対応する出血部エッジ領域として判定 する(図 28のステップ S107)。また、制御部 9aは、 F/Eの値が閾値 thre5以下であ る場合(図 28のステップ S106)、領域 Hkを出血部ではないと判定する(図 28のステ ップ S108)。なお、本実施形態においては、閾値 thre5の値は、例えば 0. 7であると する。そして、制御部 9aは、出血部候補領域として検出した H個の領域 Hk全てに対 して、図 28のステップ S101からステップ S108に示す処理を繰り返し行うことにより、 画像 Iiにおいて、出血部が存在する領域と、出血部のエッジが存在する領域とを特 定する(図 28のステップ S109およびステップ S110)。
[0222] さらに、制御部 9aは、画像 Iiにおける出血部が存在する領域を特定すると、図 26の ステップ S81の処理において得た、画像 Iiについての分類結果を参照することにより 、出血部が存在する領域として特定した領域 Hkを、どのクラスに分類したかを検出 する(図 28のステップ S111)。そして、分類結果判定部としての機能を有する制御部 9aは、出血部が存在する領域として特定した領域 Hkが、生体粘膜に関するクラスに 含まれる胃粘膜クラス、生体粘膜に関するクラスに含まれる絨毛クラス、または不明ク ラスのレ、ずれかとして分類されてレ、ることを検出した場合(図 28のステップ S112)、 画像 Iiにおける領域 Hkの分類結果は正しいものであると判定する(図 28のステップ S113)。また、制御部 9aは、出血部が存在する領域として特定した領域 Hkが、非生 体粘膜に関するクラスに含まれる便クラス、または非生体粘膜に関するクラスに含ま れる泡クラスとして分類されてレ、ることを検出した場合(図 28のステップ SI 12)、画像 Iiにおける領域 Hkの分類結果は誤りであると判定する(図 28のステップ S114)。な お、制御部 9aは、出血部が存在する領域として特定した領域 Hkが不明クラスとして 分類されてレ、ることを検出した場合にっレ、ては、領域 Hkの分類結果にっレ、ての正誤 の判定を行わず、例えば、「病変部位が撮像されている可能性のある領域」として別 途判定を行うものであっても良い。
[0223] その後、制御部 9aは、入力された画像 Ii全てについて、前述したような処理を行つ たかどうかを判定し(図 28のステップ S115)、全ての画像について処理が行われて いない場合、次の画像 Ii+ 1に対し、図 25のステップ S71からの一連の処理を行う( 図 28のステップ S116)。また、制御部 9aは、入力された画像 Ii全てについて前述し たような処理を行った場合、処理を終了する。
[0224] 以上に述べたように、本実施形態における画像処理方法を用いた場合、第 2の実 施形態において述べた効果と同様の効果として、カプセル型内視鏡装置 1を用いた 観察における観察効率の向上をはかることができる効果を得ることができる。
[0225] また、本実施形態における画像処理方法を用いた場合、端末装置 7の制御部 9aは 、画像 Ii内の出血部が存在する領域 Hkを特定した後、予め得た画像 Iiの領域 Hkの 分類結果に対し、正誤判定の処理を行う。そのため、端末装置 7の制御部 9aは、本 実施形態における画像処理方法を用いることにより、例えば、便等の異物または非生 体粘膜の像が撮像されている領域に、病変部位としての出血部位が存在するといつ たような、出血部位の誤検出を防ぐことができ、その結果、従来に比べ、より信頼性の 高い病変部位の検出結果を得ることができる。
[0226] (第7の実施形態)
図 32から図 34は、本発明の第 7の実施形態に係るものである。なお、第 1の実施形 態から第 6の実施形態までと同様の構成を持つ部分については、詳細説明は省略す る。また、第 1の実施形態から第 6の実施形態までと同様の構成要素については、同 一の符号を用いて説明は省略する。また、本実施形態におけるカプセル型内視鏡装 置 1の構成は、第 1の実施形態から第 6の実施形態までの形態と同様であると共に、 本実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パー ソナルコンピュータにおいて実行されるプログラムとして実現されているものとする。そ して、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける 処理として行われるものとする。
[0227] 図 32は、本実施形態に係る画像処理動作の一部を示すフローチャートである。図 3 3は、図 32の処理に引き続いて行われる、本実施形態に係る画像処理動作の一部 を示すフローチャートである。図 34は、本実施形態に係る画像処理動作において、 入力された画像が(m X n)個の領域に分割される際の一例を示す図である。
[0228] まず、制御部 9aは、カプセル型内視鏡 3により撮像された体腔内の像の画像に基 づく画像信号を入力し、入力された i番目の画像 Iiを構成する Ri、 Gi及び Biの各プレ ーンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆 γ補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外す るため、閾値に基づく処理により検出しておく(図 32のステップ S201)。そして、前記 閾値に基づく処理は、例えば、 rik、 gik及び bikの濃度値の全てが 10以下の値であ れば喑部画素、また、 rik、 gik及び bikの濃度値の全てが 230以上の値であればハ レーシヨン画素とするような処理として行われる。
[0229] その後、制御部 9aは、 Ri、 Gi及び Biの各プレーンを小領域に分割する(図 32のス テツプ S202)。なお、本実施形態において、制御部 9aは、図 34に示すように、 Ri、 G i及び Biの各プレーンを、 X軸方向の画素数 lx X y軸方向の画素数 ly (l≤lx、 l≤ly) 力 なる矩形領域に分割するものとし、その領域数は m X n個(m=ISXZlx、 n=IS Y/ly)であるものとする。また、制御部 9aは、 mまたは nが整数とならない場合にお いては、大きさが端数となる最端部の領域を、端数の画素数を有する領域として処理 するか、または以降の処理対象から除外するものとする。
[0230] 制御部 9aは、分割した各領域において、撮像対象の像の画像上における色の違 レ、を反映する色調情報、及び撮像対象の像の画像上における構造の違レ、を反映す るテクスチャ情報を特徴量として算出する(図 32のステップ S203)。なお、以降の説 明においては、制御部 9aにおいて分割された領域のうち、一の領域を Hj (l≤j≤m X n)と示すものとする。
[0231] 本実施形態において、制御部 9aが算出する色調情報は、一の領域 Hjに含まれる 各画素の RGB値の比に基づく値としての、 gik/rikの平均値(以降、 x gjと記す)及 び bikZrikの平均値(以降、 z bjと記す)からなる、 2つの特徴量として示される値で ある。なお、 及び の各値は、 0から 1の値をとるものとする。また、 μ び μ bjの各値は、例えば、胃粘膜のような比較的赤色調を示す領域においては、略同様 に小さな値をとる。一方、 /i gj及び i bjの各値は、例えば、小腸のような比較的白色 調を示す領域においては、略同様に大きな値をとる。また、 / gj及び i bjの各値は、 例えば、便のような比較的黄色調を示す領域においては、 / gj > M bjとなるような値 をとる。
[0232] 本実施形態において、制御部 9aが算出するテクスチャ情報は、前述したように、撮 像対象の像の画像上における構造の違いを反映するものである。そして、撮像対象 の像の画像上における構造は、例えば、粘膜表面における絨毛等の微細構造、及 び便が有する不定形な模様等として示されるものである。具体的には、制御部 9aが 算出するテクスチャ情報は、一の領域 Hjに含まれる各画素の RGB値の標準偏差 σ r j、 σ 及び σ bjを、一の領域 Hjに含まれる各画素の RGB値の平均値 mrj、 mgj及び mbjで除したものである、 3つの特徴量として示される RGB値の変動係数 CVrj、 CV gj及び CVbjである。なお、変動係数 CVrj、 CVgj及び CVbjを算出するための計算 式は、下記数式(17)、数式(18)及び数式(19)として示される。
[0233] CVrj = σ η/πιη · · · (17)
CVgj = a gj /mgj · ' · (18) CVbj = a bj/mbj · · · (19) 上記数式(17)、数式(18)及び数式(19)により算出される変動係数 CVrj、 CVgj 及び CVbjにより、撮像対象に対して供給される照明光量の違い等による影響によら ず、テクスチャ構造による画素変動の程度を数値化することができる。 CVrj、 CVgj及 び CVbjの各値は、例えば、拡大観察を行っていない状態である、通常観察におい て撮像された胃粘膜のような、画像上における構造が比較的平坦な領域においては 、明瞭なテクスチャ構造がないため、略同様に小さな値をとる。一方、 CVrj、 CVgj及 び CVbjの各値は、例えば、小腸の絨毛のような、画像上における構造にエッジを比 較的多く含む領域にぉレ、ては、略同様に大きな値をとる。
[0234] そして、制御部 9aは、色調情報及びテクスチャ情報からなる 5つの特徴量、すなわ ち、 z gj、 z bj、 CVrj、 CVgj及び CVbjの各値を、ハレーション画素及び喑部画素を 除いた各画素の RGB値に基づき、 m X n個の領域 Hj各々において算出する。なお、 本実施形態においては、一の領域 Hjが有する、 (lx X ly)個の画素において、例え ば、ハレーション画素の個数と、暗部画素の個数との和が占める割合が 50%を超え た場合、一の領域 Hjを以降の処理から除外するような制御が行われるものであって も良い。
[0235] その後、制御部 9aは、以降に説明する処理を行うため、一の領域 Hjの領域番号 jを j = lとする(図 32のステップ S204)。そして、制御部 9aは、ベイズの定理に基づく統 計的識別器を用い、胃粘膜、絨毛、便及び泡からなる 4つのクラスのうち、一の領域 Hjがどのクラスに属するかを識別し、該識別結果に基づく分類を行う。
[0236] 具体的には、 4つのクラスの識別及び分類において、一のクラス co a (a= l、 2、 ·■·、 C、 Cはクラス数を示す)が発生する事前確率を Ρ ( ω a)とし、一の領域 Hjにおける 5 つの特徴量から決定された特徴ベクトルを とし、全クラスからの特徴ベクトル の発 生確率に基づく確率密度関数を p (x)とし、一のクラス ω aからの特徴ベクトル≤の発 生確率に基づく状態依存確率密度 (多変量正規確率密度)関数を p (S I c a)とする と、発生した特徴べクトル≤がーのクラス ω aに属する事後確率 Ρ ( ω a | を算出する ための計算式は、下記数式(20)として示される。 [0237]
Ρ{ωα I x) = p(x | ωά)Ρ ωά) Ι p{x) ( 2 0 ) なお、状態依存確率密度関数 p (2£ I co a)及び確率密度関数 p (2£)は、下記数式(2
1)及び数式(22)として示される。
Figure imgf000061_0001
μα)] · · · ( 2 1 )
Figure imgf000061_0002
なお、上記数式(21)及び数式(22)において、 dは 2£の特徴量の個数と同数である 次元数を示し、 及び∑ aはクラス ω aにおける特徴ベクトル の平均ベクトル及び 一のクラス ω aにおける分散共分散行列を示すものとする。また、 (χ- &) ¾ (χ- ia)の転置行列を示し、 I ∑a I は∑ aの行列式を示し、∑ a— 1は∑ aの逆行列を示 すものとする。さらに、説明の簡単のため、事前確率 P ( ω a)は、全クラスにぉレ、て等 しい値をとると仮定し、また、確率密度関数 p ( )は、上記数式(22)により全クラス共 通の関数として表されるものとする。
[0239] 前述したようなベイズの定理に基づく統計的識別器と共に、分類基準として用いら れる平均ベクトル 及び分散共分散行列∑ aは、一のクラス ω aにおける母数を構 成する要素であり、 1番目の画像 IIが端末装置 7に入力される以前の段階において、 胃粘膜、絨毛、便及び泡からなる 4つのクラスの教師データを構成する複数の画像、 例えば、第 1の実施形態の説明において示した、図 14、図 15、図 16及び図 17のよう な画像に基づき、該画像の一の領域各々において都度決定される特徴ベクトル sか ら、クラス毎に予め算出された後、初期値として端末装置 7に各々記録される。なお、 このとき、制御部 9aは、各クラスの教師データにおける特徴ベクトルに、画像 Iiにおけ る各クラスの特徴べクトノレを加えるようにして母数を推定しても良い。
[0240] なお、平均ベクトル " aは、特徴ベクトル 2£が有する 5つの特徴量各々の平均値から なり、かつ、特徴ベクトル sと同一の次元数を有するベクトルである。すなわち、特徴 ベクトノレ X.力 Sx= (xl , x2, x3, x4, x5)として表される場合、平均べタトノレ aは、特 徴ベクトル が有する 5つの特徴量各々の平均値である、 /ιχ1、 /ιχ2、 /ιχ3、 /ιχ4 ねよび/ i χ5·2Γ用レヽて、 Li a= ( i xl, /ιχ2, /ιχ3, /ιχ4, ιχ5)として表されるものと する。また、分散共分散行列∑ aは、一のクラス ω aに属する特徴ベクトル 2£の分布の バラツキ及び広がり具合を示す行列であり、特徴ベクトル≤の特徴量の個数と同数で ある次元数 dに対し、 dXd行列として表されるものとする。
[0241] 制御部 9aは、発生した特徴ベクトル≤がクラス ω 1に属する事後確率 Ρ (ωΐ | と、 発生した特徴べクトル≤力 Sクラス ω 2に属する事後確率 Ρ ( ω 2 I と、発生した特徴 ベクトル 力 Sクラス ω 3に属する事後確率 Ρ ( ω 3 I と、発生した特徴ベクトル≤がクラ ス ω4に属する事後確率 Ρ(ω4 | とを、ベイズの定理に基づいた上記数式(20)か ら数式(22)を用いて各々算出する。そして、制御部 9aは、これら 4つの事後確率のう ち、最大の事後確率 Pl(c a I を与えるクラス ω aに特徴ベクトル が属するものと して識別を行レ、、該識別結果に基づいて特徴ベクトル が発生した領域である一の 領域 Hjをクラス ω aに分類する(図 32のステップ S205)と共に、最大の事後確率 P1 ( coa I を与える確率密度関数 Pl(2 I ω a)の値を算出する。
[0242] そして、制御部 9aは、以上までの処理にぉレ、て、クラス ω aに分類された一の領域 Hjの分類結果が正確なものであるか否かを判定するため、平均値からの距離に基づ く処理、すなわち、最大の事後確率 PI (coa I を与える確率密度関数 Pl(2 I coa) の値に対する閾値に基づく処理をさらに行う。
[0243] 具体的には、まず、制御部 9aは、平均ベクトル が有する 5つの特徴量各々の平 均値のうち、例えば、特徴量 xlの平均値 μχΐに対し、特徴量 xlの標準偏差 σχΐと 、所定の定数としての乗算係数 αとの積を加えた値を含む、閾値ベクトル 2 ^を決定 する。なお、このような閾値ベクトル≤klは、例えば、下記数式(23)として示されるも のであり、また、本実施形態においては、乗算係数ひの値は 1. 5であるとする。
[0244] x l= (μ 1+ α X σχΐ, μχ2, μχ3, μ χ4, μ χ5) · · · (23)
上記数式(23)により閾値ベクトル≤klが決定されると、制御部 9aは、閾値ベクトル≤ hiを上記数式(20)、数式(21)及び数式(22)の≤として代入し、一の領域 Hjが分類 されたクラス c aの閾値としての、確率密度関数 p I c a)の値を算出する。
[0245] そして、制御部 9aは、 pi I coa)の値が p(≤kl | ω a)の値より大きいことを検出 する(図 32のステップ S206)と、図 32のステップ S205に示す処理にぉレヽて、一の領 域 Hjをクラス ω aに分類した分類結果が正確であると判断する(図 32のステップ S20 7)。
[0246] また、制御部 9aは、 pl (x | ω a)の値が p (xbl | ω a)の値以下であることを検出す る(図 32のステップ S206)と、図 32のステップ S205に示す処理において、一の領域 Hjをクラス ω aに分類した分類結果が不正確であると判断し、一の領域 Hjを不明クラ スに分類する(図 32のステップ S208)。
[0247] そして、制御部 9aは、分割した m X n個の領域全てについての分類が完了してい ない場合(図 32のステップ S209)、領域番号 jに 1を加え(図 32のステップ S210)、 次の領域について、図 32のステップ S205力、らステップ S209までに示す処理を行う 。また、制御部 9aは、分割した m X n個の領域全てについての分類が完了した場合( 図 32のステップ S209)、画像 Iiにおける m X n個の分類結果と、 m X n個の領域が各 々有する特徴量とに基づき、 4つのクラス各々において、分類基準としての平均べタト ノレ ϋ及び分散共分散行列∑ aを再度算出する(図 33のステップ S211)。なお、平 均ベクトル且 及び分散共分散行列∑ aを再度算出する際に、色調情報及びテクス チヤ情報に基づく 5つの特徴量全てについて算出するのではなぐ例えば、色調情 報を構成する 2つの特徴量についてのみ算出するようにしてもよい。
[0248] その後、制御部 9aは、以降に説明する処理を行うため、一の領域 Hjの領域番号 jを j = lとする(図 33のステップ S212)。
[0249] 制御部 9aは、図 33のステップ S211に示す処理において算出された平均べクトノレ 及び分散共分散行列∑ aが代入された上記数式 (20)から数式 (22)を用い、発 生した特徴べクトル≤力 Sクラス ω 1に属する事後確率 Ρ ( ω 1 I と、発生した特徴べク トル がクラス ω 2に属する事後確率 Ρ ( ω 2 I と、発生した特徴べクトル≤がクラス ω 3に属する事後確率 Ρ ( ω 3 I と、発生した特徴べクトル≤がクラス ω 4に属する事後 確率 Ρ ( ω 4 I とを、再度各々算出する。そして、制御部 9aは、これら 4つの事後確 率のうち、最大の事後確率 P2 ( co a I を与えるクラス ω aに特徴ベクトル が属する ものとして識別を行レ、、該識別結果に基づいて特徴ベクトル≤が発生した領域である 一の領域 Hjをクラス ω aに再分類する(図 33のステップ S213)と共に、最大の事後 確率 P2(coa I を与える確率密度関数 P2(2£ I ω a)の値を算出する。
[0250] そして、制御部 9aは、以上までの処理にぉレ、て、クラス ω aに再分類された一の領 域 Hjの再分類結果が正確なものであるか否かを判定するため、最大の事後確率 P2 (coa I を与える確率密度関数 P2(≤ I ω a)の値に対する閾値に基づく処理をさら に行う。
[0251] すなわち、前述したように、図 33のステップ S211に示す処理において算出された 平均ベクトル が有する 5つの特徴量各々の平均値のうち、例えば、特徴量 xlの平 均値 μ xlに対し、特徴量 xlの標準偏差 σ xlと、所定の定数としての乗算係数ひと の積を加えた値を含む、閾値ベクトル≤b を決定する。そして、閾値ベクトル≤ が決 定されると、制御部 9aは、閾値ベクトル≤ を上記数式(20)、数式(21)及び数式(2 2)の として代入し、一の領域 Hjが再分類されたクラス c aの閾値としての、確率密 度関数 P(≤ l coa)の値を算出する。
[0252] そして、制御部 9aは、 p2(2£ I coa)の値が ρ(^ | ω a)の値より大きいことを検出 する(図 33のステップ S214)と、一の領域 Hjをクラス ω aに再分類した再分類結果が 正確であると判断する(図 33のステップ S215)。
[0253] また、制御部 9aは、 ρ2(χ | ω a)の値が p (xb2 | ω a)の値以下であることを検出す る(図 33のステップ S214)と、一の領域 Hjをクラス ω aに再分類した再分類結果が不 正確であると判断し、一の領域 Hjを不明クラスに再分類する(図 33のステップ S216)
[0254] そして、制御部 9aは、分割した mXn個の領域全てについての分類が完了してい ない場合(図 33のステップ S217)、領域番号 jに 1を加え(図 33のステップ S218)、 次の領域について、図 33のステップ S213からステップ S217までに示す処理を行う 。また、制御部 9aは、分割した mXn個の領域全てについての分類が完了した場合( 図 33のステップ S217)、今度は(i+ 1)番目の画像 Ii+ 1に対し、図 32のステップ S2 01からの一連の処理を行う(図 33のステップ S219)。
[0255] なお、図 33のステップ S211に示す処理において算出された平均ベクトル 及び 分散共分散行列∑ aは、(i+1)番目の画像 Ii+1に対して行われる、図 32のステップ S205に示す処理において使用されるものであってもよい。この場合、時間的に連続 する画像間において、画像の識別および分類に使用される母数を動的に変更するこ とにより、画像の分類をさらに高精度に行うことができる。
[0256] また、一般に、生体粘膜表面の像は、テクスチャ情報に基づく差に比べ、色調情報 に基づく差が顕著である。そのため、制御部 9aは、図 33のステップ S211に示す処 理におレ、て、色調情報及びテクスチャ情報の両方に対して平均ベクトル ϋ及び分 散共分散行列∑ aを再度算出する処理を行うものに限らず、例えば、色調情報また はテクスチャ情報のうち、いずれか一方のみに対して 及び分散共分散行列∑ aを 再度算出する処理を行うものであっても良い。
[0257] 端末装置 7の制御部 9aは、以上に述べたような、図 32及び図 33のステップ S201 力 ステップ S218に示す画像 Iiの分類結果を用いた処理をさらに行うことにより、例 えば、画像 Iiが胃粘膜、絨毛等の像である生体粘膜表面の像であるか否力を判断す ること力 Sできる。
[0258] 具体的には、制御部 9aは、図 32及び図 33のステップ S201からステップ S218に 示す画像 Iiの分類結果において、各クラスに分類された領域数を数えた後、例えば、 胃粘膜クラスまたは絨毛クラスに分類された領域数 Aが全領域数 (m X n)に占める割 合を算出する。そして、制御部 9aは、 A/ (m X n)が所定の閾値以上 (例えば 0. 8) である場合、画像 Iiが生体粘膜表面の像であると判断する。これにより、制御部 9aは 、生体粘膜表面の像であることが確実な画像を抽出することができる。
[0259] また、以上の説明においては、色調情報及びテクスチャ情報に基づく 5個の特徴量 の全てを一度に用いて特徴ベクトル 2£を決定するような、 5次元の多変量正規確率密 度を規定する場合について述べた。しかし、本実施形態における画像処理方法にお いては、例えば、色調情報及びテクスチャ情報についての各々の特徴量を個別に用 いて 2種類の特徴ベクトル および を決定し、 1つのクラスにつき 2個の多変量正 規確率密度を規定することにより、画像の分類をさらに高精度に行うことができる。
[0260] 具体的には、まず、制御部 9aは、色調情報を構成する 2個の特徴量 μ gj及び/ z bj についての状態依存確率密度関数を pc I c a)として、また、テクスチャ情報を構 成する 3個の特徴量 CVrj、 CVgj及び CVbjについての状態依存確率密度関数を pt (xt I co a)として各々算出する。なお、 は、≤£= gj, At bj)として表される 2次元 のベクトルであり、また、 ^は、 2l= (Cvrj、 Cvgj、 Cvbj)として表される 3次元のベタト ルである。
[0261] 制御部 9aは、これら 2つの状態依存確率密度関数 pc I coa)及び pt(^ | ω a) を用いて数式(21)に基づく事後確率 Pc(c a I )及び Pt(c a | )を算出した後 、最終的な事後確率 Ρ(ω a I を下記数式(24)により算出する。
[0262] P( a I x) =Pc(Wa | xc) X Pt ( ω a | xt) · · · (24)
また、クラス ω aへの分類結果の正確性を判断するための閾値は、色調情報及びテ タスチヤ情報の特徴量各々の平均ベクトル μ c及び μ tと、標準偏差 σ cl及び σ tl に基づき、例えば、 p(2^ I oa)及び p(≤i I ω a)として設定される。そして、制御 ¾9a¾, pi (xc I ωα) >p(xcb | ω a)であり、力、つ、 pi ( I ω a) >p(xtb | ω a) であれば、分類結果は正確であるとして、特徴ベクトル xcおよび特徴ベクトル xtを有 する一の領域 Hjを、胃粘膜、絨毛、便または泡のいずれかのクラスとして分類し、そう でなければ不明クラスとして分類する。
[0263] なお、以上の説明において、事前確率 P(coa)は、全クラスにおいて等しいと仮定し た力 これに限るものではない。事前確率 P(coa)は、例えば、カプセル型内視鏡 3が 撮像する部位の時間配分に基づき、絨毛クラスまたは便クラスの事前確率 P ( ω a)を 高めに設定したり、カプセル型内視鏡 3が撮像した部位の誤分類によるリスクに基づ き、胃粘膜クラス及び絨毛クラスの事前確率 Ρ(ω a)を、観察不要とする便クラス及び 泡クラスより高めに設定したり等、種々の用途に応じた値に設定されるものであっても 良い。
[0264] さらに、以上の説明において、画像の分類を行う際に制御部 9aが用いる統計的識 別器は、ベイズの定理に基づくものに限るものではなぐ例えば、線形判別関数等に 基づくものであっても良レ、。
[0265] 以上に述べたように、本実施形態によれば、生体粘膜表面の像としての胃粘膜及 び絨毛の像と、異物または非生体粘膜の像としての便及び泡の像とを画像の小領域 毎に識別して分類することができる。そのため、ユーザは、画像の小領域の多くを異 物の像が占めるような、生体粘膜表面の像が良好に撮像されていない画像を、観察 不要の画像として容易に除外することができ、その結果、カプセル型内視鏡装置 1を 用いた観察効率の向上をはかることができる。
[0266] また、以上に述べたように、本実施形態によれば、統計的識別器の母数を、端末装 置 7に入力される画像に応じた最適な値として算出することができる。そのため、本実 施形態に用レ、るカプセル型内視鏡装置 1は、生体粘膜表面の色調及び微細な構造 の個人差、カプセル型内視鏡 3を構成する各部の特性バラツキ等により、特徴量に 変化が生じる場合においても、端末装置 7に入力される画像の各領域の分類を高精 度に行うことができる。
[0267] また、本実施形態によれば、生体粘膜表面の像として分類された各々の領域に対 し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病 変部位の像と分類するような画像処理方法を用いた処理を行うことにより、病変部位 の検出精度を高めることができる。
[0268] さらに、本実施形態によれば、画像において絨毛の像あるいは便の像が撮像され ていることを検出して分類することができる。そのため、制御部 9aは、前記分類結果 に基づき、例えば、便の像が画像の多くを占めていれば大腸が撮像された画像であ る等の分類基準をさらに用いた処理を行うことにより、前記画像において撮像された 臓器を特定することができる。
[0269] (第 8の実施形態)
図 35から図 40は、本発明の第 8の実施形態に係るものである。なお、第 1の実施形 態から第 7の実施形態までと同様の構成を持つ部分については、詳細説明は省略す る。また、第 1の実施形態から第 7の実施形態までと同様の構成要素については、同 一の符号を用いて説明は省略する。また、本実施形態におけるカプセル型内視鏡装 置 1の構成は、第 1の実施形態から第 7の実施形態までの形態と同様であると共に、 本実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パー ソナルコンピュータにおいて実行されるプログラムとして実現されているものとする。そ して、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける 処理として行われるものとする。
[0270] 図 35は、本実施形態の画像処理装置における画像処理動作を示すフローチヤ一 トである。図 36は、本実施形態の画像処理装置における画像処理動作を示すフロー チャートである。図 37は、本実施形態の画像処理動作において、一の領域における 近傍領域を決定する際の一例を示す図である。図 38は、本実施形態の画像処理動 作において用いられる、カプセル型内視鏡により撮像された体腔内の像の画像の一 例を示す模式図である。図 39は、図 38に示す画像の分類結果の一例を示す図であ る。図 40は、図 39に示す分類結果に基づき、本実施形態の画像処理動作を行った 後の再分類結果を示す図である。
[0271] 制御部 9aは、本実施形態における画像処理動作を行う前に、まず、カプセル型内 視鏡 3により撮像された体腔内の像の画像に基づく画像信号を入力し、入力された i 番目の画像 Iiに対し、第 7の実施形態において説明した、図 32および図 33に示す、 ステップ S201からステップ S218までの処理を行レ、、画像 Iiについての分類結果を 得る(図 35のステップ S221)。
[0272] その後、制御部 9aは、領域統合の繰り返し回数を示す countの値(1≤ count)を c ount= lとする(図 35のステップ S222)。なお、領域統合の最大繰り返し回数を示す countmaxの値は、ユーザにより設定される値である。そして、制御部 9aは、ユーザ により設定された countmaxの値の回数分だけ、以降に詳述するような領域統合の 処理を行う。また、本実施形態においては、 countmaxの値は 5であるとして以降の 説明を行う。
[0273] そして、制御部 9aは、一の領域 Hjの領域番号 jを j = lとした後(図 35のステップ S2 23)、一の領域 Hjをクラス c (c = l、 2、 3、 4または 5)に分類したことに対する評価を 行うための評価値を算出する。なお、クラス 1からクラス 5までの 5つのクラス各々は、 胃粘膜クラス、絨毛クラス、便クラス、泡クラス及び不明クラスのうちのいずれかのクラ スと一対一に対応するものであるとする。
[0274] 具体的には、まず、制御部 9aは、領域 Hjの分類候補となるクラス cを c= 1とする(図 36のステップ S231)。その後、制御部 9aは、後述する、領域 Hjの近傍領域の分類 結果に基づくコスト関数から導出される値である評価値 Vjcを Vjc = 0とする(図 36の ステップ S232)。そして、制御部 9aは、例えば、図 37に示されるような、一の領域 Hj の 8近傍領域を示す領域 s (s = l、 2、 3、 4、 5、 6、 7または 8)を s = 1とする(図 36の ステップ S233)。なお、領域 1から領域 8までの 8つの領域として示される、一の領域 Hjの 8近傍領域各々は、例えば、図 37に示されるような領域 1から領域 8の矩形領域 のうち、いずれかの領域と一対一に対応するものであるとする。また、一の領域 Hjの 各近傍領域は、以降 Hjsと示されるものとする。また、一の領域 Hjが画像辺縁部であ る、及び喑部画素またはハレーション画素のため処理から除外された領域がある等 の理由により、一の領域 Hjの近傍領域が 8領域分設定できない場合、制御部 9aは、 一の領域 Hjの近傍領域として設定可能な領域分のみに対し、以降の処理を行うもの とする。
[0275] 制御部 9aは、画像 Iiについての分類結果から、近傍領域 Hjsをクラス cに分類した か否かを判定する(図 36のステップ S234)。そして、評価値算出部としての機能を有 する制御部 9aは、近傍領域 Hjsをクラス cに分類していないことを検出すると、下記数 式(25)により示されるコスト関数を用レ、、評価値 Vjcの値に 0. 2を加える(図 36のス テツプ S 235)。
[0276] Vjc=Vjc + 0. 2 · · · (25)
その後、制御部 9aは、領域 sの値に 1を加えつつ、一の領域 Hjの近傍領域 Hjs全て に対し、図 36のステップ S234およびステップ S235に示す、上記数式(25)を用いた 処理を繰り返し行うことにより、クラス cにおける評価値を算出する(図 36のステップ S2 36およびステップ S237)。
[0277] さらに、制御部 9aは、クラス cにおける評価値を決定すると(図 36のステップ S236) 、クラス cの値に 1を加えつつ、図 36のステップ S232力らステップ S237に示す一連 の処理を繰り返し行うことにより、クラス 1からクラス 5までの全てのクラスにおける評価 値を算出する(図 36のステップ S238およびステップ S239)。
[0278] 領域分類部としての機能を有する制御部 9aは、各 Vjcの値、すなわち、 Vj l、 Vj2、 Vj3、 Vj4及び Vj5の値を比較し、最小の Vjcの値を与えるクラス cに、一の領域 Hjを 再分類する(図 35のステップ S224)。なお、制御部 9aは、最小の Vjcの値を与えるク ラス cが複数存在した場合には、例えば、 cが最小となるクラスを選択するような処理を 行うものとする。
[0279] そして、制御部 9aは、所定の countの値において、分割した m X n個の領域全てに ついての分類が完了していない場合(図 35のステップ S225)、領域番号 jに 1を加え (図 35のステップ S226)、次の領域について、図 35のステップ S223およびステップ S224に示す処理と、図 36のステップ S231力らステップ S239に示すまでの処理と 力 なる一連の処理を繰り返し行う。
[0280] 制御部 9aは、分割した m X n個の領域全てについての分類が完了し、かつ、 coun tの値力 Scountmaxの値より小さい場合(図 35のステップ S227)、 countの値に 1を 加えた後(図 35のステップ S228)、画像 liに対し、図 35のステップ S222からステップ S227に示す処理と、図 36のステップ S231力、らステップ S239に示すまでの処理と 力 なる一連の処理を繰り返し行う。また、制御部 9aは、分割した m X n個の領域全 てについての分類が完了し、かつ、 countの値が countmaxの値以上である場合( 図 35のステップ S227)、今度は(i+ 1)番目の画像 Ii+ 1に対し、図 35のステップ S2 21からの一連の処理を行う(図 35のステップ S229)。
[0281] なお、端末装置 7の制御部 9aが本実施形態における画像処理動作を用いて処理 を行った際の一例を図 38、図 39及び図 40に示す。図 38は、以上に述べた本実施 形態における画像処理動作において、画像 Πに相当する画像を模式的に示した図で ある。そして、図 39に示すような画像 liが端末装置 7に入力されると、端末装置 7の制 御部 9aは、図 35のステップ S221に示す処理において、図 39に示すような分類結果 を得る。その後、制御部 9aは、図 39に示すような分類結果に基づき、さらに図 35の ステップ S222以降に示す領域統合の処理を countmaxの値として予め設定された 回数 (本実施形態においては 5回)分繰り返して行うことにより、図 40に示すような再 分類結果を得る。
[0282] 以上に述べたように、制御部 9aにより本実施形態における画像処理方法を用いた 処理が行われる場合、ユーザは、第 7の実施形態において述べた効果と同様の効果 として、カプセル型内視鏡装置 1を用いた観察における観察効率の向上をはかること ができるという効果を得ることができる。また、本実施形態における画像処理方法を用 いた場合、端末装置 7の制御部 9aは、端末装置 7に入力される画像の所定の領域の 再分類を、該所定の領域の近傍領域における分類結果に基づいて行うため、誤分 類領域の発生を抑制しつつ、該画像の各領域の分類をさらに高精度に行うことがで きる。 [0283] (第 9の実施形態)
図 41から図 47は、本発明の第 9の実施形態に係るものである。なお、第 1の実施形 態から第 8の実施形態までと同様の構成を持つ部分については、詳細説明は省略す る。また、第 1の実施形態から第 8の実施形態までと同様の構成要素については、同 一の符号を用いて説明は省略する。また、本実施形態におけるカプセル型内視鏡装 置 1の構成は、第 1の実施形態から第 8の実施形態までの形態と同様であると共に、 本実施形態における画像処理方法もまた同様に、端末装置 7としての、例えば、パー ソナルコンピュータにおいて実行されるプログラムとして実現されているものとする。そ して、本実施形態における画像処理方法は、端末本体 9が有する制御部 9aにおける 処理として行われるものとする。
[0284] 図 41は、本実施形態における画像処理動作を示すフローチャートである。図 42は 、本実施形態における画像処理動作を示すフローチャートである。図 43は、本実施 形態における画像処理動作において、 4 X 4の画素数を有する小矩形領域各々に対 して仮想的に付与する番号の配列の一例を示す図である。図 44は、本実施形態に おける画像処理動作にぉレ、て、一の矩形領域 ROに対する近傍外周領域 Htの位置 関係を示す図である。図 45は、本実施形態における画像処理動作において、近似 g radientベクトル sl及び方向ベクトル d!がなす角度 Θ tの一例を示す図である。図 46は、本実施形態において用いられるカプセル型内視鏡により撮像された体腔内の 像の画像の一例を示す模式図である。図 47は、図 46に示す画像の分類結果の一 例を示す図である。
[0285] まず、端末装置 7の制御部 9aは、前述したような、図 32のステップ S201からステツ プ S203に示す処理と略同様の処理を行う。すなわち、制御部 9aは、カプセル型内 視鏡 3により撮像された体腔内の像の画像に基づく画像信号を入力し、入力された i 番目の画像 Iiに対して前処理を行レ、(図 41のステップ S241)、画像 Iiを m X n個の小 領域に分割した(図 41のステップ S242)後、分割した各領域において、色調情報及 びテクスチャ情報を特徴量として算出する(図 41のステップ S243)。そして、制御部 9 aは、以降に述べる画像処理を行い、分割した各領域のうち、構造的に明確な特徴を 有するクラスとして予め設定されたクラスである、例えば、泡クラスに分類される領域を 検出する(図 41のステップ S244)。なお、本実施形態においては、制御部 9aは、画 像 Iiを m X n個の小領域に分割する際に、各々の領域が lx=ly= 8となるように、すな わち、 8 X 8の画素数を有する矩形領域となるように画像 Iiを分割するものとする。
[0286] 具体的には、制御部 9aは、画像 Iiの各プレーンのうち、緑色のプレーンであるプレ ーン Giにおいて、 8 X 8の画素数を有する各々の矩形領域を、さらに 4分割すること により、各々が 4 X 4の画素数を有する小矩形領域を生成する(図 42のステップ S25 1) 0制御部 9aは、 4 X 4の画素数を有する小矩形領域各々における G (緑)画素の濃 度値の平均値 gaを算出した後、 4 X 4の画素数を有する小矩形領域各々に対し、例 えば、図 43に示すような配列を有する番号を仮想的に付与する。そして、制御部 9a は、領域 1と領域 7または領域 2と領域 8を結ぶ線分からなる方向を画像上の垂直方 向、領域 3と領域 4または領域 5と領域 6を結ぶ線分からなる方向を画像上の水平方 向、領域 2と領域 5または領域 4と領域 7を結ぶ線分からなる方向を画像上の左斜め 方向、及び領域 1と領域 6または領域 3と領域 8を結ぶ線分からなる方向を画像上の 右斜め方向として各々設定した後、各々の領域間において、 G画素の濃度値の平均 値 gaの対数差分の値を算出する。その後、制御部 9aは、前記対数差分の値が最大 となる領域の組み合わせが存在する画像上の方向に、略円形形状のエッジを示す 画素の配列が存在すると判断し、前記対数差分の最大値と、前記最大値を与える画 像上の方向とを一時的に保持する。
[0287] また、注目領域設定部及び近傍外周領域検出部としての機能を有する制御部 9a は、 8 X 8の画素数を有する矩形領域のうち、図 44に示すように、注目領域としての 一の矩形領域 ROを、略円形形状の中央部が存在する領域として仮想的に座標 (xo , yo)と設定した後、 (xo, yo)から距離 Q (Q = 1, 2, 3,■·■)だけ離れた領域、すなわ ち、 R〇を中央部とする略円形形状のエッジの少なくとも一部が存在し得る領域として 、座標 (xt, yt)により示される近傍外周領域 Ht (t= l, 2, 3,…, T)を下記数式(26 )により検出する(図 42のステップ S252)。
[0288] [ ( (xo - xt) 2 + (yo - yt) 2) 1 2] = Q · · · (26)
なお、上記数式(26)において、 [ ]はガウス記号を示すものとする。
[0289] ベクトル算出部としての機能を有する制御部 9aは、上記数式(26)を満たす座標 (x t, yt)を全て検出した後、検出した近傍外周領域各々における近似 gradientベタト ル slと、各座標 (xt, yt)及び座標 (xo, yo)を結ぶ方向ベクトル dlとを算出する( 図 42のステップ S253)。
[0290] なお、近傍外周領域 Ht各々における近似 gradientベクトル giは、制御部 9aに保 持された、 G画素の濃度値の平均値 gaの対数差分の最大値を大きさとして有し、また 、前記最大値を与える画像上の方向を方向として有するベクトルである。
[0291] そして、制御部 9aは、近傍外周領域 Ht各々における近似 gradientベクトル gi及 び方向ベクトル Vdtを算出すると、 Vgtの大きさ I gi I の値が閾値 (本実施形態に おいては 0. 4)以上であるか否かを判定する。制御部 9aは、 I Iの値が閾値以 上であることを検出すると、内積の公式に基づき、図 45に示すような、近似 gradient ベクトル Vgt及び方向ベクトル Vdtがなす角度 Θ tについて、下記数式(27)により co s の値を算出する(図 42のステップ S254)。
[0292] cos Θ t=Vgt -Vdt/ | Vgt | | Vdt | · · · (27)
エッジ判定部としての機能を有する制御部 9aは、上記数式(27)を用いた cos Θ tの 算出結果に基づき、 I cos 6 t I の値が 0· 7より大きいことを検出する(図 42のステツ プ S255)と、一の矩形領域 ROを中心とした放射状の gradientベクトルが近傍外周 領域 Htに存在する、すなわち、一の矩形領域 ROを中央部とする略円形形状のエツ ジの少なくとも一部が存在すると判断すると共に、該一の矩形領域 ROを抽出する。
[0293] 領域抽出部としての機能を有する制御部 9aは、 T個の近傍外周領域のうち、 L個の 領域において一の矩形領域 ROを中心とした放射状の gradientベタトノレが存在する 場合、 L/Tの値に基づき、 L/Tの値が、例えば 0. 7以上であれば(図 42のステツ プ S256)、抽出した前記一の矩形領域 R〇に略円形形状を有する泡の中央部が存 在すると判断する。そして、制御部 9aは、距離 Qの値を、ユーザによって予め設定さ れた Qmaxの値まで変化させつつ、距離 Qの値各々において前述したような処理を 行う(図 42のステップ S257及びステップ S258)。また、制御部 9aは、 8 X 8の画素数 を有する矩形領域全てに対し、順次一の矩形領域 R〇を設定しつつ、設定した領域 RO各々について、都度前述したような処理を行う(図 42のステップ S259及びステツ プ S260)。制御部 9aは、以上に述べたような処理を行うことにより、画像 Ii上の様々 な領域に存在する、様々な泡の大きさに応じ、泡クラスに分類される領域を検出する
[0294] その後、制御部 9aは、泡クラスに分類される領域以外の領域において、絨毛クラス に分類される領域を検出する(図 41のステップ S245)ため、図 32のステップ S205力 らステップ S210に示す処理と略同様の処理を行う。
[0295] すなわち、前述したように、制御部 9aは、教師データに基づいてクラス毎に予め算 出された平均ベクトル 及び分散共分散行列∑ aを有する上記数式(20)から数式 (22)を用レ、、発生した特徴ベクトル がクラス ωΐに属する事後確率 Ρ(ω1 | と、 発生した特徴べクトル≤力 Sクラス ω 2に属する事後確率 Ρ ( ω 2 I と、発生した特徴 ベクトル 力 Sクラス ω 3に属する事後確率 Ρ ( ω 3 I と、発生した特徴ベクトル≤がクラ ス ω4に属する事後確率 Ρ(ω4 | とを各々算出する。そして、制御部 9aは、これら 4つの事後確率のうち、最大の事後確率 Ρ1(ω a | を与えるクラス ω aに特徴べタト ノレ 2£が属するものとして識別を行レ、、該識別結果に基づいて特徴ベクトル が発生し た領域である一の領域 Hjをクラス ω aに分類する。さらに、絨毛クラスをクラス ω 1 (a =1)とすると、制御部 9aは、 mXn個の領域のうち、以上までの処理においてクラス ω 1に分類された領域を検出し、該領域各々において、最大の事後確率 P1 (ωΐ | χ )を与える確率密度関数 pi (x I ω 1)の値を算出する。
[0296] そして、制御部 9aは、クラス ω 1に分類された領域各々の分類結果が正確なもので あるか否力を判定するため、最大の事後確率 Ρ1(ω1 I 2 ^を与える確率密度関数 Pi (x I ωΐ)の値に対する閾値に基づく処理をさらに行う。
[0297] 具体的には、前述したように、制御部 9aは、教師データに基づいて予め算出された 平均ベクトル illが有する 5つの特徴量各々の平均値のうち、例えば、特徴量 xlの 平均値 μ xlに対し、特徴量 xlの標準偏差 σ xlと、所定の定数としての乗算係数ひ との積を加えた値を含む、閾値ベクトル≤hlを決定する。なお、乗算係数ひの値は、 絨毛クラスの分類を確実に行うため、 pl(x I ω 1)の値に対する閾値を構成する値と して、本処理においては 0. 8として設定されるものであるとする。そして、閾値べタト ノレ≤klが決定されると、制御部 9aは、閾値ベクトル 2^1を上記数式(20)、数式(21) 及び数式(22)の として代入することにより、確率密度関数 p(≤hl I ωΐ)の値を算 出する。
[0298] そして、制御部 9aは、 pi (χ | ω 1)の値が p (xbl | ω 1)の値より大きくなる領域に ついては、絨毛クラスに分類した分類結果が正確であると判断し、また、 pl (x I ω 1) の値が p (2^1 I ω ΐ)の値以下となる領域については、絨毛クラスに分類した分類結 果が不正確であると判断し、該当する領域を不明クラスに分類する。
[0299] 制御部 9aは、 m X n個の領域に対して前述した処理を行うことにより、泡クラスに分 類される領域以外の領域において、絨毛クラスに分類される領域を検出する。その後 、制御部 9aは、前述した処理における検出結果に基づき、絨毛クラスに分類される 領域が各々有する 5つの特徴量から、絨毛クラスを構成する母数である平均ベクトル ill及び分散共分散行列∑1を算出する(図 41のステップ S246)。また、泡クラスを クラス ω 2 (a = 2)とすると、制御部 9aは、前述した処理における検出結果に基づき、 泡クラスに分類される領域が各々有する 5つの特徴量から、泡クラスを構成する母数 である平均ベクトル 2及び分散共分散行列∑ 2を算出する(図 41のステップ S246 )。その後、制御部 9aは、絨毛クラスを構成する母数である平均ベクトル j l及び分 散共分散行列∑ 1と、泡クラスを構成する母数である平均ベクトル ϋ2及び分散共分 散行列∑ 2とを用い、例えば、図 46に示すような画像 Iiに対し、本発明の第 7の実施 形態または第 8の実施形態において述べた画像処理をさらに行うことにより、図 47に 示すような最終的な分類結果を得る(図 41のステップ S247)。
[0300] なお、本実施形態における、泡クラスに分類される領域の検出は、前述したような検 出に限るものではなぐ例えば、以降に記すようなものであっても良い。
[0301] 制御部 9aは、例えば、エッジの形状が歪んで楕円形形状になるような泡に対し、座 標 (xt, yt)により示される近傍外周領域 Htを、下記数式(28)に基づいて検出する。
[0302]
Q - β≤[ ( (xo -xt) 2+ (yo -yt) 2) 1 2]≤Q + β · · · (28)
なお、上記数式(28)において、 βは 1以上の整数とし、また、 [ ]はガウス記号を 示すものとする。
[0303] 制御部 9aは、上記数式(28)を満たす座標 (xt, yt)を全て検出した後、検出した各 近傍外周領域各々における近似 gradientベクトル Ygiと、各座標(xt, yt)及び座標 (xo, yo)を結ぶ方向ベクトル dlとを算出する。そして、制御部 9aは、 slの大きさ I Vgt Iの値が閾値 (本実施形態においては 0. 4)以上であるか否かを判定する。 制御部 9aは、 I Vgt Iの値が閾値以上であることを検出すると、内積の公式に基づ き、近似 gradientベクトル i及び方向ベクトル がなす角度 Θ tについて、上記 数式(27)により cos Θ tの値を算出する。
[0304] 制御部 9aは、上記数式(27)を用いた cos Θ tの算出結果に基づき、 | cos Θ t |の 値が 0. 7より大きいことを検出すると、一の矩形領域 R〇を中心とした放射状の gradi entベクトルが近傍外周領域 Htに存在すると判断する。さらに、制御部 9aは、放射状 の gradientベクトルが存在すると判断した近傍外周領域を Htlとし、また、それ以外 の近傍外周領域を HtOとして二値化した後、 Htlとして検出された領域に対して細 線化処理を行う。その後、制御部 9aは、細線化処理を行った後においても Htlとして 残った領域数を数える。制御部 9aは、前記領域数が L1個である場合、領域数 L1と、 上記数式 (26)を用いることにより検出した近傍外周領域数 Tとから L1/Tの値を算 出する。そして、制御部 9aは、前記 L1/Tの値に基づき、前記 L1/Tの値が閾値( 例えば 0. 7)以上であれば、一の矩形領域 ROに、歪んだエッジの形状を有する略 円形形状の泡の中央部が存在すると判断する。
[0305] また、前述した処理において、制御部 9aは、領域 ROを中心に、 0° 力ら 360° ま での間において、角度 φずつ方向を変化させつつ、距離(Q— )から距離(Q + β )までの範囲において、放射状の gradientベクトルを有する近傍外周領域を検出す るような処理を行っても良い。この場合、制御部 9aは、放射状の gradientベクトルを 有する近傍外周領域が存在すると判定した方向数を Sとし、また、近傍外周領域数 T を [360/ φ ]個とした後、 SZTの値を算出する。そして、制御部 9aは、前記 S/Tの 値に基づき、前記 SZTの値が閾値 (例えば 0. 7)以上であれば、一の矩形領域 R〇 に泡の中央部が存在すると判断する。
[0306] なお、本実施形態において、制御部 9aが泡クラスに分類される領域を検出する際 に用いるベクトルは、近似 gradientベクトルに限るものではなぐ例えば、平均 gradie ntベタトノレであつても良い。
[0307] 以上に述べたように、本実施形態によれば、第 7の実施形態において述べた、カブ セル型内視鏡装置 1を用いた観察における観察効率の向上をはかることができると レ、う効果が得られると共に、色調情報及びテクスチャ情報から構成される特徴量によ る分類が難しい場合においても、端末装置 7に入力される画像における泡クラスの領 域の分類を精度良く行うことができる。
[0308] また、本実施形態によれば、構造的に明確な特徴を有する泡および絨毛に対し、 端末装置 7に入力される画像に基づく母数の算出を予め行うことにより、泡クラスおよ び絨毛クラスの領域の分類をさらに精度良く行うことができる。
[0309] なお、本発明における第 7の実施形態から第 9の実施形態においては、画像処理 の適用対象としてカプセル型内視鏡 3による撮像画像を用いた力 例えば、カプセル 型内視鏡 3とは異なる構成を有する内視鏡が撮像した像の画像に対して該画像処理 方法を用いた場合においても、同様の処理結果を得ることができる。
[0310] また、本発明における第 7の実施形態から第 9の実施形態においては、色調情報 及びテクスチャ情報に基づく 5つの値を、特徴量を構成する値として使用した力 この 特徴量を構成する値は、ユーザの用途等に応じ、適宜変更または追加することが可 能である。
[0311] また、本発明における第 7の実施形態から第 9の実施形態においては、出血または 発赤等の病変部位の検出を行う画像処理と組み合わせて用いられることにより、病変 部位の検出結果が生体粘膜表面上から得られたものであるか否力を判定でき、その 結果、病変部位の検出精度を高めることができる。
[0312] なお、本発明は、上述した実施形態に限定されるものではなぐ発明の趣旨を逸脱 しなレ、範囲内におレ、て種々の変更や応用が可能であることは勿論である。
[0313] 本出願は、 2005年 4月 13曰に曰本国に出願された、特願 2005— 115960号及 び特願 2005— 115961号を優先権主張の基礎として出願するものであり、上記の 開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims

請求の範囲
[1] 複数の色信号力 なる医用画像を入力する画像入力部と、
前記入力された医用画像が生体粘膜を十分に撮像したか否かを判定する判定部 と、
前記判定部における判定結果に基づき前記医用画像の表示または記憶の少なくと も 1つを制御する制御部と、
を備えたことを特徴とする画像処理装置。
[2] さらに、前記医用画像を複数の領域に分割する画像分割部と、
前記医用画像の前記複数の領域各々における特徴量を算出する特徴量算出部と 前記特徴量に基づき、前記複数の領域各々が複数のクラスのいずれに属するかを 識別するとともに、該識別結果により前記複数の領域各々を分類する領域分類部と、 前記領域分類部による分類結果に基づいて、前記複数のクラスの内、所定のクラス に分類された領域群が前記複数の領域に占める割合を算出する分類判定値算出部 と、
前記分類判定値算出部により算出された前記割合と、前記割合に関する所定の閾 値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像を分類 する画像分類部と、
を具備し、
前記判定部は、前記画像分類部の分類結果に基づき、前記割合が所定の閾値以 下である場合に、前記医用画像を、生体粘膜を十分に撮像していない画像であると 判定し、前記割合が所定の閾値より大きい場合に、前記医用画像を、生体粘膜を十 分に撮像した画像であると判定することを特徴とする請求項 1に記載の画像処理装 置。
[3] 前記制御部は、前記判定部により生体粘膜を十分に撮像していないと判定された 前記医用画像を表示しないように制御することを特徴とする請求項 2に記載の画像処 理装置。
[4] 前記制御部は、前記判定部により生体粘膜を十分に撮像していないと判定された 前記医用画像を記憶しないように制御することを特徴とする請求項 2に記載の画像観 察装置。
[5] 前記制御部は、前記判定部により生体粘膜を十分に撮像していないと判定された 前記医用画像を記憶しないように制御することを特徴とする請求項 3に記載の画像観 察装置。
[6] さらに、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用 画像を削除する画像削除部を具備することを特徴とする請求項 2に記載の画像処理 装置。
[7] さらに、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用 画像を削除する画像削除部を具備することを特徴とする請求項 3に記載の画像処理 装置。
[8] さらに、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用 画像を削除する画像削除部を具備することを特徴とする請求項 4に記載の画像処理 装置。
[9] さらに、前記判定部により生体粘膜を十分に撮像していないと判定された前記医用 画像を削除する画像削除部を具備することを特徴とする請求項 5に記載の画像処理 装置。
[10] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 2に記載の画像処理装置。
[11] 複数の色信号からなる複数の医用画像を入力する画像入力部と、
前記入力された医用画像に対し、複数の領域を設定する領域設定部と、 前記複数の領域の中力 病変の存在が疑われる領域を検出する検出部と、 前記領域設定部により設定された前記複数の複数の領域が生体粘膜を撮像した 領域であるか否かを判定する領域判定部と、
前記領域判定部における判定結果に基づき、前記検出部による検出結果が正しい か否かを判定する検出結果判定部と、
を備えたことを特徴とする画像処理装置。
[12] さらに、前記医用画像の前記複数の領域各々における特徴量を算出する特徴量 算出部と、
前記特徴量に基づき、前記複数の領域を、生体粘膜に関するクラスと非生体粘膜 に関するクラスを含む複数のクラスのいずれかに各々分類する領域分類部と、 前記医用画像の緑成分の濃度値に基づき、前記複数の領域においてエッジを有 する領域を検出するエッジ検出部と、
前記画像の赤成分の濃度値に基づき、前記エッジを有する領域が出血部位を含 む領域であるか否力、を判定する出血部位判定部と、
前記出血部位判定部の判定結果に基づき、前記領域分類部の分類結果が正しい か否かを判定する分類結果判定部と、
を具備し、
前記検出部は、前記出血部位を含む領域を病変の存在が疑われる領域として検 出することを特徴とする請求項 11に記載の画像処理装置。
[13] 前記領域判定部は、前記領域分類部の分類結果に基づき、一の領域が生体粘膜 に関するクラスに分類された場合に、該一の領域を、生体粘膜を撮像した領域である と判定することを特徴とする請求項 12に記載の画像処理装置。
[14] 前記検出結果判定部は、前記検出部の検出結果と、前記領域判定部の判定結果 に基づき、前記病変の存在が疑われる領域が、前記生体粘膜を撮像した領域である 場合に、前記検出部の検出結果を正しいと判定することを特徴とする請求項 13に記 載の画像処理装置。
[15] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 12に記載の画像処理装置。
[16] 時間的に連続して撮像された複数の医用画像を入力する画像入力部と、
前記医用画像に複数の領域を設定する領域設定部と、
前記領域設定部により設定された前記複数の領域における撮像対象を判定する判 定部と、
前記判定部の判定結果に基づき、前記医用画像に撮像されている臓器を特定す る特定部と、
前記特定部における特定結果を表示する特定結果表示部と、 を備えたことを特徴とする画像処理装置。
[17] さらに、前記医用画像を複数の領域に分割する画像分割部と、
前記医用画像の前記複数の領域各々における特徴量を算出する特徴量算出部と 前記特徴量に基づき、前記複数の領域各々が複数のクラスのいずれに属するかを 識別するとともに、該識別結果により前記複数の領域各々を分類する領域分類部と、 前記領域分類部による分類結果に基づいて、前記複数のクラスの内、所定のクラス に分類された領域群が前記複数の領域に占める割合を算出する分類判定値算出部 と、
前記分類判定値算出部により算出された前記割合と、前記割合に関する所定の閾 値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像を分類 する画像分類部と、
を具備し、
前記特定部は、前記画像分類部の分類結果に基づき、前記医用画像に撮像され ている臓器を特定することを特徴とする請求項 16に記載の画像処理装置。
[18] 前記複数のクラスは、胃粘膜クラスと、絨毛クラスと、便クラスとを少なくとも有するこ とを特徴とする請求項 17に記載の画像処理装置。
[19] 前記所定のクラスが胃粘膜クラスである場合、前記特定部は、前記医用画像に撮 像されている臓器が胃であると判定することを特徴とする請求項 18に記載の画像処 理装置。
[20] 前記所定のクラスが絨毛クラスである場合、前記特定部は、前記医用画像に撮像さ れている臓器が小腸であると判定することを特徴とする請求項 18に記載の画像処理 装置。
[21] 前記所定のクラスが便クラスである場合、前記特定部は、前記医用画像に撮像され ている臓器が大腸であると判定することを特徴とする請求項 18に記載の画像処理装 置。
[22] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 17に記載の画像処理装置。
[23] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力部と、
前記画像信号入力部において入力した画像信号に基づいて当該医療機器により 撮像された画像を複数の領域に分割する画像分割部と、
前記画像分割部により分割された複数の領域各々における特徴量を算出する特徴 量算出部と、
前記特徴量算出部において算出された特徴量と、所定の第 1の分類基準とに基づ き、前記複数の領域を複数のクラスのいずれかに各々分類する第 1の領域分類部と 前記特徴量と、前記第 1の領域分類部による分類結果とに基づいて第 2の分類基 準を設定する分類基準設定部と、
前記特徴量と、前記第 2の分類基準とに基づき、前記複数の領域を前記複数のク ラスのいずれかに各々分類する第 2の領域分類部と、
を具備したことを特徴とする画像処理装置。
[24] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 23に記載の画像処理装置。
[25] 前記第 1の領域分類部は、前記第 1の分類基準を定める母数を用いた統計的識別 器を用いて前記複数の領域を前記複数のクラスのいずれかに各々分類し、前記第 2 の領域分類部は、前記第 2の分類基準を定める母数を用いた統計的識別器を用い て前記複数の領域を前記複数のクラスのレ、ずれかに各々分類することを特徴とする 請求項 23に記載の画像処理装置。
[26] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力部と、
前記画像信号入力部において入力した画像信号に基づいて当該医療機器により 撮像された画像を複数の領域に分割する画像分割部と、
前記画像分割部により分割された複数の領域各々における特徴量を算出する特徴 量算出部と、
前記特徴量算出部において算出された特徴量と、所定の第 1の分類基準とに基づ き、前記複数の領域を複数のクラスのいずれかに各々分類する第 1の領域分類部と 前記複数の領域のうち、一の領域の前記第 1の領域分類部による分類結果を、前 記一の領域の近傍に位置する領域の前記第 1の領域分類部による分類結果に基づ レ、た評価値を算出することにより評価する評価値算出部と、
前記評価値算出部における評価値に基づき、前記一の領域を前記複数のクラスの いずれかに分類する第 2の領域分類部と、
を具備したことを特徴とする画像処理装置。
[27] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 26に記載の画像処理装置。
[28] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力部と、
前記画像信号入力部において入力した画像信号に基づいて当該医療機器により 撮像された画像を複数の領域に分割する画像分割部と、
前記画像分割部により分割された複数の領域各々における特徴量を算出する特徴 量算出部と、
前記複数の領域のうち、一の領域を注目領域として設定する注目領域設定部と、 前記注目領域から所定の距離だけ離れた領域である近傍外周領域を検出する近 傍外周領域検出部と、
前記近傍外周領域において、前記特徴量に基づき、略円形形状の輪郭部の少な くとも一部が存在することを検出する略円形形状検出部と、
前記略円形形状検出部により、前記略円形形状が検出された場合、前記注目領域 を抽出する領域抽出部と、
を具備したことを特徴とする画像処理装置。
[29] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 28に記載の画像処理装置。
[30] 前記略円形形状検出部は、前記近傍外周領域のうち、前記略円形形状の輪郭部 の少なくとも一部が存在する領域の割合が所定の閾値以上であると判断した場合に 略円形形状を検出し、前記領域抽出部は、前記注目領域を前記略円形形状の中央 部が存在する領域として抽出することを特徴とする請求項 28に記載の画像処理装置
[31] 前記略円形形状は、泡であることを特徴とする請求項 29に記載の画像処理装置。
[32] 前記略円形形状は、泡であることを特徴とする請求項 30に記載の画像処理装置。
[33] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力部と、
前記画像信号入力部において入力した画像信号に基づいて当該医療機器により 撮像された画像を複数の領域に分割する画像分割部と、
前記画像分割部により分割された複数の領域各々における特徴量を算出する特徴 量算出部と、
前記特徴量算出部において算出された特徴量と、所定の分類基準とに基づき、前 記複数の領域を複数のクラスのいずれかに各々分類する領域分類部と、
前記複数のクラスのうち、構造的に明確な特徴を有するクラスとして予め設定された 所定のクラスに分類される領域を、前記複数の領域力 検出する領域検出部と、 前記領域検出部において検出された前記領域が有する前記特徴量に基づき、前 記領域分類部における前記所定の分類基準を設定する分類基準設定部と、 を具備したことを特徴とする画像処理装置。
[34] 前記所定のクラスは、泡クラスまたは絨毛クラスのうち、少なくとも 1つのクラスである ことを特徴とする請求項 33に記載の画像処理装置。
[35] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 33に記載の画像処理装置。
[36] 撮像機能を有する医療機器により撮像された画像を入力する画像入力ステップと、 前記画像を複数の領域に分割する領域分割ステップと、
前記複数の領域各々から特徴量を算出する特徴量算出ステップと、
前記特徴量に基づき、前記複数の領域各々を、生体粘膜表面を撮像した領域また は非生体粘膜を撮像した領域のいずれかに分類する領域分類ステップと、
を有することを特徴とする画像処理方法。
[37] 撮像機能を有する医療機器により撮像された画像を入力する画像入力ステップと、 前記画像を複数の領域に分割する領域分割ステップと、
前記複数の領域各々から特徴量を算出する特徴量算出ステップと、
前記特徴量に基づき、前記複数の領域各々を、複数の異なるクラスのうち、いずれ か一のクラスに分類する領域分類ステップと、を有する画像処理方法であって、 前記領域分類ステップは、生体粘膜表面を撮像した領域と、非生体粘膜を撮像し た領域と、前記生体粘膜表面及び前記非生体粘膜のどちらにも該当しない領域との いずれかに前記複数の領域各々を分類することを特徴とする画像処理方法。
[38] 撮像機能を有する医療機器により撮像された画像を入力する画像入力ステップと、 前記画像を複数の領域に分割する領域分割ステップと、
前記複数の領域各々から特徴量を算出する特徴量算出ステップと、
前記特徴量に基づき、前記複数の領域各々を、複数の異なるクラスのうち、いずれ か一のクラスに分類する領域分類ステップと、
前記複数の異なるクラスにおいて、前記画像上に混在することを許可しない排他ク ラスの組み合わせを設定する排他クラス設定ステップと、
前記排他クラスの組み合わせのうち、いずれのクラスを優先するかを設定する優先 クラス設定ステップと、を有する画像処理方法であって、
前記領域分類ステップは、前記排他クラス設定ステップで設定された排他クラスの 組み合わせのいずれかのクラスに分類された領域が存在する場合、前記領域を前記 優先クラス設定ステップにおいて設定されたクラスに分類することを特徴とする画像 処理方法。
[39] さらに、前記領域分類ステップによる分類結果に基づいて、前記排他クラスの組み 合わせに含まれるクラスのうち、一のクラスに分類された領域群が前記複数の領域に 占める割合を算出する分類判定値算出ステップを具備し、
前記優先クラス設定ステップは、前記分類判定値算出ステップにより算出された前 記割合と、前記割合に関する所定の閾値とに基づく比較を行うことにより、前記排他 クラスの組み合わせのうち、いずれのクラスを優先するかを設定することを特徴とする 請求項 38に記載の画像処理方法。
[40] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 36に記載の画像処理装置。
[41] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 37に記載の画像処理装置。
[42] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 38に記載の画像処理装置。
[43] さらに、前記領域分類ステップにおける前記複数の領域各々の分類結果に基づき
、前記画像が生体粘膜表面を撮像したか否かを判定する判定ステップを有すること を特徴とする請求項 36に記載の画像処理方法。
[44] さらに、前記領域分類ステップにおける前記複数の領域各々の分類結果に基づき
、前記画像が生体粘膜表面を撮像したか否かを判定する判定ステップを有すること を特徴とする請求項 37に記載の画像処理方法。
[45] さらに、前記領域分類ステップにおける前記複数の領域各々の分類結果に基づき
、前記画像が生体粘膜表面を撮像したか否かを判定する判定ステップを有すること を特徴とする請求項 39に記載の画像処理方法。
[46] さらに、前記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラ スの内、所定のクラスに分類された領域群が前記複数の領域に占める割合を算出す る分類判定値算出ステップと、
前記分類判定値算出ステップにより算出された前記割合と、前記割合に関する所 定の閾値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像 を分類する画像分類ステップと、
を具備し、
前記判定ステップは、前記画像分類ステップの分類結果に基づき、前記割合が所 定の閾値以下である場合に、前記画像を、生体粘膜を十分に撮像していない画像で あると判定し、前記割合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十 分に撮像した画像であると判定することを特徴とする請求項 43に記載の画像処理方 法。
[47] さらに、前記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラ スの内、所定のクラスに分類された領域群が前記複数の領域に占める割合を算出す る分類判定値算出ステップと、
前記分類判定値算出ステップにより算出された前記割合と、前記割合に関する所 定の閾値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像 を分類する画像分類ステップと、
を具備し、
前記判定ステップは、前記画像分類ステップの分類結果に基づき、前記割合が所 定の閾値以下である場合に、前記画像を、生体粘膜を十分に撮像していない画像で あると判定し、前記割合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十 分に撮像した画像であると判定することを特徴とする請求項 44に記載の画像処理方 法。
[48] さらに、前記領域分類ステップによる分類結果に基づいて、前記複数の異なるクラ スの内、所定のクラスに分類された領域群が前記複数の領域に占める割合を算出す る分類判定値算出ステップと、
前記分類判定値算出ステップにより算出された前記割合と、前記割合に関する所 定の閾値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像 を分類する画像分類ステップと、
を具備し、
前記判定ステップは、前記画像分類ステップの分類結果に基づき、前記割合が所 定の閾値以下である場合に、前記画像を、生体粘膜を十分に撮像していない画像で あると判定し、前記割合が所定の閾値より大きい場合に、前記画像を、生体粘膜を十 分に撮像した画像であると判定することを特徴とする請求項 45に記載の画像処理方 法。
[49] 撮像機能を有する医療機器により撮像された画像を入力する画像入力ステップと、 前記画像を複数の領域に分割する領域分割ステップと、
前記複数の領域各々における特徴量を算出する特徴量算出ステップと、 前記特徴量に基づき、前記複数の領域各々が複数のクラスのいずれに属するかを 識別するとともに、該識別結果により前記複数の領域各々を分類する領域分類ステ ップと、
前記領域分類ステップにおける分類結果に基づき、前記医療機器が撮像した臓器 を推定する撮像臓器推定ステップと、
を有することを特徴とする画像処理方法。
[50] さらに、前記領域分類ステップによる分類結果に基づいて、前記複数のクラスの内 、所定のクラスに分類された領域群が前記複数の領域に占める割合を算出する分類 判定値算出ステップと、
前記分類判定値算出ステップにより算出された前記割合と、前記割合に関する所 定の閾値とに基づき、前記所定のクラスに分類された前記領域群を有する前記画像 を分類する画像分類ステップと、
を具備し、
前記撮像臓器推定ステップは、前記画像分類ステップの分類結果に基づき、前記 画像が撮像した臓器を特定することを特徴とする請求項 49に記載の画像処理方法。
[51] 前記複数のクラスは、胃粘膜クラスと、絨毛クラスと、便クラスとを少なくとも有するこ とを特徴とする請求項 50に記載の画像処理方法。
[52] 前記所定のクラスが胃粘膜クラスである場合、前記特定部は、前記画像に撮像され ている臓器が胃であると判定することを特徴とする請求項 51に記載の画像処理方法
[53] 前記所定のクラスが絨毛クラスである場合、前記特定部は、前記画像に撮像されて レ、る臓器が小腸であると判定することを特徴とする請求項 51に記載の画像処理方法
[54] 前記所定のクラスが便クラスである場合、前記特定部は、前記画像に撮像されてい る臓器が大腸であると判定することを特徴とする請求項 51に記載の画像処理方法。
[55] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 49に記載の画像処理装置。
[56] 撮像機能を有する医療機器により撮像された画像に応じた画像信号を入力する画 像信号入力部において入力した画像信号に基づき、該医療機器により撮像された前 記画像を複数の領域に分割する画像分割ステップと、 前記画像分割ステップにより分割された複数の領域各々における特徴量を算出す る特徴量算出ステップと、
前記特徴量算出ステップにおいて算出された特徴量と、所定の第 1の分類基準と に基づき、前記複数の領域を複数のクラスのいずれかに各々分類する第 1の領域分 類ステップと、
前記特徴量と、前記第 1の領域分類ステップによる分類結果とに基づいて第 2の分 類基準を設定する分類基準設定ステップと、
前記特徴量と、前記第 2の分類基準とに基づき、前記複数の領域を前記複数のク ラスのレ、ずれかに各々分類する第 2の領域分類ステップと、
を具備したことを特徴とする画像処理方法。
[57] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 56に記載の画像処理方法。
[58] 前記第 1の領域分類ステップは、前記第 1の分類基準を定める母数を用いた統計 的識別器を用いて前記複数の領域を前記複数のクラスのいずれかに各々分類し、 前記第 2の領域分類ステップは、前記第 2の分類基準を定める母数を用いた統計的 識別器を用いて前記複数の領域を前記複数のクラスのいずれかに各々分類すること を特徴とする請求項 56に記載の画像処理方法。
[59] 撮像機能を有する医療機器により撮像された画像に応じた画像信号を入力する画 像信号入力部において入力した画像信号に基づき、該医療機器により撮像された前 記画像を複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された複数の領域各々における特徴量を算出す る特徴量算出ステップと、
前記特徴量算出ステップにおいて算出された特徴量と、所定の第 1の分類基準と に基づき、前記複数の領域を複数のクラスのいずれかに各々分類する第 1の領域分 類ステップと、
前記複数の領域のうち、一の領域の前記第 1の領域分類ステップによる分類結果 を、前記一の領域の近傍に位置する領域の前記第 1の領域分類ステップによる分類 結果に基づいた評価値を算出することにより評価する評価値算出ステップと、 前記評価値算出ステップにおける評価値に基づき、前記一の領域を前記複数のク ラスのいずれかに分類する第 2の領域分類ステップと、
を具備したことを特徴とする画像処理方法。
[60] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 59に記載の画像処理方法。
[61] 撮像機能を有する医療機器により撮像された画像に応じた画像信号を入力する画 像信号入力部において入力した画像信号に基づき、該医療機器により撮像された前 記画像を複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された複数の領域各々における特徴量を算出す る特徴量算出ステップと、
前記複数の領域のうち、一の領域を注目領域として設定する注目領域設定ステツ プと、
前記注目領域から所定の距離だけ離れた領域である近傍外周領域を検出する近 傍外周領域検出ステップと、
前記近傍外周領域において、前記特徴量に基づき、略円形形状の輪郭部の少な くとも一部が存在することを検出する略円形形状検出ステップと、
前記略円形形状検出ステップにより、前記略円形形状が検出された場合、前記注 目領域を抽出する領域抽出ステップと、
を具備したことを特徴とする画像処理方法。
[62] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 61に記載の画像処理方法。
[63] 前記略円形形状検出ステップは、前記近傍外周領域のうち、前記略円形形状の輪 郭部の少なくとも一部が存在する領域の割合が所定の閾値以上であると判断した場 合に略円形形状を検出し、前記領域抽出ステップは、前記注目領域を前記略円形 形状の中央部が存在する領域として抽出することを特徴とする請求項 61に記載の画 像処理方法。
[64] 前記略円形形状は、泡であることを特徴とする請求項 61に記載の画像処理方法。
[65] 前記略円形形状は、泡であることを特徴とする請求項 63に記載の画像処理方法。
[66] 撮像機能を有する医療機器により撮像された画像に応じた画像信号を入力する画 像信号入力部において入力した画像信号に基づき、該医療機器により撮像された前 記画像を複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された複数の領域各々における特徴量を算出す る特徴量算出ステップと、
前記特徴量算出ステップにおいて算出された特徴量と、所定の分類基準とに基づ き、前記複数の領域を複数のクラスのレ、ずれかに各々分類する領域分類ステップと、 前記複数のクラスのうち、構造的に明確な特徴を有するクラスとして予め設定された 所定のクラスに分類される領域を、前記複数の領域力 検出する領域検出ステップと 前記領域検出ステップにおいて検出された前記領域が有する前記特徴量に基づ き、前記領域分類ステップにおける前記所定の分類基準を設定する分類基準設定ス テツプと、
を具備したことを特徴とする画像処理方法。
[67] 前記特徴量は、色調に関する特徴量と、テクスチャに関する特徴量とのうち、少なく とも一方の特徴量を有することを特徴とする請求項 66に記載の画像処理装置。
[68] 前記所定のクラスは、泡クラスまたは絨毛クラスのうち、少なくとも 1つのクラスである ことを特徴とする請求項 66に記載の画像処理方法。
PCT/JP2006/305022 2005-04-13 2006-03-14 画像処理装置及び画像処理方法 WO2006112227A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP06729056.9A EP1870020B1 (en) 2005-04-13 2006-03-14 Image processing apparatus and image processing method
CN200680010400.4A CN101150977B (zh) 2005-04-13 2006-03-14 图像处理装置
US11/666,556 US7953261B2 (en) 2005-04-13 2006-03-14 Image processing apparatus and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-115961 2005-04-13
JP2005115960A JP4624841B2 (ja) 2005-04-13 2005-04-13 画像処理装置および当該画像処理装置における画像処理方法
JP2005-115960 2005-04-13
JP2005115961A JP4624842B2 (ja) 2005-04-13 2005-04-13 画像処理方法、画像処理装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2006112227A1 true WO2006112227A1 (ja) 2006-10-26

Family

ID=37114959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305022 WO2006112227A1 (ja) 2005-04-13 2006-03-14 画像処理装置及び画像処理方法

Country Status (5)

Country Link
US (1) US7953261B2 (ja)
EP (2) EP1870020B1 (ja)
KR (1) KR100970295B1 (ja)
CN (1) CN101966071B (ja)
WO (1) WO2006112227A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187756A (ja) * 2009-02-16 2010-09-02 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2016175178A1 (ja) * 2015-04-27 2016-11-03 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法
WO2016175098A1 (ja) * 2015-04-27 2016-11-03 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005000101A2 (en) * 2003-06-12 2005-01-06 University Of Utah Research Foundation Apparatus, systems and methods for diagnosing carpal tunnel syndrome
US8335362B2 (en) * 2006-06-12 2012-12-18 Given Imaging Ltd. Device, system and method for measurement and analysis of contractile activity
DE102006028646A1 (de) * 2006-06-22 2007-12-27 Siemens Ag Auswertungsverfahren für Bilddatensätze mit selbsttätiger Bestimmung von Auswertungsbereichen
US8213698B2 (en) * 2006-09-19 2012-07-03 Capso Vision Inc. Systems and methods for capsule camera control
US8187174B2 (en) * 2007-01-22 2012-05-29 Capso Vision, Inc. Detection of when a capsule camera enters into or goes out of a human body and associated operations
JP5106928B2 (ja) * 2007-06-14 2012-12-26 オリンパス株式会社 画像処理装置および画像処理プログラム
JP5078486B2 (ja) * 2007-07-26 2012-11-21 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理装置の作動方法
JP5065812B2 (ja) * 2007-08-29 2012-11-07 オリンパスメディカルシステムズ株式会社 生体内画像取得装置および生体内画像取得システム
US20090080768A1 (en) * 2007-09-20 2009-03-26 Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. Recognition method for images by probing alimentary canals
JP5312807B2 (ja) * 2008-01-08 2013-10-09 オリンパス株式会社 画像処理装置および画像処理プログラム
JP2009225933A (ja) * 2008-03-21 2009-10-08 Fujifilm Corp カプセル内視鏡システム及びカプセル内視鏡の動作制御方法
JP5281826B2 (ja) * 2008-06-05 2013-09-04 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP5117353B2 (ja) * 2008-11-07 2013-01-16 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
DE102009027275A1 (de) * 2009-06-29 2010-12-30 Robert Bosch Gmbh Bildverarbeitungsverfahren für ein Fahrerassistenzsystem eines Kraftfahrzeugs zur Detektion und Klassifikation wenigstens eines Teils wenigstens eines vorgegebenen Bildelements
JP5388732B2 (ja) * 2009-07-15 2014-01-15 Hoya株式会社 医療用観察システムおよびプロセッサ
DE102009043652A1 (de) * 2009-09-29 2011-03-31 Richard Wolf Gmbh Endoskopisches Instrument
WO2011042950A1 (ja) * 2009-10-05 2011-04-14 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US8503785B2 (en) * 2010-01-15 2013-08-06 Gravic, Inc. Dynamic response bubble attribute compensation
KR101184876B1 (ko) * 2010-02-11 2012-09-20 삼성전자주식회사 영상과 상호작용이 가능한 캐릭터의 동적 효과를 생성하는 방법 및 장치
US8768024B1 (en) * 2010-06-01 2014-07-01 Given Imaging Ltd. System and method for real time detection of villi texture in an image stream of the gastrointestinal tract
JP5622461B2 (ja) * 2010-07-07 2014-11-12 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5739428B2 (ja) 2010-08-04 2015-06-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像分類装置、方法、プログラム、プログラムを記録する記録媒体及び集積回路
US8922633B1 (en) 2010-09-27 2014-12-30 Given Imaging Ltd. Detection of gastrointestinal sections and transition of an in-vivo device there between
US8965079B1 (en) 2010-09-28 2015-02-24 Given Imaging Ltd. Real time detection of gastrointestinal sections and transitions of an in-vivo device therebetween
CN102843950B (zh) * 2010-11-08 2015-02-04 奥林巴斯医疗株式会社 图像显示装置以及胶囊型内窥镜系统
JP5576775B2 (ja) * 2010-11-29 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2012105141A1 (ja) 2011-02-01 2012-08-09 オリンパスメディカルシステムズ株式会社 診断支援装置
US9498136B2 (en) * 2011-04-18 2016-11-22 Koninklijke Philips N.V Classification of tumor tissue with a personalized threshold
JP5980490B2 (ja) * 2011-10-18 2016-08-31 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN103747718B (zh) * 2012-03-21 2016-03-30 奥林巴斯株式会社 图像处理装置
US9877633B2 (en) * 2012-07-25 2018-01-30 Intuitive Surgical Operations, Inc Efficient and interactive bleeding detection in a surgical system
BR112015014945A2 (pt) * 2012-12-21 2017-07-11 Koninklijke Philips Nv sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador
US9324145B1 (en) 2013-08-08 2016-04-26 Given Imaging Ltd. System and method for detection of transitions in an image stream of the gastrointestinal tract
US10314514B2 (en) * 2016-05-29 2019-06-11 Ankon Medical Technologies (Shanghai) Co., Ltd. System and method for using a capsule device
CN106910184B (zh) * 2017-01-12 2020-10-09 杭州电子科技大学 基于深度卷积神经网络的内窥镜图像肠道出血检测方法
AU2018243312B2 (en) * 2017-03-31 2023-02-02 Biora Therapeutics, Inc. Localization systems and methods for an ingestible device
CN107730473A (zh) * 2017-11-03 2018-02-23 中国矿业大学 一种基于深度神经网络的煤矿井下图像处理方法
EP3821790B1 (en) * 2018-07-09 2024-07-24 FUJIFILM Corporation Medical image processing device, medical image processing system, medical image processing method, and program
CN110278630B (zh) * 2019-05-22 2022-09-27 杭州极致光生物照明有限公司 光谱调色照明方法、装置及其水族箱灯具
US10799090B1 (en) * 2019-06-13 2020-10-13 Verb Surgical Inc. Method and system for automatically turning on/off a light source for an endoscope during a surgery
DE102019125413A1 (de) * 2019-09-20 2021-03-25 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zum Erstellen und Anzeigen einer Karte von einem Gehirnoperationsfeld

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104072A (ja) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp 医療支援システム
JP2002336193A (ja) * 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2003079568A (ja) * 2001-06-29 2003-03-18 Fuji Photo Film Co Ltd 蛍光画像取得方法および装置並びにプログラム
JP2004154176A (ja) * 2002-11-01 2004-06-03 Olympus Corp 内視鏡撮像装置
JP2004321603A (ja) * 2003-04-25 2004-11-18 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2004337596A (ja) * 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2005192880A (ja) * 2004-01-08 2005-07-21 Olympus Corp 画像処理方法
JP2006122502A (ja) * 2004-10-29 2006-05-18 Olympus Corp 画像処理方法及びカプセル型内視鏡装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4670468A (en) * 1982-08-09 1987-06-02 Regents Of The University Of California Method for protecting and healing gastroduodenal mucosa and the liver of mammals
JP3974946B2 (ja) * 1994-04-08 2007-09-12 オリンパス株式会社 画像分類装置
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US7236623B2 (en) * 2000-04-24 2007-06-26 International Remote Imaging Systems, Inc. Analyte recognition for urinalysis diagnostic system
US20020177779A1 (en) 2001-03-14 2002-11-28 Doron Adler Method and system for detecting colorimetric abnormalities in vivo
AU2002304266A1 (en) * 2001-06-20 2003-01-02 Given Imaging Ltd. Motility analysis within a gastrointestinal tract
CN101288582A (zh) * 2003-04-25 2008-10-22 奥林巴斯株式会社 图像显示装置和图像显示方法
US20050075537A1 (en) * 2003-10-06 2005-04-07 Eastman Kodak Company Method and system for real-time automatic abnormality detection for in vivo images
CN1261910C (zh) * 2003-12-08 2006-06-28 西安理工大学 彩色多窗ct图像的自动生成方法
JP2005115960A (ja) 2004-11-09 2005-04-28 Ziosoft Inc 医用画像データベースシステム
JP4225501B2 (ja) 2004-11-15 2009-02-18 高司 澤口 携帯個人認証装置及び同装置によりアクセスが許可される電子システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104072A (ja) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp 医療支援システム
JP2002336193A (ja) * 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2003079568A (ja) * 2001-06-29 2003-03-18 Fuji Photo Film Co Ltd 蛍光画像取得方法および装置並びにプログラム
JP2004154176A (ja) * 2002-11-01 2004-06-03 Olympus Corp 内視鏡撮像装置
JP2004321603A (ja) * 2003-04-25 2004-11-18 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2004337596A (ja) * 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2005192880A (ja) * 2004-01-08 2005-07-21 Olympus Corp 画像処理方法
JP2006122502A (ja) * 2004-10-29 2006-05-18 Olympus Corp 画像処理方法及びカプセル型内視鏡装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1870020A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187756A (ja) * 2009-02-16 2010-09-02 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
US8743189B2 (en) 2009-02-16 2014-06-03 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
WO2016175178A1 (ja) * 2015-04-27 2016-11-03 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法
WO2016175098A1 (ja) * 2015-04-27 2016-11-03 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法
JP6058240B1 (ja) * 2015-04-27 2017-01-11 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法
JP6058241B1 (ja) * 2015-04-27 2017-01-11 オリンパス株式会社 画像解析装置、画像解析システム、画像解析装置の作動方法
US10733734B2 (en) 2015-04-27 2020-08-04 Olympus Corporation Image analysis apparatus, image analysis system, image analysis apparatus operation method to analyze brightness change of subject

Also Published As

Publication number Publication date
CN101966071B (zh) 2012-10-17
KR100970295B1 (ko) 2010-07-15
CN101966071A (zh) 2011-02-09
EP1870020A4 (en) 2011-05-25
EP2415389A2 (en) 2012-02-08
EP2415389A3 (en) 2013-02-20
EP2415389B1 (en) 2016-05-04
EP1870020A1 (en) 2007-12-26
EP1870020B1 (en) 2015-08-05
US20070292011A1 (en) 2007-12-20
US7953261B2 (en) 2011-05-31
KR20070116634A (ko) 2007-12-10

Similar Documents

Publication Publication Date Title
WO2006112227A1 (ja) 画像処理装置及び画像処理方法
JP4624841B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
US8160329B2 (en) Medical image processing device and medical image processing method
JP4615963B2 (ja) カプセル型内視鏡装置
EP1969992B1 (en) Image processing device and image processing method in the image processing device
JP4472631B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
EP1769729B1 (en) System and method for in-vivo feature detection
WO2006035437A2 (en) System and method to detect a transition in an image stream
JP4520405B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4624842B2 (ja) 画像処理方法、画像処理装置及びプログラム
JP2006166939A (ja) 画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680010400.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11666556

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006729056

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077023403

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 11666556

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2006729056

Country of ref document: EP