WO2007077672A1 - 画像処理装置および当該画像処理装置における画像処理方法 - Google Patents

画像処理装置および当該画像処理装置における画像処理方法 Download PDF

Info

Publication number
WO2007077672A1
WO2007077672A1 PCT/JP2006/322387 JP2006322387W WO2007077672A1 WO 2007077672 A1 WO2007077672 A1 WO 2007077672A1 JP 2006322387 W JP2006322387 W JP 2006322387W WO 2007077672 A1 WO2007077672 A1 WO 2007077672A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
feature
classes
processing apparatus
Prior art date
Application number
PCT/JP2006/322387
Other languages
English (en)
French (fr)
Other versions
WO2007077672A8 (ja
Inventor
Hirokazu Nishimura
Tetsuo Nonami
Original Assignee
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005380212A external-priority patent/JP4520405B2/ja
Priority claimed from JP2005380210A external-priority patent/JP4472631B2/ja
Application filed by Olympus Medical Systems Corp. filed Critical Olympus Medical Systems Corp.
Priority to EP06823274A priority Critical patent/EP1969992B1/en
Priority to CN200680049583.0A priority patent/CN101351149B/zh
Publication of WO2007077672A1 publication Critical patent/WO2007077672A1/ja
Publication of WO2007077672A8 publication Critical patent/WO2007077672A8/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/07Endoradiosondes
    • A61B5/073Intestinal transmitters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00036Means for power saving, e.g. sleeping mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an image processing apparatus and an image processing method in the image processing apparatus.
  • the present invention relates to an image processing device and an image processing method in the image processing device.
  • the present invention relates to an image processing apparatus capable of excluding an image in which an image of a biological mucosal surface is not taken well, and an image processing method in the image processing apparatus.
  • the endoscope device has, for example, an elongated insertion portion that is inserted into a body cavity as a living body, and forms an image by an objective optical system disposed at the distal end portion of the insertion portion.
  • the image of the body cavity is imaged by an imaging means such as a solid-state imaging element and output as an imaging signal, and the image of the image in the body cavity is displayed on a display means such as a motor based on the imaging signal; It has a configuration.
  • the user observes the organ in the body cavity, for example.
  • the endoscope apparatus can directly capture an image of the digestive tract mucosa. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the disease, and the fine structure of the mucosal surface.
  • a capsule endoscope apparatus has been proposed as an imaging apparatus that can be expected to have substantially the same usefulness as the endoscope apparatus as described above.
  • a capsule endoscope device is placed in a body cavity when a subject swallows it from the mouth, and the capsule endoscope device transmits an image of the imaged body cavity to the outside as an imaging signal.
  • a receiver that accumulates the received imaging signal after receiving the captured imaging signal outside the body cavity, and an observation device for observing an image of the image in the body cavity based on the imaging signal accumulated in the receiver Composed.
  • the capsule endoscope that constitutes the capsule endoscope apparatus is based on the peristaltic movement of the digestive tract. In order to proceed, for example, it is common for a time of several hours to be spent after being inserted into the body cavity from the mouth until it is discharged from the anus. The capsule endoscope keeps outputting the imaging signal to the receiver almost continuously until it is discharged after being inserted into the body cavity. The number of still images as frame images stored in the image becomes enormous. For this reason, in terms of improving the efficiency of observation by the user, for example, an image processing method for detecting a predetermined image including a lesion site such as a bleeding site from the accumulated image has been performed. Therefore, there is a demand for a proposal that reduces the amount of data of an image by performing a process of not displaying or storing an image other than the predetermined image.
  • the present invention has been made in view of the foregoing points. For example, an image of the gastric mucosa and villus as an image of the surface of a living mucosa and an image of stool and bubbles as an image of a foreign body are obtained. Each small area of the image By classifying and classifying the images, it is possible to easily remove images that are well-obtained images of the surface of the living body mucosa, such as images of foreign matter occupying many small areas of the image, as images that do not require observation. And an image processing apparatus capable of specifying an imaged organ based on the classification result, and as a result, improving the efficiency of observation by the user, and the image processing apparatus An object of the present invention is to provide an image processing method.
  • the present invention provides, for each region classified as an image of the surface of a biological mucosa, for example, a normal mucosal image and a lesion site image based on the feature amount of each region. It is an object of the present invention to provide an image processing apparatus capable of increasing the accuracy of detecting a lesion site by using an image processing method for classification, and an image processing method in the image processing apparatus.
  • a first image processing apparatus includes an image signal input means for inputting image signals based on a plurality of images captured by a medical device having an imaging function, and 1 for the image signal input means. Based on the input image signal, an image dividing unit that divides the plurality of images into a plurality of regions, and a feature amount calculating unit that calculates feature amounts in each of the plurality of regions divided by the image dividing unit. And a cluster classification means for generating a plurality of clusters in a feature space based on the feature quantity and the occurrence frequency of the feature quantity, and classifying the plurality of clusters into a plurality of classes.
  • a subset generation means for generating a plurality of subsets based on the timing at which each of the plurality of images was captured, and a subset generated by the subset generation means. Based on the distribution state of the feature quantity in the feature space of each image included in the subset, a classification criterion for classifying the image included in the one subset into each of the plurality of classes is calculated. Classification standard calculation means.
  • the second image processing apparatus of the present invention is the first image processing apparatus, and further, the classification reference calculating means generates the feature amount in one subset of the plurality of classes.
  • the class is characterized in that the classification standard is not calculated.
  • a third image processing apparatus of the present invention is the first image processing apparatus, wherein the plurality of The class is characterized by having at least a class relating to biological mucosa and a class relating to non-biological mucosa.
  • a fourth image processing apparatus of the present invention is characterized in that, in the second image processing apparatus, the plurality of classes include at least a class related to a biological mucosa and a class related to a non-biological mucosa.
  • the third image processing apparatus further classifies each region in one image included in the one subset based on the classification criterion.
  • the one image has a region classified as a class related to the biological mucous membrane based on the classification means and the classification result of the one image, for detecting a lesion site for each of the regions And a lesion detection means for performing processing.
  • classification of each region in one image included in the one subset is further performed based on the classification criterion.
  • the one image has a region classified as a class related to the biological mucous membrane based on the classification means and the classification result of the one image, for detecting a lesion site for each of the regions And a lesion detection means for performing processing.
  • the seventh image processing apparatus of the present invention includes an image signal input means for inputting image signals based on a plurality of images taken in time series by a medical device having an imaging function, and the image signal input means.
  • An image dividing unit that divides the plurality of images into a plurality of regions based on the image signal input in Step 1
  • a feature amount calculating unit that calculates feature amounts in each of the plurality of regions divided by the image dividing unit
  • Image region classification means for classifying each of the plurality of regions into a plurality of classes of! / ⁇ based on the feature amounts, and representative values of at least one class of feature amounts in each of the plurality of images.
  • a representative value calculating means for calculating; and a fluctuation detecting means for detecting either an image or a time at which the fluctuation of the representative value is maximized.
  • An eighth image processing device of the present invention is the seventh image processing device further comprising smoothing means for applying smoothing in a time series direction to each of the representative values,
  • the variation detecting means detects either an image or a time at which the variation of the representative value is maximized based on the representative value smoothed by the smoothing means.
  • the ninth image processing apparatus of the present invention is characterized in that, in the seventh image processing apparatus, the change in the representative value is caused based on a change in an observation site in a living body.
  • the tenth image processing apparatus of the present invention is characterized in that, in the eighth image processing apparatus, the variation of the representative value is caused based on a change in an observation site in a living body. .
  • An eleventh image processing device of the present invention is characterized in that, in the seventh image processing device, the variation of the representative value is caused based on the presence of feces in a living body.
  • the variation in the representative value is caused based on the presence of feces in a living body.
  • a thirteenth image processing apparatus of the present invention is characterized in that, in the seventh image processing apparatus, the variation of the representative value is caused based on the presence of bile in a living body.
  • the fourteenth image processing device of the present invention is characterized in that, in the eighth image processing device, the variation of the representative value is caused based on the presence of bile in a living body.
  • the fifteenth image processing apparatus of the present invention is characterized in that, in the seventh image processing apparatus, the variation of the representative value is caused based on the presence of a lesion site in a living body. .
  • a sixteenth image processing device of the present invention is characterized in that, in the eighth image processing device, the variation of the representative value is caused based on the presence of a lesion site in a living body. .
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • An eighteenth image processing device of the present invention is the eighth image processing device, wherein the representative The value is an average value of feature values in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • a twentieth image processing device of the present invention is characterized in that, in the tenth image processing device, the representative value is an average value of feature values in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • the representative value is an average value of feature amounts in each of the plurality of classes.
  • a twenty-sixth image processing apparatus of the present invention is characterized in that, in the sixteenth image processing apparatus, the representative value is an average value of feature amounts in each of the plurality of classes.
  • a twenty-seventh image processing apparatus of the present invention includes an image signal input means for inputting an image signal based on an image picked up by a medical device having an image pickup function, and the image signal input means! An image dividing unit for dividing the image into a plurality of regions based on the input image signal; a feature amount calculating unit for calculating a feature amount in each of the plurality of regions divided by the image dividing unit; Based on the feature quantity and the frequency of occurrence of the feature quantity, a plurality of clusters are generated in the feature space, and the cluster classification means for classifying the plurality of clusters into different classes, and the cluster classification means And image region classification means for classifying the plurality of regions into any of the plurality of classes based on the classification result.
  • an image signal input unit that inputs an image signal based on an image captured by a medical device having an imaging function, and the image signal input unit Oh!
  • An image dividing unit for dividing the image into a plurality of regions based on the input image signal; a feature amount calculating unit for calculating a feature amount in each of the plurality of regions divided by the image dividing unit; Based on the feature quantity and the occurrence frequency of the feature quantity, a plurality of clusters are generated in the feature space, and the cluster classification means for classifying the plurality of clusters into any one of a plurality of classes, and the feature space in the feature space
  • the feature quantity distribution information acquisition means for obtaining feature quantity distribution information, which is information relating to the feature quantity distribution state, and the feature quantity distribution information acquired by the feature quantity distribution information acquisition means, the plurality of areas are classified into the plurality of areas. And image area classification means for classifying each of them into! / Of the classes.
  • the images are a plurality of images taken continuously in time series.
  • the thirtieth image processing device of the present invention is characterized in that, in the twenty-eighth image processing device, the images are a plurality of images taken in time series.
  • a thirty-first image processing apparatus of the present invention includes an image signal input means for inputting an image signal based on an image taken by a medical device having an imaging function, and the image signal input means! Based on the input image signal, an image dividing unit that divides the image into a plurality of regions, and a feature amount that calculates a plurality of types of feature amounts in each of the plurality of regions divided by the image dividing unit.
  • a plurality of clusters are generated in one feature space, and First cluster classification means for classifying a plurality of clusters into any of a plurality of classes, and among the plurality of types of feature quantities, the feature quantities of other types and the frequency of occurrence of the other types of feature quantities
  • a second cluster classification means for generating a plurality of clusters in another feature space and classifying the plurality of clusters into a plurality of classes, respectively, and the one feature space and the other Sky Cluster dividing means for performing a dividing process on a plurality of clusters generated in the one feature space based on a distribution of feature quantities in between.
  • a thirty-second image processing apparatus of the present invention is characterized in that, in the fifth image processing apparatus, the lesion detection means is provided in the medical device.
  • a thirty-third image processing apparatus of the present invention is characterized in that, in the sixth image processing apparatus, the lesion detection means is provided in the medical device.
  • the variation detection means is configured to detect an image or time when the variation of the representative value detected in time series becomes a maximum. A process for detecting either is performed.
  • a specific region out of the regions classified by the image region classification unit is a predetermined ratio or more on the image.
  • an imaging part determination unit that determines that the image is an image obtained by imaging a specific organ.
  • a specific area out of the areas classified by the image area classification means is a predetermined ratio or more on the image.
  • an imaging part determination unit that determines that the image is an image obtained by imaging a specific organ.
  • the image processing method in the first image processing apparatus of the present invention divides the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function.
  • the image processing method in the second image processing device of the present invention is the image processing method in the first image processing device, and the classification criterion calculation step is one of the plurality of classes.
  • the image processing method in the third image processing device of the present invention is the image processing method in the first image processing device, wherein the plurality of classes are a class relating to a biological mucosa and a class relating to a non-biological mucosa. It is characterized by having at least.
  • the image processing method in the fourth image processing apparatus of the present invention is the image processing method in the second image processing apparatus, wherein the plurality of classes are a class relating to a biological mucosa and a class relating to a non-biological mucosa. It is characterized by having at least.
  • An image processing method in the fifth image processing apparatus of the present invention is the image processing method in the third image processing apparatus, and further includes one of the one included in the one subset based on the classification criterion.
  • An image processing method in the sixth image processing apparatus of the present invention is the image processing method in the fourth image processing apparatus, further comprising: one of the one included in the one subset based on the classification criterion.
  • a classification step for classifying each region in the image, and when the one image has a region classified as a class related to the biological mucosa based on the classification result of the one image, And a lesion detection step for performing a process for detecting a lesion site.
  • An image processing method in the seventh image processing apparatus of the present invention divides the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function.
  • An image area classification step for classifying each of the plurality of images, a representative value calculation step for calculating a representative value of at least one class of feature values in each of the plurality of images, and variations in the representative value are maximized.
  • a fluctuation detecting step for detecting either the image or the time.
  • the image processing method in the eighth image processing apparatus of the present invention is the image processing method in the seventh image processing apparatus, and further applies smoothness in a time series direction to each of the representative values. And a process for detecting whether or not the image or time at which the variation of the representative value is maximized is detected based on the representative value after being smoothed by the smoothing step. It is performed in steps.
  • the image processing method in the ninth image processing apparatus of the present invention is the image processing method in the seventh image processing apparatus, wherein the change in the representative value is based on a change in the observation part in the living body. It is generated.
  • the image processing method in the tenth image processing apparatus of the present invention is the image processing method in the eighth image processing apparatus, wherein the change in the representative value is based on a change in the observation part in the living body. It is generated.
  • the image processing method in the eleventh image processing device of the present invention is the image processing method in the seventh image processing device, wherein the variation of the representative value is based on the presence of stool in the living body, It is characterized by being produced.
  • the image processing method in the twelfth image processing apparatus of the present invention is the image processing method in the eighth image processing apparatus, wherein the variation in the representative value is based on the presence of stool in the living body, It is characterized by being produced.
  • the image processing method in the thirteenth image processing apparatus of the present invention is the image processing method in the seventh image processing apparatus, wherein the variation in the representative value is based on the presence of bile in the living body! / It is characterized by the above.
  • the image processing method in the fourteenth image processing apparatus of the present invention is the image processing method in the eighth image processing apparatus, wherein the variation in the representative value is based on the presence of bile in the living body! / It is characterized by the above.
  • the image processing method in the fifteenth image processing apparatus of the present invention is the image processing method in the seventh image processing apparatus, wherein the variation in the representative value is based on the presence of a lesion site in the living body. It is generated.
  • the image processing method in the sixteenth image processing device of the present invention is the image processing method in the eighth image processing device, wherein the variation in the representative value is a lesion in vivo. It is generated based on the presence of the position.
  • the representative value is an average value of feature values in each of the plurality of classes. It is characterized by that.
  • the representative value is an average value of feature amounts in each of the plurality of classes. It is characterized by that.
  • the representative value is an average value of feature values in each of the plurality of classes. It is characterized by that.
  • the image processing method in the twentieth image processing apparatus of the present invention is the image processing method in the tenth image processing apparatus, in which the representative value is an average value of feature quantities in each of the plurality of classes. It is characterized by being.
  • the representative value is an average value of feature values in each of the plurality of classes. It is characterized by being.
  • An image processing method in a twenty-second image processing apparatus of the present invention is the image processing method in the twelfth image processing apparatus, wherein the representative value is an average value of feature quantities in each of the plurality of classes. It is characterized by being.
  • the image processing method in the twenty-third image processing apparatus of the present invention is the image processing method in the thirteenth image processing apparatus, wherein the representative value is an average value of feature quantities in each of the plurality of classes. It is characterized by being.
  • the representative value is an average value of feature values in each of the plurality of classes. It is characterized by being.
  • the representative value is an average value of feature values in each of the plurality of classes. It is characterized by being.
  • the image processing method in the twenty-sixth image processing apparatus of the present invention is the image processing method in the sixteenth image processing apparatus, in which the representative value is an average value of feature quantities in each of the plurality of classes. It is characterized by being.
  • An image processing method in the twenty-seventh image processing device of the present invention divides the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function.
  • an image region classification step for classifying each of them.
  • An image processing method in the twenty-eighth image processing apparatus of the present invention divides the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function.
  • the image processing method in the twenty-ninth image processing apparatus of the present invention is the image processing method in the twenty-seventh image processing apparatus, wherein the images are a plurality of images taken continuously in time series. It is characterized by that.
  • the image processing method in the thirtieth image processing device of the present invention is the image processing method in the twenty-eighth image processing device, in which the images are taken continuously in time series. A plurality of images.
  • the image processing method in the thirty-first image processing apparatus of the present invention divides the image into a plurality of regions each based on an image signal input based on an image captured by a medical device having an imaging function.
  • a first cluster that generates a plurality of clusters in one feature space and classifies the plurality of clusters into one of a plurality of classes based on the type of feature quantity and the frequency of occurrence of the one type of feature quantity
  • a plurality of clusters are generated in another feature space based on the classification step and the other types of feature quantities among the plurality of types of feature quantities and the frequency of occurrence of the other types of feature quantities.
  • the lesion detection step is performed in the medical device. Characterized by
  • An image processing method in a thirty-third image processing apparatus of the present invention is characterized in that, in the image processing method in the sixth image processing apparatus, the lesion detection step is performed in the medical device. To do.
  • An image processing method in a thirty-fourth image processing apparatus of the present invention is the image processing method in the seventh image processing apparatus, wherein the variation detection step includes the representative value detected in time series. It is characterized by performing processing for detecting either an image or a time at which the fluctuation is maximum.
  • a specific region is further selected from the regions classified by the image region classification step.
  • the imaging region determination scan for determining that the image is an image obtained by imaging a specific organ. It has a tape.
  • a specific region out of the regions classified by the image region classification step is When the image occupies a predetermined ratio or more on the image, it has an imaging region determination step for determining that the image is an image obtained by imaging a specific organ.
  • FIG. 1 is an external front view showing the external appearance of an image processing apparatus and peripheral devices that perform an image processing operation according to a first embodiment of the present invention.
  • FIG. 2 is an enlarged cross-sectional view showing a main part of a capsule endoscope that generates predetermined image information to be processed in the image processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing a schematic internal configuration of a capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 4 is a view showing an example of use of a capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 5 is a timing chart showing an example of a signal output from the capsule endoscope shown in FIG.
  • FIG. 6 is an explanatory view for explaining position detection of the capsule endoscope shown in FIG.
  • FIG. 7 is an enlarged cross-sectional view showing a main part of the antenna unit when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 8 is an explanatory view for explaining a shield jacket when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 9 is an explanatory view for explaining a state in which the external device of the capsule endoscope apparatus shown in FIG. 3 is attached to a subject.
  • FIG. 10 is a block diagram showing an electrical configuration of the capsule endoscope shown in FIG.
  • FIG. 11 is a flowchart showing an image processing operation according to the first embodiment.
  • FIG. 12 is a diagram showing an example of a histogram in the feature space created by processing performed by the control unit.
  • FIG. 13 is a diagram showing an example of a cluster in a feature space created by processing performed by a control unit.
  • FIG. 14 is a diagram showing a state in which clusters whose area or volume in the feature space is less than a predetermined threshold among the clusters shown in FIG. 13 are deleted.
  • FIG. 15 is a flowchart showing an example of a process of integration or separation determination of two or more clusters in contact with each other, which is a process performed by the control unit.
  • FIG. 17 is a graph when smoothing in the time direction is performed for the feature quantity / z gp shown in the graph of FIG.
  • FIG. 18 is a flowchart illustrating an example of a lesion detection process that is a process performed by a control unit.
  • FIG. 20 is a diagram showing an example of a histogram in the feature space created by the processing performed by the control unit in the second embodiment.
  • ⁇ 21 A diagram showing an example of a cluster in the feature space created by the process performed by the control unit in the second embodiment.
  • FIG. 22 is a diagram showing a state in which clusters whose area or volume in the feature space is less than a predetermined threshold among the clusters shown in FIG. 21 are deleted.
  • FIG. 23 is a flowchart showing an example of a process of integration or separation determination of two or more clusters in contact with each other, which is a process performed by the control unit.
  • FIG. 24 is a flowchart showing a modification of the image processing operation shown in FIG.
  • FIG. 26 is a flowchart showing an image processing operation performed by continuing the bow I in the process shown in FIG. ⁇ 27]
  • FIG. 28 is a diagram showing an example of a cluster in the feature space created by the second unsupervised clustering process performed by the control unit in the third embodiment.
  • FIG. 29 shows the first unsupervised clustering process performed by the control unit in the third embodiment.
  • the figure which shows an example of the cluster in the feature space created.
  • FIG. 30 is a diagram showing a state where the cluster C shown in FIG. 29 is divided into a cluster C1 and a cluster C2 by the cluster dividing process performed by the control unit in the third embodiment.
  • FIG. 1 is an external front view showing the external appearance of an image processing apparatus and peripheral devices that perform an image processing operation according to the first embodiment of the present invention.
  • FIG. 2 is an enlarged cross-sectional view showing a main part of a capsule endoscope that generates predetermined image information to be processed by the image processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing a schematic internal configuration of a capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 4 is a diagram showing an example of use of the force-pseed endoscope apparatus that supplies predetermined image information to the image processing apparatus of the first embodiment.
  • FIG. 5 is a timing chart showing an example of a signal output from the capsule endoscope shown in FIG. FIG.
  • FIG. 6 is an explanatory diagram for explaining position detection of the capsule endoscope shown in FIG.
  • FIG. 7 is an enlarged cross-sectional view of a main part showing the antenna unit when the force-pseed endoscope apparatus shown in FIG. 3 is used.
  • FIG. 8 is an explanatory view for explaining a shield jacket when the capsule endoscope apparatus shown in FIG. 3 is used.
  • FIG. 9 is an explanatory diagram illustrating a state in which the external device of the capsule endoscope apparatus illustrated in FIG. 3 is attached to the subject.
  • FIG. 10 is a block diagram showing an electrical configuration of the capsule endoscope shown in FIG.
  • FIG. 11 is a flowchart showing an image processing operation according to the first embodiment.
  • FIG. 12 is a diagram illustrating an example of a histogram in the feature space created by the process performed by the control unit.
  • FIG. 13 is a diagram illustrating an example of a cluster in the feature space created by the process performed by the control unit.
  • FIG. 14 is a diagram illustrating a state in which clusters whose area or volume in the feature space is less than a predetermined threshold are deleted from the clusters illustrated in FIG.
  • FIG. 15 is a flowchart showing an example of processing for integration or separation determination of two or more clusters in contact with each other, which is processing performed by the control unit.
  • Figure 16 shows areas classified into gastric mucosa class and villus class. It is a graph which shows the change in the time direction for every subset of feature-value gp to perform.
  • FIG. 17 is a graph when smoothing in the time direction is performed for the feature value / z gp shown in the graph of Fig. 16.
  • FIG. 18 is a flowchart illustrating an example of a lesion detection process that is a process performed by the control unit.
  • the capsule endoscope apparatus 1 that supplies predetermined image information to the image processing apparatus according to the first embodiment of the present invention includes a capsule endoscope 3 and an antenna unit. 4 and an external device 5 are included in the main part.
  • the capsule endoscope 3 as a medical device will be described in detail later, but is placed in the body cavity by swallowing into the locust body cavity of the patient 2 as the subject, and is then placed in the extinguishing tube by peristalsis. And has an imaging function for imaging the inside of the body cavity and generating the captured image information, and a transmission function for transmitting the captured image information to the outside of the body.
  • the antenna unit 4 has a plurality of receiving antennas 11 which are installed on the body surface of the patient 2 and receive captured image information transmitted from the capsule endoscope 3 as will be described in detail later.
  • the external device 5 has an outer shape formed in a box shape, which will be described in detail later.
  • a liquid crystal monitor 12 for displaying the captured image on the surface of the exterior of the external device 5 and an operation unit 13 for instructing operation of various functions are provided.
  • the external device 5 is provided with an LED for displaying a warning regarding the remaining amount of the battery for the driving power source, and an operation unit 13 having a switching force such as a power switch on the surface of the exterior.
  • a calculation execution unit using a CPU and a memory is provided inside the capsule endoscope 3. For example, image processing described later is performed on captured image information received and recorded in the calculation execution unit. May be configured to be executed.
  • the external device 5 is detachably attached to the body of the patient 2 and is attached to the cradle 6 as shown in FIG. 1, whereby image processing according to the first embodiment of the present invention is performed.
  • a device (hereinafter referred to as a terminal device) 7 is detachably connected.
  • this terminal device 7 for example, a personal computer is used, a terminal body 9 having various data processing functions and storage functions, a keyboard 8a and a mouse 8b for various operation processing inputs, And a display 8c for displaying various processing results.
  • the terminal device 7 captures captured image information recorded in the external device 5 through the cradle 6 and stores a rewritable memory built in the terminal body 9 or a terminal.
  • the main body 9 has a function of writing and recording in a portable memory such as a rewritable semiconductor memory that is detachable, and performing image processing for displaying the recorded captured image information on the display 8c.
  • a portable memory such as a rewritable semiconductor memory that is detachable
  • image processing for displaying the recorded captured image information on the display 8c.
  • the captured image information stored in the external device 5 may be taken into the terminal device 7 by a USB cable or the like instead of the tale dollar 6.
  • image processing performed by the terminal device 7 includes, for example, terminal processing as processing for selecting an image to be displayed according to elapsed time from captured image information captured and recorded from the external device 5, and image processing described later. This is performed in the control unit 9a of the main body 9.
  • the control unit 9a includes a CPU (central processing unit) and the like, and can hold the processing result temporarily in a register (not shown) or the like when performing the above-described processing, for example.
  • the capsule endoscope 3 includes a substantially hemispherical force bar member formed by an exterior member 14 having a U-shaped cross section and a transparent member that is watertightly attached to the open end of the exterior member 14 with an adhesive. With 14a. Therefore, the exterior of the capsule endoscope 3 is formed to have a watertight structure and a capsule shape when the exterior member 14 and the force bar member 14a are connected.
  • An objective lens 15 for capturing an image is housed in a lens frame 16.
  • a charge coupled device (hereinafter referred to as CCD) 17 that is an imaging device is disposed at the imaging position of the objective lens 15.
  • CCD charge coupled device
  • the CCD 17 In the inner hollow part of the exterior member 14 on the rear end side of the CCD 17, the CCD 17 is driven and controlled to generate a photoelectrically converted imaging signal, and the imaging signal is subjected to predetermined signal processing to obtain a captured image signal.
  • the processing circuit 19 that performs the imaging processing to be generated and the LED driving processing that controls the operation of lighting the LED 18 and the non-lighting operation of the LED 18, and the captured image signal generated by the imaging processing of the processing circuit 19 is converted into a radio signal
  • a communication processing circuit 20 that transmits the signal, a transmission antenna 23 that transmits a radio signal from the communication processing circuit 20 to the outside, and a plurality of button-type batteries that supply power for driving the processing circuit 19 and the communication processing circuit 20 21 and are arranged.
  • the CCD 17, the LED 18, the processing circuit 19, the communication processing circuit 20, and the transmission antenna 23 are arranged on a substrate (not shown), and these substrates are connected by a flexible substrate (not shown).
  • the processing circuit 19 includes an arithmetic circuit (not shown) for performing image processing to be described later. That is, as shown in FIG. 3, the capsule endoscope 3 includes an imaging device 43 having the CCD 17, LED 18, and processing circuit 19, a transmitter 37 having the communication processing circuit 20, and a transmitting antenna 23.
  • the image pickup device 43 includes an LED driver 18A that controls the operation of turning on and off the LED 18, a CCD driver 17A for controlling the drive of the CCD 17 and transferring the photoelectrically converted charge, and the CCD 17 A processing circuit 19A that generates an imaging signal using the charges transferred from the image processing unit and performs a predetermined signal processing on the imaging signal to generate an imaging image signal; the LED driver 18A, the CCD driver 17A, and the processing circuit 19A And a switch unit for supplying the driving power from the battery 21 to the transmitter 37, and a timing generator 19B for supplying a timing signal to the switch unit and the CCD driver 17A.
  • the switch section turns on / off the power supply from the battery 21 to the LED driver 18A, and turns on / off the power supply to the switch 19C for turning off the Z, the CCD 17, the CCD driver 17A, and the processing circuit 19A.
  • a switch 19D and a switch 19E for turning on and off the power supply to the transmitter 37 are provided.
  • the timing generator 19B is always supplied with driving power from the battery 21! / Speak.
  • each part other than the timing generator 19B is not It is an operating state.
  • the timing generator 19B force also outputs a timing signal, the switch 19D is turned on, whereby the power source from the battery 21 is turned on.
  • the supplied CCD 17, CCD driver 17A, and processing circuit 19A are in an operating state.
  • the electronic shutter of the CCD 17 is operated to remove unnecessary dark current, and then the timing generator 19B turns on the switch 19C to drive the LED driver 18A to drive the LED 18 Turn on to expose the CCD 17.
  • the LED 18 is turned on for a predetermined time required for exposure of the CCD 17, and then turned off at the timing when the switch 19C is turned off to reduce power consumption.
  • the charge stored within the predetermined time when the CCD 17 is exposed is transferred to the processing circuit 19A under the control of the CCD driver 17A.
  • the processing circuit 19A generates an imaging signal based on the charges transferred from the CCD 17, and performs predetermined signal processing on the imaging signal to generate an endoscope image signal. For example, when the signal transmitted from the transmitter 37 is an analog wireless system, the processing circuit 19A generates an analog imaging signal in which the composite synchronization signal is superimposed on the CDS output signal, and then stores the analog imaging signal. Output to the transmitter 37 as an endoscopic image signal.
  • the processing circuit 19A further performs a coding process such as scrambling on the serial digital signal generated by the analog Z digital converter.
  • a digital captured image signal is generated, and the digital captured image signal is output to the transmitter 37 as an endoscope image signal.
  • the transmitter 37 performs a modulation process on the analog captured image signal or the digital captured image signal, which is the endoscope image signal supplied from the processing circuit 19A, to the outside from the transmission antenna 23. Wireless transmission.
  • the switch 19E is turned on / off by the timing generator 19B so that the driving power is supplied to the transmitter 37 only at the timing when the captured image signal is output from the processing circuit 19A.
  • the switch 19E may be controlled so that the driving power is supplied to the transmitter 37 after a predetermined time elapses after the captured image signal is output from the processing circuit 19A.
  • the switch 19E is provided in the capsule endoscope 3 to detect a predetermined pH value by a pH sensor (not shown), to detect a humidity higher than a predetermined value by a humidity sensor (not shown), From the timing generator 19B based on detection results such as detection of pressure or acceleration above a predetermined value by an acceleration sensor (not shown) It may be configured to be controlled so as to supply power to the transmitter 37 when inserted into the body cavity of the patient 2 as the subject by the output signal.
  • the capsule endoscope 3 is provided with a timer circuit (not shown), and this timer circuit, for example, provides high-speed imaging with a large number of images per second within a predetermined time, for a predetermined time. After the elapse of time, the drive of the imaging device 43 is controlled so as to obtain a low-speed imaging with a small number of images per second.
  • the timer circuit is activated when the capsule endoscope 3 is turned on, and this timer circuit allows, for example, high-speed imaging until the patient 2 passes through the esophagus immediately after swallowing. It is also possible to control the drive of the imaging device 43. Furthermore, a capsule endoscope for low-speed imaging and a capsule endoscope for high-speed imaging may be provided separately and used according to the site to be observed.
  • this antenna unit 4 when the capsule endoscope 3 is swallowed to perform an endoscopic examination, the patient 2 wears a jacket 10 on which an antenna unit 4 including a plurality of receiving antennas 11 is installed. As shown in FIG. 7, this antenna unit 4 has a plurality of receiving antennas 11 having a unidirectional directivity, such as a patch antenna used for GPS, for example, in the body direction of the patient 2. Arrange for sex. That is, since the capsule body 3D of the capsule endoscope 3 is placed in the body, the plurality of antennas 11 are disposed so as to surround the capsule body 3D in the body. By using the antenna 11 with this high directivity, it is less susceptible to interference caused by radio waves other than the capsule body 3D inside the body.
  • the jacket 10 covers the antenna unit 4 installed on the body surface of the patient 2 and the main body 5D of the external device 5 installed on the waist of the patient 2 by a belt.
  • a shield jacket 72 formed of electromagnetic shielding fibers.
  • the electromagnetic shield fiber forming the shield jacket 72 metal fiber, metal chemical fiber, copper sulfide-containing fiber, or the like is used.
  • the shield jacket 72 is limited to the jacket shape. For example, it may be a vest, a one-piece shape, or the like.
  • a key hole 74 is provided in the external body 5D of the external device 5, and a key 75 provided in the shield jacket 72 is provided. Is inserted into the key hole 74 so that the belt 73 can be detachably attached.
  • a pocket (not shown) is simply provided in the shield jacket 72, and the external main body 5D is stored in the pocket, or Magic Tape (registered trademark) is installed in the external main body 5D and the shield jacket 72 of the external device 5. It may be fixed with the Velcro (registered trademark).
  • the antenna unit 4 includes a plurality of receiving antennas 1 la to 1 Id for receiving radio signals transmitted from the transmitting antenna 23 of the capsule endoscope 3 and an antenna switching switch for switching the antennas 1 la to 11 d. It consists of 45.
  • the external device 5 converts a radio signal from the antenna switching switch 45 into a captured image signal and performs reception processing such as amplification and amplification, and predetermined signal processing is performed on the captured image signal supplied from the reception circuit 33.
  • a signal processing circuit 35 that generates a captured image display signal and captured image data, and a liquid crystal monitor 12 that displays the captured image based on the captured image display signal generated by the signal processing circuit 35.
  • a memory 47 for storing captured image data generated by the signal processing circuit 35, and an antenna selection circuit 46 for controlling the antenna switching switch 45 according to the magnitude of a radio signal received by the receiving circuit 33. .
  • a plurality of receiving antennas 11 indicated as receiving antennas 1 la to l Id in the figure of the antenna unit 4 are radio signals transmitted from the transmitting antenna 23 of the capsule endoscope 3 with a certain radio wave intensity.
  • the plurality of reception antennas 11a to 11: L id sequentially switch the reception antennas that receive the radio signals by controlling the antenna switching switch 45 by the antenna selection signal from the antenna selection circuit 46 of the external device 5. That is, for each receiving antenna l la to d sequentially switched by the antenna switching switch 45 The received radio signal is output to the receiver 33.
  • the reception intensity of the radio signal for each reception antenna 11a-: L id is detected, the positional relationship between each reception antenna lla-lld and the capsule endoscope 3 is calculated, and the radio The signal is demodulated and the captured image signal is output to the signal processing circuit 35.
  • the antenna selection circuit 46 is controlled by the output from the receiver 33.
  • the radio signal transmitted from the capsule endoscope 3 has an intensity reception that is a transmission period of a reception intensity signal indicating the reception intensity of the radio signal in the transmission period of one frame of the captured image signal. It is assumed that the period and the video signal period, which is the transmission period of the captured image signal, are sequentially transmitted.
  • the antenna selection circuit 46 is supplied with the reception intensity of the reception intensity signal received by each of the reception antennas l la to l Id via the reception circuit 33.
  • the reception antenna in the video signal period is switched according to the next frame component power.
  • the received image signal or received intensity signal is compared with the received intensity, and the antenna selection circuit 46 that receives the comparison result receives it.
  • the antenna with the maximum strength 1 li is designated as the antenna for receiving image signals.
  • the capsule endoscope 3 sends a detection result signal that is a result of detecting the radio wave intensity from the external device 5 at an appropriate time interval. Based on the signal, the output when the capsule endoscope 3 transmits may be updated. In this way, even when the capsule endoscope 3 moves in the body of the patient 2, it can be set to an appropriate transmission output, and wasteful consumption of the battery 21 energy can be prevented, and signal transmission / reception can be performed. The state can be maintained in an appropriate state.
  • FIG. 6 the case where the capsule endoscope 3 is set to the origin of the three-dimensional coordinates X, Y, and ⁇ will be described as an example.
  • three receiving antennas l la, 1 lb, and 11c are used, and the receiving antennas 11 a and l ib are arranged between the receiving antennas 11 a and l ib.
  • the distance between the receiving antenna 1 lb and the receiving antenna 1 lc is Dbc, and the distance Dac between the receiving antenna 1 la and the receiving antenna 11c is Dac. Further, the receiving antennas l la to l lc and the capsule endoscope 3 have a predetermined distance relationship.
  • relational data such as the amount of radio wave attenuation due to the distance between the capsule endoscope 3 and the receiving antenna l lj is set in the antenna selection circuit 46 in advance.
  • the calculated distance data indicating the positional relationship between the capsule endoscope 3 and each receiving antenna l lj is stored in the memory 47 as position information of the capsule endoscope 3.
  • the image of the image in the body cavity imaged by the capsule endoscope 3 is the number of dots in the X-axis direction.
  • Each value is 8 bits, that is, a value from 0 to 255.
  • the i-th image in N images (1 ⁇ N) taken continuously in time series is denoted as Ii (1 ⁇ i ⁇ N).
  • the Vth pixel (1 ⁇ v ⁇ ISXX ISY) in each plane of the image Ii is denoted as riv, giv, and biv, respectively.
  • the image processing operation in the image processing apparatus of the first embodiment is performed as a process in the control unit 9a included in the terminal body 9 of the terminal device 7 described above.
  • sampling is performed for every kth image Ik, I2k, ..., Ink (assuming that nk is an integer satisfying l ⁇ nk ⁇ N) (step Sl in Fig. 11) .
  • the control unit 9a uses the N images captured by the capsule endoscope 3. In this case, the image capture start time force is also sampled one by one every 10 seconds.
  • control unit 9a sets the sampled (NZk) image Ink (NZk is an integer rounded down) as a sample image group, and then assigns each image Ink of the sample image group to each image Ink.
  • the sample image group may have (n + 1) image power including the first image II and the (NZk) image Ink.
  • the control unit 9a performs, for example, noise removal and inverse ⁇ correction by median filtering on the Rnk, Gnk, and Bnk planes that form the input image Ink.
  • detection is performed by processing based on a threshold value (step S2 in FIG. 11).
  • the processing based on the threshold value is, for example, a dark pixel when all the density values of rnkv, gnkv, and bnkv are 10 or less, and all the density values of rnkv, gnkv, and bnkv are 230 or more. If This is performed as processing for obtaining a halation pixel.
  • the control unit 9a divides the input image Ink into a plurality of rectangular regions made of, for example, 8 X 8 (step S3 in Fig. 11). In the following description, one of the rectangular areas divided by the control unit 9a is indicated as Hp (p is an integer of 1 or more).
  • control unit 9a determines the average value of gnkvZrnkv (hereinafter referred to as gp) and the average value of bnkvZgnkv (hereinafter referred to as gp), which are values based on the RGB value ratio of each pixel in each region Hp of the image Ink. , / Z bp), and two feature amounts indicating the chromaticity of the image are calculated (step S4 in FIG. 11).
  • gp the average value of gnkvZrnkv
  • gp the average value of bnkvZgnkv
  • control unit 9a discretizes the feature quantities / z gp and / z bp obtained in each of the regions Hp, and also obtains a feature space based on the occurrence frequency of the discretized feature quantities gp and bp.
  • a histogram is created (step S5 in FIG. 11). Specifically, the control unit 9a treats the values of the feature values gp and bp as, for example, taking values from 0 to 1 while setting all the values of 1 or more to 1, and from 0 to Discretization and histogram creation are performed by rounding the value obtained by multiplying the feature quantity / z gp and bp by 80 by 1 to an integer value.
  • the control unit 9a smooths the histogram by applying, for example, an average value filter of a predetermined size to each of the discretized feature quantities / z gp and / z bp (step of FIG. 11). S 6). Note that the histogram created when the control unit 9a performs the above processing is as shown in FIG. 12, for example.
  • control unit 9a maximizes the occurrence frequency in the histogram created by performing the above-described processing on all (NZk) images as the sample image group ( ⁇ gp, bp ), That is, the peak point is detected (step S7 in FIG. 11). Specifically, the control unit 9a extracts nine elements including one element and eight neighboring elements of the one element from the created histogram, and then, among the extracted nine elements, The element with the highest occurrence frequency is detected as the peak point.
  • an analysis method based on gradie nt vectors for example, using the Valley- Seeking method More specific (step S8 in FIG. 11).
  • the control unit 9a performs unsupervised clustering processing for each element in the histogram, which is processing for making an element having a gradient vector toward the same peak point an element belonging to the same cluster (step S9 in FIG. 11).
  • Each cluster created when the control unit 9a performs unsupervised clustering processing is as shown in FIG. 13, for example.
  • control unit 9a When the control unit 9a detects that two or more cluster boundaries are in contact in the unsupervised clustering process described above, the control unit 9a includes the two or more cluster as described below. Processing for integration or separation determination may be further performed.
  • the control unit 9a extracts, among the created clusters, elements including two or more clusters out of nine elements including eight neighboring elements, that is, two or more clusters. By extracting the elements belonging to the boundary, it is determined that the two or more clusters are in contact (step S21 in FIG. 15). Further, the control unit 9a extracts one element having the lowest occurrence frequency among the elements belonging to the boundary of the two or more clusters to be processed, and determines the occurrence frequency in the one element. / z mini (step S22 in Fig. 15). Further, the control unit 9a extracts one peak point having the highest occurrence frequency from the peak points in the two or more clusters to be processed, and sets the occurrence frequency at the one peak point to ma xl. (Step S23 in FIG. 15).
  • the control unit 9a extracts ⁇ mini and / z maxl, and then compares the value of ⁇ mini / ⁇ maxl with the threshold value ⁇ thr.
  • the control unit 9a detects that the value of ⁇ mini / ⁇ maxl is larger than the threshold value ⁇ thr (step S24 in FIG. 15)
  • it determines that the two or more clusters to be processed are separate clusters.
  • the two or more clusters remain separated (step S25 in FIG. 15).
  • the control unit 9a detects that the value of ⁇ mini / ⁇ maxl is equal to or less than the threshold value / z thr (step S24 in FIG. 15)
  • the two or more clusters to be processed belong to the same cluster.
  • the two or more clusters are integrated, and a cluster after integration is created in which the peak point of occurrence frequency ⁇ maxl is a new peak point (step S26 in FIG. 15).
  • the threshold value / z thr described above is, for example, 0.1 in the first embodiment.
  • the control unit 9a performs the unsupervised clustering process (the process shown in step S9 in FIG. 11). For each generated cluster, get the cluster information for each cluster
  • the cluster information acquired by the control unit 9a includes, for example, the cluster number, the element that is the peak point of each cluster, the area and volume of each cluster in the feature space, and the feature quantity gp and each cluster. This information is the average vector of bp.
  • the control unit 9a deletes clusters whose area or volume in the feature space is less than a predetermined threshold, for example, as shown in FIG. 14 (step S in FIG. 11). 1 1).
  • control unit 9a generates, for example, a linear discriminant function or Bayes' theorem created from the mean value vector of the feature quantities / z gp and / z bp and the teacher data set in each cluster remaining in the feature space.
  • a classifier such as a function based on, it is determined to which class each cluster remaining in the feature space belongs (step S12 in FIG. 11).
  • the classes are assumed to be four classes including gastric mucosa, villi, feces, and foam force.
  • the teacher data set is a plurality of images constituting the four classes of teacher data.
  • control unit 9a classifies each cluster remaining in the feature space into four classes of gastric mucosa, villi, feces, and foam, and sets clusters that cannot be classified into the four classes as unknown classes. (Step S13 in FIG. 11).
  • step S 12 and step S 13 of FIG. 11 a specific example of the processing shown in step S 12 and step S 13 of FIG. 11 will be described in detail below. It is assumed that the control unit 9a performs the processing described below for all the clusters remaining in the feature space.
  • ⁇ ⁇ ) ⁇ ⁇ ( ⁇ I ⁇ ) ⁇ ( ⁇ ) ⁇ ⁇ ⁇ (3)
  • d is the same number as the number of features of Ua and ⁇ a denote the mean vector of feature vectors in class ⁇ a and the variance-covariance matrix in one class ⁇ a.
  • (X- a) t represents the transposed matrix of (X- ⁇ &)
  • I ⁇ a I represents the determinant of ⁇ a
  • ⁇ a _1 is as also shown an inverse matrix of? A.
  • P (coa) have the same value in all classes
  • p () is a function common to all classes according to the above equation (3). Shall be represented.
  • the mean vector and the variance-covariance matrix ⁇ a used as classification criteria are elements that constitute a parameter in one class ⁇ a.
  • one region of the image is based on a plurality of images constituting four classes of teacher data: gastric mucosa, villi, feces and foam force.
  • the control unit 9a may estimate the parameter by allocating the feature vector of each class in the image Ii to the feature vector in the teacher data of each class.
  • the variance-covariance matrix ⁇ a is It is a matrix that shows the variation and spread of the distribution of feature vectors belonging to one class ⁇ a, and is expressed as a dXd matrix for the number of dimensions d that is the same as the number of feature quantities in the feature vector.
  • the controller 9a generates the posterior probability ⁇ ( ⁇ 1
  • control unit 9a determines whether or not the classification result of one cluster classified into the class coa is accurate in the above processing, based on the distance from the average value. In other words, a process based on a threshold for the value of the probability density function P 1 (2 I coa) giving the maximum posterior probability Pl (coa I is further performed.
  • the control unit 9a compares, for example, the average value ( ⁇ gp) of the feature quantity gp out of the average values of the two feature quantities of the average vector, with the feature quantity gp.
  • the threshold vector including the product of the standard deviation ⁇ (gp) and the multiplication coefficient ex as a predetermined constant is determined. Note that such a threshold vector ⁇ kl is expressed, for example, by the following mathematical formula (4), and in the first embodiment, the value of the multiplication coefficient ⁇ is 1.5.
  • the control unit 9a substitutes the threshold vector 1 as in the above equations (1), (2), and (3), and one cluster is classified. Calculate the value of the probability density function p ( ⁇ kl I coa) as the threshold for class coa.
  • control unit 9a When the control unit 9a detects that the value of pi (I ⁇ a) is less than or equal to the value of p (xbl
  • control unit 9a for each image Ink included in each subset, class distribution information indicating the distribution of the class type generated in the feature space, and the cluster generated in the feature space.
  • the characteristic amount distribution information indicating the distribution state of each class of the characteristic amounts / z gp and / z bp included in the is acquired (step S15 in FIG. 11).
  • the control unit 9a calculates an average value vector and a variance covariance matrix as classification criteria for classifying images based on the feature quantity distribution information, and then calculates the average value vector and the variance covariance matrix. Configure the classifier for each subset used (step S16 in Fig. 11).
  • control unit 9a performs classification for each of the N images using the classifier configured for each subset by the above-described processing (step S17 in FIG. 11). By performing such processing, the control unit 9a optimally sets the parameter of the multivariate normal probability density function for defining the distribution of each class for each subset in the statistical classifier described above. can do.
  • control unit 9a increases the classification of the image captured by the capsule endoscope 3 by performing the above-described processing from step S1 in Fig. 11 to step S17 in Fig. 11. Accurate and fast.
  • control unit 9a does not calculate an average value vector and a variance covariance matrix for a class that does not occur in one subset based on the acquired feature quantity distribution information. ⁇ ⁇ It may be a thing.
  • control unit 9a the processing performed by the control unit 9a described above is performed after N images have been captured. For example, it may be performed at any time immediately after the image of one subset based on the interval t is captured.
  • the control unit 9a for example, weights evenly in one dimension with respect to the feature amount distribution information acquired in the processing shown in step S15 in FIG.
  • a smoothing process that is a process using a smoothing filter of a predetermined size may be performed.
  • the control unit 9a performs a smoothing process on the part of the feature quantity distribution information where the feature quantity gp or bp varies significantly, or the feature quantity / z gp or / z bp. It is possible to identify the imaging site and the lesion site from the portion where the fluctuation of the maximum is.
  • a graph as shown in Fig. 16 using a one-dimensional equal weighting filter of size 20 is shown.
  • the control unit 9a performs the smoothing process in the time direction on the feature quantity / z gp
  • the change in the time direction for each subset of the feature quantity gp is shown as a graph in FIG.
  • the graphs shown in FIGS. 16 and 17 show the change in the time direction for each subset of the feature value / z gp. It is possible to draw almost the same graph.
  • the control unit 9a still detects that there is a time zone in which the value of the feature value ⁇ gp or the feature value z bp significantly varies. During the time For example, it is determined that a change in the imaging region has been confirmed. Alternatively, if the control unit 9a detects that there is still a time zone in which the value of the feature value ⁇ gp or the feature value ⁇ bp significantly varies after performing the smoothing process, For example, it is determined that the presence of stool, bile bubbles, or lesion site has been confirmed.
  • the capsule endoscope 3 passes through a bleeding site as one of the lesion sites, an image of a subject with a strong red color is captured due to the presence of blood in the bleeding site. Is done. Therefore, when the control unit 9a detects the presence of a time zone in which the value of the feature quantity gp is markedly reduced in the same class, the capsule endoscope 3 images the diseased part in the time zone. Can be identified.
  • control unit 9a may further perform processing described below.
  • the class distribution information acquired by the control unit 9a includes five classes of information including gastric mucosa, villi, feces, bubbles, and unknown.
  • the class distribution information described above is not limited to the information including the above five classes of information.
  • the gastric mucosa and villus class are treated as the same class as the biological mucosa class, and feces, bubbles and Information that the unknown class may be treated as the same class as the non-biological mucosa class may be included, or information in which the white-toned biological mucosa and the yellow-toned biological mucosa are treated as the same class May be included.
  • control unit 9a After performing the processing of step S17 in Fig. 11 described above, the control unit 9a divides the input i-th image Ii into, for example, a plurality of 8 x 8 rectangular regions (Fig. 18). Step S31).
  • the first and last images of the sth subset (assuming that s is an integer) generated in the processing up to step S17 in Fig. 11 are Isl and Is2 respectively.
  • control unit 9a based on the classification result in step S33 of Fig. 18, among the rectangular regions of the image Ii, the region classified as gastric mucosa or villi, that is, the region where the biological mucosa was imaged. It is determined whether or not exists. Then, when there is a region where the biological mucosa is imaged among the rectangular regions of the image Ii (step S34 in FIG. 18), the control unit 9a captures the biological mucosa in the image Ii. The values based on all the features in all the areas determined to be and the image Ii!
  • a process for detecting a lesion site by comparing with the values of the feature amounts gp and bp of one region determined to be that is, a process for detecting bleeding or redness, for example, as a lesion detection process. Perform (Step S35 in Figure 18).
  • control unit 9a for example, the feature values gp and bp of one region in which it is determined that the biological mucous membrane is imaged in the image Ii, and the biological mucous membrane in the image Ii.
  • ⁇ gp and ⁇ gi and / z bp and ⁇ bi the image Ii! / Detects the area where redness was captured.
  • control unit 9a performs bleeding or the average chromaticity of all the regions determined to have been imaged by imaging the biological mucous membrane based on the region division result with classification.
  • One area with chromaticity that is supposed to change in redness is a bleeding area. Or it can be accurately detected as a reddening region.
  • control unit 9a further performs processing based on the comparison result between gi and bi and the feature amount of one region classified into the unknown class in the image Ii, thereby capturing the biological mucous membrane in the image Ii.
  • step S36 in Fig. 18 the control unit 9a accepts 1 for the image number i (step in Fig. 18). S37), the processing shown in steps S31 to S36 in FIG. 18 is continued for the next image.
  • control unit 9a may determine that the villi that has turned yellow due to bile or the like is also the region where the biological mucous membrane is imaged. good.
  • the image processing method described above is not limited to being applied only to images captured by a capsule endoscope.
  • the image processing method can be inserted into a living body and has an imaging function.
  • the present invention may be applied to an image picked up by an endoscope configured to include an insertion portion having the following.
  • images can be classified with high accuracy and high speed for each imaging target, and imaging is performed based on the classification result. As a result, the efficiency of observation by the user can be enhanced.
  • the lesion detection processing described above is further used for each region classified as the region where the biological mucosa was imaged, thereby improving the detection accuracy of the lesion site. be able to.
  • control unit 9a is described as performing a series of processes by dividing one image Ii into a plurality of rectangular regions each having a size of 8x8.
  • the processing may be performed by dividing each pixel by 1 X 1, that is, by dividing into rectangular regions of other sizes. There may be.
  • control unit 9a is described as performing a series of processes by dividing one image Ii into a plurality of rectangular regions having a size of 8 ⁇ 8.
  • processing may be performed by dividing into regions based on the classification result in one image Ii according to edge information or the like, or may be divided into regions having other shapes. And you can do things!
  • 19 to 24 relate to a second embodiment of the present invention. Note that detailed description of portions having the same configuration as in the first embodiment is omitted. In addition, the same components as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted. Furthermore, the configuration of the capsule endoscope apparatus 1 used in the second embodiment is the same as that of the first embodiment. In addition, the image processing operation in the second embodiment is performed as a process in the control unit 9a included in the terminal body 9.
  • FIG. 19 is a flowchart showing an image processing operation according to the second embodiment.
  • FIG. 20 is a diagram illustrating an example of a histogram in the feature space created by the process performed by the control unit in the second embodiment.
  • FIG. 21 is a diagram illustrating an example of a cluster in the feature space created by the process performed by the control unit in the second embodiment.
  • FIG. 22 is a diagram illustrating a state in which clusters having an area or volume in the feature space that is less than a predetermined threshold are deleted from the clusters illustrated in FIG.
  • FIG. 23 is a flowchart showing an example of processing for integration or separation determination of two or more clusters in contact with each other, which is processing performed by the control unit.
  • FIG. 24 is a flowchart showing a modification of the image processing operation shown in FIG.
  • the image of the image in the body cavity imaged by the capsule endoscope 3 is the number of dots in the X-axis direction in the ISXXy-axis direction.
  • Each pixel takes 8 bits as an RGB value which is a density value, that is, 0 to 255 values.
  • the i-th image in N images (1 ⁇ N) continuously taken in time series is represented by Ii (l ⁇ i ⁇ N).
  • the w th pixel (l ⁇ w ⁇ ISXX) in each plane of the image Ii. ISY) shall be denoted as riw, giw and biw, respectively.
  • the image processing operation in the image processing apparatus of the present embodiment is performed as a process in the control unit 9a of the terminal body 9 of the terminal apparatus 7 described above, as in the first embodiment. ing.
  • the control unit 9a performs, for example, noise removal by median filtering and inverse ⁇ correction on each of Ri, Gi, and Bi constituting the input i-th image Ii as preprocessing.
  • detection is performed by processing based on a threshold value (step S101 in FIG. 19).
  • the processing based on the threshold value is, for example, a dark pixel when all the density values of riw, giw, and biw are 10 or less, and all the density values of riw, giw, and biw are 230 or more. If it is a value, it is processed as a gray pixel.
  • control unit 9a divides the input image Ii into a plurality of rectangular regions made of, for example, 8 X 8 (step S102 in Fig. 19). In the following description, one of the rectangular areas divided by the control unit 9a is indicated as Ho (o is an integer of 1 or more).
  • control unit 9a determines the average value of giwZriw (hereinafter referred to as 80 ) and the average value of ⁇ 781, which are values based on the ratio of the RGB values of each pixel in each region Ho of the image Ii.
  • Two feature quantities indicating the chromaticity of the image (hereinafter referred to as “bo”) are calculated (step S 103 in FIG. 19).
  • control unit 9a discretizes the feature quantities / z go and / z bo obtained in each of the regions Ho, and based on the occurrence frequency of the discretized feature quantities go and; z bo A histogram in the feature space is created (step S104 in FIG. 19). Specifically, the control unit 9a treats the values of the feature quantities go and bo as, for example, taking values from 0 to 1 while setting all values of 1 or more to 1, and further, 0 to 1 Discretization and histogram creation are performed by rounding the values obtained by multiplying the feature values / z go and / z bo by 80 to integer values.
  • control unit 9a When the control unit 9a detects more than a predetermined number of halation pixels and dark part pixels in one region Ho included in the image Ii, the control unit 9a excludes the one region Ho from application of the subsequent processing. Even so, [0178]
  • the control unit 9a smooths the histogram by applying, for example, an average value filter of a predetermined size to each of the discretized feature values ⁇ go and ⁇ bo (step S105 in FIG. 19). ). Note that the histogram created when the control unit 9a performs the above processing is as shown in FIG. 20, for example.
  • control unit 9a in the histogram created by performing the above-described processing on the input image Ii, the element (go, ⁇ bo) with the maximum occurrence frequency, that is, the pixel.
  • a single point is detected (step S106 in FIG. 19).
  • the control unit 9a extracts nine elements including one element and eight neighboring elements of the one element in the created histogram, and then, among the extracted nine elements.
  • the element with the highest occurrence frequency is detected as the peak point.
  • control unit 9a When the controller 9a detects that the boundary between two or more clusters is in contact in the unsupervised clustering process described above, the control unit 9a includes the two or more clusters as described below. Processing for integration or separation determination may be further performed.
  • the control unit 9a extracts, among the created clusters, elements including two or more clusters from nine elements including eight neighboring elements, that is, two or more clusters. It is determined that the two or more clusters are in contact with each other by extracting elements belonging to the boundary (step S121 in FIG. 23). Further, the control unit 9a extracts one element having the lowest occurrence frequency among the elements belonging to the boundary of the two or more clusters to be processed, and determines the occurrence frequency in the one element. / z min2 (step S122 in FIG. 23). In addition, the control unit 9a generates a peak among the peak points in the two or more clusters to be processed. One peak point with the highest raw frequency is extracted, and the occurrence frequency at the one peak point is set to max2 (step S123 in FIG. 23).
  • the control unit 9a extracts ⁇ min2 and / z max2, and then compares the value of ⁇ min2 / ⁇ max2 with the threshold value ⁇ thq.
  • the control unit 9a detects that the value of ⁇ min2 / ⁇ max2 is larger than the threshold value ⁇ thq (step S124 in FIG. 23)
  • it determines that the two or more clusters to be processed are separate clusters.
  • the two or more clusters remain separated (step S25 in FIG. 15).
  • the control unit 9a detects that the value of ⁇ min2 / ⁇ max2 is equal to or less than the threshold value / z thq (step S24 in FIG. 15)
  • the two or more clusters to be processed belong to the same cluster.
  • the two or more clusters are integrated, and a cluster after integration is created in which the peak point of the occurrence frequency ⁇ max2 is a new peak point (step S26 in FIG. 15).
  • the threshold value / z thq described above is, for example, 0.1 in the second embodiment.
  • the control unit 9a After performing the above-described unsupervised clustering process (the process shown in step S108 in Fig. 19), the control unit 9a acquires the cluster information of each cluster generated (step in Fig. 19). S109).
  • the cluster information acquired by the control unit 9a includes, for example, a cluster number, an element that is a peak point of each cluster, an area and a volume in each feature space of each cluster, and a feature quantity go and each cluster. Information such as the average value of z bo.
  • control unit 9a deletes clusters whose area or volume in the feature space is less than a predetermined threshold, for example, as shown in FIG. 22 (step S in FIG. 19). 110).
  • control unit 9a generates, for example, a linear discriminant function or a Bayes' theorem created from the mean value vector of the feature values / z go and / z bo in each cluster remaining in the feature space and the teacher data set.
  • a discriminator such as a discriminator such as a function based on the above, it is determined whether each cluster key remaining in the feature space belongs to a class of deviation (step S 111 in FIG. 19).
  • the classes are assumed to be four classes including gastric mucosa, villi, feces, and foam force.
  • the teacher data set is a plurality of images constituting the four classes of teacher data.
  • control unit 9a classifies each cluster remaining in the feature space into four classes of gastric mucosa, villi, feces, and foam, and sets clusters that cannot be classified into the four classes as unknown classes. (Step S112 in FIG. 19).
  • step S111 and step S112 in FIG. 19 a specific example of the processing shown in step S111 and step S112 in FIG. 19 will be described in detail below. It is assumed that the control unit 9a performs the processing described below for all the clusters remaining in the feature space.
  • ⁇ ⁇ I ⁇ ) ⁇ ( ⁇
  • the state-dependent probability density function p (s I coa) and the probability density function p (s) are It is shown as the following mathematical formula (6) and mathematical formula (7). 0 191] ⁇ ) ' ⁇ ⁇ ] ( ⁇ - ⁇ )'. '(6) c
  • ⁇ ( ⁇ ) ⁇ ⁇ ⁇ ( ⁇ ⁇ ⁇ ) ⁇ ) ⁇ ( ⁇ ) ⁇ (7)
  • d is the same as the number of feature quantities of
  • ua and ⁇ a denote the mean vector of feature vectors in class ⁇ a and the variance-covariance matrix in one class ⁇ a.
  • (X- a) t represents the transposed matrix of (X- ⁇ &)
  • I ⁇ a I represents the determinant of ⁇ a
  • ⁇ a _1 is as also shown an inverse matrix of? A.
  • the prior probability P (coa) takes the same value in all classes, and the probability density function is expressed as a function common to all classes by the above equation (7).
  • the mean vector and the variance-covariance matrix ⁇ a used as classification criteria are elements that constitute the parameters in one class ⁇ a.
  • one region of the image is based on a plurality of images constituting four classes of teacher data: gastric mucosa, villi, feces and foam force.
  • control unit 9a may estimate the parameter by allocating the feature vector of each class in the image Ii to the feature vector in the teacher data of each class.
  • the variance-covariance matrix ⁇ a is a matrix indicating the distribution and spread of the distribution of feature vectors belonging to one class ⁇ a, and for the dimension number d that is the same as the number of feature quantities of feature vector 2, It shall be expressed as a dXd matrix.
  • the control unit 9a determines that the generated feature vector belongs to the class ⁇ 1, the posterior probability ⁇ ( ⁇ 1
  • the control unit 9a assumes that the feature vector belongs to the class ⁇ a that gives the maximum posterior probability Pl (coa I) among these four posterior probabilities. Based on the identification result, classify one cluster, which is the region where the feature vector is generated, into class coa, and a probability density function pi () that gives the maximum posterior probability Pl (coa
  • control unit 9a determines whether or not the classification result of one cluster classified into the class coa is accurate in the above processing, based on the distance from the average value.
  • the probability density function Pi (I ⁇ ) that gives the maximum posterior probability Pl (coa I) Further processing based on a threshold for the value of is performed.
  • the control unit 9a calculates, for example, the feature value / z with respect to the average value ( ⁇ go) of the feature value go among the average values of the two feature values of the average vector.
  • a threshold vector ⁇ kl is expressed, for example, as the following mathematical formula (8), and in the present embodiment, the value of the multiplication coefficient ⁇ is 1.5.
  • the control unit 9a substitutes the threshold vector 1 as in the above equations (5), (6), and (7), and one cluster is classified. Calculate the value of the probability density function p ( ⁇ kl I ⁇ a) as the threshold value of the class ⁇ a.
  • control unit 9a detects that the value of pi I co a) is larger than the value of p ( ⁇ hl
  • the control unit 9a classifies one cluster into the class ⁇ a in the above-described processing. Judge the classification result is correct.
  • control unit 9a When the control unit 9a detects that the value of pi I ⁇ a) is equal to or less than the value of p (xbl
  • the control unit 9a obtains the elements possessed by each cluster in the feature space and the class classification result of each cluster obtained by performing the above processing, the feature quantity go calculated in each region possessed by the image ⁇ , and Based on bo, each area is classified into one of the four classes and the unknown class described above (step S 113 in FIG. 19). Specifically, for example, the control unit 9a assigns each region Ho to the same class as the class into which the clusters to which the values of the discretized feature quantities go and bo belong, which are calculated in each region Ho, belong. Classify.
  • control unit 9a selects the area in which the feature amount corresponding to the element is calculated from among the areas of the image Ii. It is assumed that the class is classified as an unknown class.
  • control unit 9a completes the processing from step S101 to step S113 in FIG. 19 for all the input N images! Step S1 14 in Fig. 19), 1 is added to the image number i (step S115 in FIG. 19), and the processing from step S101 to step S114 in FIG. 19 is continued for the next image. Further, when the processing shown in steps S101 to S113 in FIG. 19 is completed for all the input N images (step S114 in FIG. 19), the control unit 9a ends the series of processing.
  • control unit 9a performs the above-described processing from step S101 to step S115 in FIG. 19 to classify images captured by the capsule endoscope 3 with high accuracy and at high speed. It can be carried out.
  • step S104 of FIG. 19 that is, the process of creating a histogram in the feature space is not limited to one performed for each image. It may be performed on N images.
  • control unit 9a performs the same processing as the processing shown in Step S101, Step S102, and Step S103 of FIG. 19 described above (Step S131 of FIG. 24, Step of FIG. 24). S132 and step S133 in FIG. 24). That is, the control unit 9a performs preprocessing and area division on the input image Ii, and calculates the feature values go and bo in each area Ho obtained by dividing the image Ii.
  • control unit 9a discretizes the feature quantities go and bo obtained in each of the areas Ho and discretizes the discretized feature quantities.
  • a histogram in the feature space based on the occurrence frequency of / z go and / z bo is created (step S134 in FIG. 24).
  • step S135 in Fig. 24 the control unit 9a sets the image number i. 1 is selected (step S136 in FIG. 24), and the processing from step S131 to step S135 in FIG. 24 is continued for the next image.
  • step S135 in Fig. 24 the control unit 9a
  • step S 137 and step S 144 in FIG. 24 the control unit 9a performs unsupervised clustering processing based on the created histogram, and converts each obtained cluster to the gastric mucosa. , Villus, stool, and foam are classified into four classes, and clusters that cannot be classified into the four classes are classified as unknown classes.
  • the control unit 9a performs the process shown in step S144 of FIG.
  • control unit 9a performs a process of classifying each region of the image II into one of the four classes of gastric mucosa, villi, feces, and foam and the unknown class for the first image II. Perform (Step S145 and Step S146 in FIG. 24).
  • control unit 9a completes the above-described processing shown in step S146 in FIG. 24 for all the input N images! If it is not correct (step S147 in FIG. 24). Then, 1 is assigned to the image number i (step S148 in FIG. 24), and the processing shown in step S146 and step S147 in FIG. 24 is continued for the next image. In addition, when the processing shown in step S 146 in FIG. 24 is completed for all the N input images (step S 147 in FIG. 24), the control unit 9a performs steps S131 to S148 in FIG. The series of processing shown above is completed.
  • control unit 9a for example, in addition to the feature amount distribution information obtained by performing the processing shown in step S144 in FIG. 24, is a region classified into a predetermined class among images II to IN, for example.
  • an image in which Ho occupies a predetermined ratio or more in the image Ii is determined as an image in which a predetermined organ is imaged, it is used together with a determination criterion to determine the imaging region for each image. May be.
  • the control unit 9a is an image in which the large intestine is captured of an image in which the region Ho classified into the fecal class occupies 10% or more of the image Ii among the images II to IN. It may be determined as follows. Note that the imaging part determination process performed by the control unit 9a as described above may be performed in conjunction with the above-described process in step S112 of FIG.
  • the control unit 9a performs the processes shown in steps S101 to S115 in Fig. 19 by performing the processes shown in steps S131 to S148 in Fig. 24 described above. Compared to the case, it is possible to classify images captured by the capsule endoscope 3 with higher accuracy.
  • control unit 9a for example, feature amount distribution information obtained by performing the process shown in Step S144 of FIG. It is also possible to use a statistical classifier configured based on the above, and to perform the processing described below.
  • control unit 9a uses the average value scale and the variance-covariance matrix as the classification criteria when classifying the images, as shown in FIG.
  • a statistical discriminator using the mean value vector and the variance-covariance matrix is configured based on the feature quantity distribution information obtained in step S144.
  • control unit 9a determines each region based on the statistical classifier configured by the above-described processing and the feature values go and zbo calculated in each region included in the image Ii.
  • the class is classified into one of the four classes and the unknown class.
  • the image processing method described above is not limited to being applied only to an image captured by a capsule endoscope.
  • the image processing method can be inserted into a living body and has an imaging function. It may be applied to an image captured by an endoscope configured to include a unit.
  • FIG. 25 to FIG. 30 relate to the third embodiment of the present invention. Note that detailed description of portions having the same configurations as those of the first embodiment and the second embodiment is omitted. In addition, the same components as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and description thereof is omitted. Furthermore, the configuration of the capsule endoscope apparatus 1 used in the third embodiment is the same as that of the first embodiment and the second embodiment. In addition, the image processing operation in the third embodiment is performed as processing in the control unit 9a included in the terminal body 9. FIG. 25 is a flowchart showing an image processing operation according to the third embodiment. FIG. 26 is a flowchart showing an image processing operation performed subsequent to the processing shown in FIG. FIG.
  • FIG. 27 is a diagram illustrating an example of a histogram in the feature space created by the process performed by the control unit in the third embodiment.
  • FIG. 28 is a diagram illustrating an example of a cluster in the feature space created by the second unsupervised clustering process performed by the control unit in the third embodiment.
  • FIG. 29 is a diagram illustrating an example of a cluster in the feature space created by the first teacherless clustering process performed by the control unit in the third embodiment.
  • FIG. 30 is a diagram illustrating a state in which the cluster C illustrated in FIG. 29 is divided into the cluster C1 and the cluster C2 by the cluster dividing process performed by the control unit in the third embodiment.
  • the control unit 9a performs, for example, noise removal by median filtering and inverse ⁇ correction on each of Ri, Gi, and Bi constituting the input i-th image Ii as preprocessing.
  • detection is performed by processing based on a threshold value (step S151 in FIG. 25).
  • the processing based on the threshold value is, for example, a dark pixel when all the density values of riw, giw, and biw are 10 or less, and all the density values of riw, giw, and biw are 230 or more. If it is a value, it is processed as a gray pixel.
  • control unit 9a divides the input image Ii into a plurality of rectangular regions made of, for example, 8 X 8 (step S152 in Fig. 25).
  • the control unit 9a has two characteristics indicating the chromaticity of the image composed of ⁇ go and / z bo, which are values based on the ratio of the RGB values of each pixel in each region Ho of the image Ii.
  • Two feature quantities indicating the variation in chromaticity of the image which is composed of the quantity, the variance of giw / riw (hereinafter referred to as ⁇ 2 go) and the variance of biwZgiw (hereinafter referred to as ⁇ ⁇ ) (FIG. 25).
  • ⁇ 2 go the variance of giw / riw
  • ⁇ ⁇ biwZgiw
  • the control unit 9a is not limited to calculating ⁇ 2 go and ⁇ ⁇ as the feature amount indicating the chromaticity variation of the image.
  • the standard deviation ⁇ go and the standard deviation ⁇ bo of giwZriw May be calculated.
  • the control unit 9a discretizes the feature values ⁇ go and ⁇ bo obtained in each region Ho. At the same time, a histogram is created in the feature space based on the occurrence frequency of the discretized feature quantities go and bo (step S154 in FIG. 25).
  • the controller 9a smooths the histogram by applying, for example, an average value filter of a predetermined size to each of the discretized feature values ⁇ go and ⁇ bo (step S155 in FIG. 25). ).
  • the histogram created by the control unit 9a performing the above processing is substantially the same as that shown in FIG. 20 described above, for example.
  • the control unit 9a has an element (go, ⁇ bo) with the maximum occurrence frequency, that is, a pixel.
  • a single point is detected (step S156 in FIG. 25). Specifically, the control unit 9a extracts nine elements including one element and eight neighboring elements of the one element in the created histogram, and then, among the extracted nine elements. The element with the highest occurrence frequency is detected as the peak point.
  • the control unit 9a After performing the first unsupervised clustering process, the control unit 9a acquires the cluster information of each cluster generated (step S159 in Fig. 25).
  • the cluster information acquired by the control unit 9a in the process shown in step S159 of FIG. 25 includes, for example, the cluster number, the peak point of each cluster, the area and volume in the feature space of each cluster, And the average value vector of the feature quantities / z go and / z bo in each cluster.
  • control unit 9a based on the acquired cluster information, Deletes clusters whose volume is less than the predetermined threshold (step SI 60 in FIG. 25).
  • control unit 9a generates, for example, a linear discriminant function or a Bayes' theorem created from the mean value vector of the feature quantities / z go and / z bo in each cluster remaining in the feature space and the teacher data set.
  • a discriminator such as a discriminator such as a function based on the above, it is determined to which class each cluster remaining in the feature space belongs (step S161 in FIG. 25).
  • the classes are assumed to be four classes consisting of gastric mucosa, villi, stool and foam.
  • the teacher data set is a plurality of images constituting the four classes of teacher data.
  • control unit 9a classifies each cluster remaining in the feature space into four classes of gastric mucosa, villi, feces, and foam, and sets clusters that cannot be classified into the four classes as unknown classes. (Step S162 in FIG. 25).
  • step S161 and step S162 in FIG. 25 in this embodiment is substantially the same as the processing shown in step S111 and step S112 in FIG. 19 described in the second embodiment. Suppose that it applies.
  • control unit 9a discretizes the feature values ⁇ 2 go and ⁇ ⁇ obtained in each region Ho, and generates the discretized feature values ⁇ 2 go and ⁇ 2 bo.
  • a histogram in the feature space based on is created (step S163 in FIG. 26).
  • the controller 9a smooths the histogram by applying, for example, an average value filter of a predetermined size to each of the discretized feature quantities ⁇ 2 go and ⁇ ⁇ (step of FIG. 26). S 164). Note that a histogram created by the control unit 9a performing the above processing is as shown in FIG. 27, for example.
  • the control unit 9a has an element with the maximum occurrence frequency ( ⁇ 2 go, ⁇ 3 ⁇ 4 ⁇ ), that is, The peak point is detected (step S165 in FIG. 26). Specifically, the control unit 9a extracts nine elements including one element and eight neighboring elements of the one element in the created histogram, and then, among the extracted nine elements. The element with the highest occurrence frequency is detected as the peak point.
  • the unsupervised clustering process is performed (step S167 in FIG. 26). Each cluster created by the control unit 9a performing the second unsupervised clustering process is as shown in FIG. 28, for example.
  • control unit 9a performs the distribution state of each element go, ⁇ bo) in each cluster created by performing the first unsupervised clustering process and the second unsupervised clustering process. Based on the distribution state of each element ( ⁇ 2 go, ⁇ 3 ⁇ 4 ⁇ ) in each created cluster, the first unsupervised clustering process described below is used to perform the partitioning process for each cluster. Perform (Step S168 in FIG. 26).
  • cluster A and cluster B as shown in Fig. 28 are created in the feature space indicating the chromaticity variation of the image.
  • a cluster C as shown in FIG. 29 is created in the feature space indicating the chromaticity of the image by performing the first unsupervised clustering process.
  • the control unit 9a determines that ⁇ 2 gol and ⁇ 2 bo l calculated as the feature values of one region Ho i belong to cluster A, and are calculated as the feature values of the one region Ho i / z. go l and / z bo l belong to cluster C and ⁇ 2 calculated as the feature value of other region Ho2 ⁇ 2 go2 and ⁇ ⁇ 2 belong to cluster ⁇ and calculated as the feature value of other region ⁇ 2 / z
  • cluster C is judged to be a cluster in which two classes of elements are mixed.
  • control unit 9a determines the original cluster C as one cluster C1 to which / z go l and / z bo l belong, for example, as shown in FIG. 2 and processing to divide into other cluster C2 to which ⁇ bo2 belongs.
  • control unit 9a uses the classifier created from the mean value vector of the feature quantities / z gol and / z bo l and the teacher data set, and is one cluster in which the original cluster force is also divided.
  • classifiers created from the mean value vector of features / z go2 and / z bo2 and the teacher data set are used, and Class classification of cluster C2, which is a cluster, is performed (step S169 in FIG. 26).
  • step S163 to step S169 in FIG. 26 is performed on the clusters classified into specific classes such as the gastric mucosa class and the villus class in the processing in step S161 in FIG. It may be performed only on the other side.
  • control unit 9a may perform processing from step S163 to step S169 in Fig. 26 while omitting the processing in steps S161 and S162 in Fig. 25. .
  • control unit 9a uses each cluster created by performing the first unsupervised clustering process based on the class classification result of each cluster created by performing the second unsupervised clustering process. It is also possible to perform the classification.
  • the image processing method described above is not limited to being applied only to an image captured by a capsule endoscope.
  • the image processing method can be inserted into a living body and has an imaging function. It may be applied to an image captured by an endoscope configured to include a unit.
  • images can be classified with high accuracy and high speed for each imaging target, and as a result, the efficiency of observation by the user is enhanced. be able to.
  • cluster generation and class classification based on color tone variation are performed together, so that structurally distinct features are obtained. It is possible to classify images with bubbles and villi imaged with high accuracy.
  • control unit 9a divides one image Ii into a plurality of rectangular regions of size 8 X 8, and performs a series of processing.
  • 1 X 1 that is, processing may be performed by dividing each pixel, or in a rectangular area of another size. You may divide and process.
  • control unit 9a divides one image Ii into a plurality of rectangular regions having a size of 8 X 8, and performs a series of processes.
  • the processing power may be divided into regions based on the classification result in one image Ii according to edge information or the like. Even if processing is performed by dividing into regions having shapes.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Fuzzy Systems (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 ユーザによる観察の効率化をはかることができる画像処理装置および当該画像処理装置における画像処理方法を提供する。本発明の画像処理装置は、撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において生成した複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、前記複数の画像を用い、複数のサブセットを生成するサブセット生成手段と、一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を分類する際の分類基準を算出する分類基準算出手段とを具備する。

Description

明 細 書
画像処理装置および当該画像処理装置における画像処理方法 技術分野
[0001] 本発明は、画像処理装置および当該画像処理装置における画像処理方法に関し
、特に、生体粘膜表面の像が良好に撮像されていない画像を除外することができる 画像処理装置および当該画像処理装置における画像処理方法に関するものである
背景技術
[0002] 従来、医療分野にお!、て、 X線、 CT、 MRI、超音波観測装置及び内視鏡装置等 の画像撮像機器を用いた観察が広く行われて ヽる。このような画像撮像機器のうち、 内視鏡装置は、例えば、生体としての体腔内に挿入される細長の挿入部を有し、該 挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素 子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモ- タ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そし て、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例え ば、体腔内における臓器等の観察を行う。また、内視鏡装置は、消化管粘膜の像を 直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病 変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することがで きる。
[0003] そして、近年、前述したような内視鏡装置と略同様の有用性が期待できる画像撮像 機器として、例えば、カプセル型内視鏡装置が提案されている。一般的に、カプセル 型内視鏡装置は、被検者が口から飲み込むことにより体腔内に配置され、撮像した 該体腔内の像を撮像信号として外部に送信するカプセル型内視鏡と、送信された該 撮像信号を体腔外で受信した後、受信した該撮像信号を蓄積するレシーバと、レシ ーバに蓄積された撮像信号に基づく体腔内の像の画像を観察するための観察装置 とから構成される。
[0004] カプセル型内視鏡装置を構成するカプセル型内視鏡は、消化管の蠕動運動により 進むため、例えば、口から体腔内に入れられた後、肛門から排出されるまで数時間 程度の時間が力かることが一般的である。そして、カプセル型内視鏡は、体腔内に入 れられた後、排出されるまでの間、レシーバに対して撮像信号を略常時出力し続ける ため、例えば、数時間分の動画像における、レシーバに蓄積されたフレーム画像とし ての静止画像の枚数は膨大なものとなる。そのため、ユーザによる観察の効率化とい う点において、例えば、蓄積された画像のうち、出血部位等の病変部位が含まれる所 定の画像を検出するような画像処理方法が行われた上にお!ヽて、該所定の画像以 外の画像を表示または記憶しないという処理が行われることにより、画像のデータ量 が削減されるような提案が望まれている。
[0005] 前述したような画像処理方法としては、例えば、 PCT国際公開番号 WO02Z0735 07号公報に記載されて 、るようなものがある。 PCT国際公開番号 WO02Z073507 号公報に記載されている、生体内での比色分析の異常を検出するための方法は、正 常粘膜と出血部位との色調の違いに着目し、色調を特徴量と設定した特徴空間にお ける各平均値力もの距離に基づき、画像の分割領域毎に出血部位の検出を行う方 法、すなわち、病変部位としての出血部位が含まれる所定の画像を検出するための 方法を有する画像処理方法である。
[0006] しかし、 PCT国際公開番号 WO02Z073507号公報に記載されている画像処理 方法においては、以下に記すような課題がある。
[0007] 一般に、消化管においては、常に生体粘膜表面の像のみの撮像が行われている 訳ではなぐ例えば、便、泡、粘液または食物残渣等の異物の像と、生体粘膜表面の 像とが混在した状態において撮像が行われている。そのため、前述したような異物の 存在を考慮して 、な 、PCT国際公開番号 WO02Z073507号公報に記載されて ヽ る画像処理方法においては、例えば、該異物により正常粘膜を出血部位と誤検出し てしまう可能性、及び該異物の像が大部分を占めるような画像を検出する可能性が 考えられる。その結果、ユーザによる観察の効率ィ匕をは力ることができないという課題 が生じている。
[0008] 本発明は、前述した点に鑑みてなされたものであり、例えば、生体粘膜表面の像と しての胃粘膜及び絨毛の像と、異物の像としての便及び泡の像とを画像の小領域毎 に識別して分類することにより、画像の小領域の多くを異物の像が占めるような、生体 粘膜表面の像が良好に撮像されて ヽな ヽ画像を、観察不要の画像として容易に除 外することができ、さらに、前記分類結果に基づいて撮像された臓器を特定すること ができ、その結果、ユーザによる観察の効率ィ匕をは力ることのできる画像処理装置お よび当該画像処理装置における画像処理方法を提供することを目的としている。
[0009] また、本発明は、生体粘膜表面の像として分類された各々の領域に対し、さらに、 例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病変部位の 像と分類するような画像処理方法を用いることにより、病変部位の検出精度を高める ことができる画像処理装置および当該画像処理装置における画像処理方法を提供 することを目的としている。
発明の開示
課題を解決するための手段
[0010] 本発明の第 1の画像処理装置は、撮像機能を有する医療機器により撮像された複 数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手 段にお 1、て入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割 する画像分割手段と、前記画像分割手段により分割された前記複数の領域各々に おける特徴量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻 度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタ を複数のクラスの 、ずれかに各々分類するクラスタ分類手段と、前記複数の画像を 用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成 するサブセット生成手段と、前記サブセット生成手段により生成された一のサブセット に含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、 前記一のサブセットに含まれる画像を、前記複数のクラスのいずれかに各々分類す る際の分類基準を算出する分類基準算出手段と、を具備することを特徴とする。
[0011] 本発明の第 2の画像処理装置は、前記第 1の画像処理装置において、さらに、前 記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおいて前記特徴 量が発生しな 、クラスにっ 、ては、前記分類基準を算出しな 、ことを特徴とする。
[0012] 本発明の第 3の画像処理装置は、前記第 1の画像処理装置において、前記複数の クラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有する ことを特徴とする。
[0013] 本発明の第 4の画像処理装置は、前記第 2の画像処理装置において、前記複数の クラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有する ことを特徴とする。
[0014] 本発明の第 5の画像処理装置は、前記第 3の画像処理装置において、さらに、前 記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分 類を行う分類手段と、前記一の画像の分類結果に基づき、前記一の画像が前記生 体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、 病変箇所を検出するための処理を行う病変検出手段と、を有することを特徴とする。
[0015] 本発明の第 6の画像処理装置は、前記第 4の画像処理装置において、さらに、前 記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分 類を行う分類手段と、前記一の画像の分類結果に基づき、前記一の画像が前記生 体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、 病変箇所を検出するための処理を行う病変検出手段と、を有することを特徴とする。
[0016] 本発明の第 7の画像処理装置は、撮像機能を有する医療機器により時系列的に撮 像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像 信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の 領域に分割する画像分割手段と、前記画像分割手段により分割された前記複数の 領域各々における特徴量を算出する特徴量算出手段と、前記特徴量に基づき、前 記複数の領域各々を複数のクラスの!/ヽずれかに各々分類する画像領域分類手段と 、前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する 代表値算出手段と、前記代表値の変動が極大となる画像または時間のいずれかを 検出する変動検出手段と、を具備することを特徴とする。
[0017] 本発明の第 8の画像処理装置は、前記第 7の画像処理装置において、さらに、前 記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有し、前記変 動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基づき、前 記代表値の変動が極大となる画像または時間のいずれかを検出することを特徴とす る。
[0018] 本発明の第 9の画像処理装置は、前記第 7の画像処理装置において、前記代表値 の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴と する。
[0019] 本発明の第 10の画像処理装置は、前記第 8の画像処理装置において、前記代表 値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特 徴とする。
[0020] 本発明の第 11の画像処理装置は、前記第 7の画像処理装置において、前記代表 値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする
[0021] 本発明の第 12の画像処理装置は、前記第 8の画像処理装置において、前記代表 値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする
[0022] 本発明の第 13の画像処理装置は、前記第 7の画像処理装置において、前記代表 値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とす る。
[0023] 本発明の第 14の画像処理装置は、前記第 8の画像処理装置において、前記代表 値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とす る。
[0024] 本発明の第 15の画像処理装置は、前記第 7の画像処理装置において、前記代表 値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特 徴とする。
[0025] 本発明の第 16の画像処理装置は、前記第 8の画像処理装置において、前記代表 値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特 徴とする。
[0026] 本発明の第 17の画像処理装置は、前記第 7の画像処理装置において、前記代表 値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0027] 本発明の第 18の画像処理装置は、前記第 8の画像処理装置において、前記代表 値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0028] 本発明の第 19の画像処理装置は、前記第 9の画像処理装置において、前記代表 値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0029] 本発明の第 20の画像処理装置は、前記第 10の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0030] 本発明の第 21の画像処理装置は、前記第 11の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0031] 本発明の第 22の画像処理装置は、前記第 12の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0032] 本発明の第 23の画像処理装置は、前記第 13の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0033] 本発明の第 24の画像処理装置は、前記第 14の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0034] 本発明の第 25の画像処理装置は、前記第 15の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0035] 本発明の第 26の画像処理装置は、前記第 16の画像処理装置において、前記代 表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
[0036] 本発明の第 27の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段に お!ヽて入力した画像信号に基づき、前記画像を各々複数の領域に分割する画像分 割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴 量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき 、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のク ラスの 、ずれかに各々分類するクラスタ分類手段と、前記クラスタ分類手段の分類結 果に基づき、前記複数の領域を前記複数のクラスのいずれかに各々分類する画像 領域分類手段と、を具備することを特徴とする。
[0037] 本発明の第 28の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段に お!ヽて入力した画像信号に基づき、前記画像を各々複数の領域に分割する画像分 割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴 量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき 、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のク ラスのいずれかに各々分類するクラスタ分類手段と、前記特徴空間における前記特 徴量の分布状態に関する情報である、特徴量分布情報を得る特徴量分布情報取得 手段と、前記特徴量分布情報取得手段が取得した前記特徴量分布情報に基づき、 前記複数の領域を前記複数のクラスの!/、ずれかに各々分類する画像領域分類手段 と、を具備することを特徴とする。
[0038] 本発明の第 29の画像処理装置は、前記第 27の画像処理装置において、前記画 像は、時系列的に連続して撮像された複数の画像であることを特徴とする。
[0039] 本発明の第 30の画像処理装置は、前記第 28の画像処理装置において、前記画 像は、時系列的に連続して撮像された複数の画像であることを特徴とする。
[0040] 本発明の第 31の画像処理装置は、撮像機能を有する医療機器により撮像された 画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段に お!ヽて入力した画像信号に基づき、前記画像を各々複数の領域に分割する画像分 割手段と、前記画像分割手段により分割された前記複数の領域各々における複数の 種類の特徴量を算出する特徴量算出手段と、前記複数の種類の特徴量のうち、一の 種類の特徴量及び該一の種類の特徴量の発生頻度に基づき、一の特徴空間にお いて複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれか に各々分類する第 1のクラスタ分類手段と、前記複数の種類の特徴量のうち、他の種 類の特徴量及び該他の種類の特徴量の発生頻度に基づき、他の特徴空間において 複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスの 、ずれかに各 々分類する第 2のクラスタ分類手段と、前記一の特徴空間及び前記他の特徴空間に おける特徴量の分布状態に基づき、前記一の特徴空間において生成された複数の クラスタに対する分割処理を行うクラスタ分割手段と、を具備することを特徴とする。
[0041] 本発明の第 32の画像処理装置は、前記第 5の画像処理装置において、前記病変 検出手段は、前記医療機器に設けられていることを特徴とする。 [0042] 本発明の第 33の画像処理装置は、前記第 6の画像処理装置において、前記病変 検出手段は、前記医療機器に設けられていることを特徴とする。
[0043] 本発明の第 34の画像処理装置は、前記第 7の画像処理装置において、前記変動 検出手段は、前記時系列的に検出された代表値の変動が極大となる画像または時 間のいずれかを検出する処理を行うことを特徴とする。
[0044] 本発明の第 35の画像処理装置は、前記第 27の画像処理装置において、さらに、 前記画像領域分類手段によって分類された領域のうち、特定の領域が前記画像上 において所定の割合以上を占める場合、当該画像を特定の臓器が撮像された画像 であると判定する撮像部位判定手段を有することを特徴とする。
[0045] 本発明の第 36の画像処理装置は、前記第 28の画像処理装置において、さらに、 前記画像領域分類手段によって分類された領域のうち、特定の領域が前記画像上 において所定の割合以上を占める場合、当該画像を特定の臓器が撮像された画像 であると判定する撮像部位判定手段を有することを特徴とする。
[0046] 本発明の第 1の画像処理装置における画像処理方法は、撮像機能を有する医療 機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各 々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割さ れた前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特 徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生 成するとともに、該複数のクラスタを複数のクラスのいずれか〖こ各々分類するクラスタ 分類ステップと、前記複数の画像を用い、前記複数の画像が各々撮像されたタイミン グに基づく複数のサブセットを生成するサブセット生成ステップと、前記サブセット生 成ステップにより生成された一のサブセットに含まれる画像各々の、前記特徴空間に おける前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を各々 分類する際の分類基準を算出する分類基準算出ステップと、を具備することを特徴と する。
[0047] 本発明の第 2の画像処理装置における画像処理方法は、前記第 1の画像処理装 置における画像処理方法において、さらに、前記分類基準算出ステップは、前記複 数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについて は、前記分類基準を算出しないことを特徴とする。
[0048] 本発明の第 3の画像処理装置における画像処理方法は、前記第 1の画像処理装 置における画像処理方法において、前記複数のクラスは、生体粘膜に関するクラスと 、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。
[0049] 本発明の第 4の画像処理装置における画像処理方法は、前記第 2の画像処理装 置における画像処理方法において、前記複数のクラスは、生体粘膜に関するクラスと 、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。
[0050] 本発明の第 5の画像処理装置における画像処理方法は、前記第 3の画像処理装 置における画像処理方法において、さらに、前記分類基準に基づき、前記一のサブ セットに含まれる一の画像における各領域の分類を行う分類ステップと、前記一の画 像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類さ れた領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を 行う病変検出ステップと、を有することを特徴とする。
[0051] 本発明の第 6の画像処理装置における画像処理方法は、前記第 4の画像処理装 置における画像処理方法において、さらに、前記分類基準に基づき、前記一のサブ セットに含まれる一の画像における各領域の分類を行う分類ステップと、前記一の画 像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類さ れた領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を 行う病変検出ステップと、を有することを特徴とする。
[0052] 本発明の第 7の画像処理装置における画像処理方法は、撮像機能を有する医療 機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各 々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割さ れた前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特 徴量に基づき、前記複数の領域各々を複数のクラスの!/、ずれかに各々分類する画 像領域分類ステップと、前記複数の画像各々において、少なくとも一のクラスの特徴 量の代表値を算出する代表値算出ステップと、前記代表値の変動が極大となる画像 または時間のいずれかを検出する変動検出ステップと、を具備することを特徴とする [0053] 本発明の第 8の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、さらに、前記代表値各々に対して時系列方向の 平滑ィ匕を適用する平滑化ステップを有し、前記平滑化ステップにより平滑ィ匕された後 の前記代表値に基づき、前記代表値の変動が極大となる画像または時間の 、ずれ かを検出する処理を前記変動検出ステップにおいて行うことを特徴とする。
[0054] 本発明の第 9の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における観察部 位の変化に基づいて生じるものであることを特徴とする。
[0055] 本発明の第 10の画像処理装置における画像処理方法は、前記第 8の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における観察部 位の変化に基づいて生じるものであることを特徴とする。
[0056] 本発明の第 11の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における便の存 在に基づ 、て生じるものであることを特徴とする。
[0057] 本発明の第 12の画像処理装置における画像処理方法は、前記第 8の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における便の存 在に基づ 、て生じるものであることを特徴とする。
[0058] 本発明の第 13の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における胆汁の 存在に基づ!/、て生じるものであることを特徴とする。
[0059] 本発明の第 14の画像処理装置における画像処理方法は、前記第 8の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における胆汁の 存在に基づ!/、て生じるものであることを特徴とする。
[0060] 本発明の第 15の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における病変部 位の存在に基づいて生じるものであることを特徴とする。
[0061] 本発明の第 16の画像処理装置における画像処理方法は、前記第 8の画像処理装 置における画像処理方法において、前記代表値の変動は、生体内における病変部 位の存在に基づいて生じるものであることを特徴とする。
[0062] 本発明の第 17の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記代表値は、前記複数のクラス各々における 特徴量の平均値であることを特徴とする。
[0063] 本発明の第 18の画像処理装置における画像処理方法は、前記第 8の画像処理装 置における画像処理方法において、前記代表値は、前記複数のクラス各々における 特徴量の平均値であることを特徴とする。
[0064] 本発明の第 19の画像処理装置における画像処理方法は、前記第 9の画像処理装 置における画像処理方法において、前記代表値は、前記複数のクラス各々における 特徴量の平均値であることを特徴とする。
[0065] 本発明の第 20の画像処理装置における画像処理方法は、前記第 10の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0066] 本発明の第 21の画像処理装置における画像処理方法は、前記第 11の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0067] 本発明の第 22の画像処理装置における画像処理方法は、前記第 12の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0068] 本発明の第 23の画像処理装置における画像処理方法は、前記第 13の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0069] 本発明の第 24の画像処理装置における画像処理方法は、前記第 14の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0070] 本発明の第 25の画像処理装置における画像処理方法は、前記第 15の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。 [0071] 本発明の第 26の画像処理装置における画像処理方法は、前記第 16の画像処理 装置における画像処理方法において、前記代表値は、前記複数のクラス各々におけ る特徴量の平均値であることを特徴とする。
[0072] 本発明の第 27の画像処理装置における画像処理方法は、撮像機能を有する医療 機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各 々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割さ れた前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特 徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生 成するとともに、該複数のクラスタを複数のクラスのいずれか〖こ各々分類するクラスタ 分類ステップと、前記クラスタ分類ステップの分類結果に基づき、前記複数の領域を 前記複数のクラスの ヽずれかに各々分類する画像領域分類ステップと、を具備する ことを特徴とする。
[0073] 本発明の第 28の画像処理装置における画像処理方法は、撮像機能を有する医療 機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各 々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割さ れた前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特 徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生 成するとともに、該複数のクラスタを複数のクラスのいずれか〖こ各々分類するクラスタ 分類ステップと、前記特徴空間における前記特徴量の分布状態に関する情報である 、特徴量分布情報を得る特徴量分布情報取得ステップと、前記特徴量分布情報取 得ステップが取得した前記特徴量分布情報に基づき、前記複数の領域を前記複数 のクラスの 、ずれかに各々分類する画像領域分類ステップと、を具備することを特徴 とする。
[0074] 本発明の第 29の画像処理装置における画像処理方法は、前記第 27の画像処理 装置における画像処理方法において、前記画像は、時系列的に連続して撮像され た複数の画像であることを特徴とする。
[0075] 本発明の第 30の画像処理装置における画像処理方法は、前記第 28の画像処理 装置における画像処理方法において、前記画像は、時系列的に連続して撮像され た複数の画像であることを特徴とする。
[0076] 本発明の第 31の画像処理装置における画像処理方法は、撮像機能を有する医療 機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各 々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割さ れた前記複数の領域各々における複数の種類の特徴量を算出する特徴量算出ステ ップと、前記複数の種類の特徴量のうち、一の種類の特徴量及び該一の種類の特徴 量の発生頻度に基づき、一の特徴空間において複数のクラスタを生成するとともに、 該複数のクラスタを複数のクラスのいずれかに各々分類する第 1のクラスタ分類ステツ プと、前記複数の種類の特徴量のうち、他の種類の特徴量及び該他の種類の特徴 量の発生頻度に基づき、他の特徴空間において複数のクラスタを生成するとともに、 該複数のクラスタを複数のクラスの 、ずれかに各々分類する第 2のクラスタ分類ステツ プと、前記一の特徴空間及び前記他の特徴空間における特徴量の分布状態に基づ き、前記一の特徴空間において生成された複数のクラスタに対する分割処理を行うク ラスタ分割ステップと、を具備することを特徴とする。
[0077] 本発明の第 32の画像処理装置における画像処理方法は、前記第 5の画像処理装 置における画像処理方法において、前記病変検出ステップは、前記医療機器内に お!、て行われることを特徴とする
本発明の第 33の画像処理装置における画像処理方法は、前記第 6の画像処理装 置における画像処理方法において、前記病変検出ステップは、前記医療機器内に お!、て行われることを特徴とする。
[0078] 本発明の第 34の画像処理装置における画像処理方法は、前記第 7の画像処理装 置における画像処理方法において、前記変動検出ステップは、前記時系列的に検 出された代表値の変動が極大となる画像または時間のいずれかを検出する処理を 行うことを特徴とする。
[0079] 本発明の第 35の画像処理装置における画像処理方法は、前記第 27の画像処理 装置における画像処理方法において、さらに、前記画像領域分類ステップによって 分類された領域のうち、特定の領域が前記画像上において所定の割合以上を占め る場合、当該画像を特定の臓器が撮像された画像であると判定する撮像部位判定ス テツプを有することを特徴とする。
[0080] 本発明の第 36の画像処理装置における画像処理方法は、前記第 28の画像処理 装置における画像処理方法において、さらに、前記画像領域分類ステップによって 分類された領域のうち、特定の領域が前記画像上において所定の割合以上を占め る場合、当該画像を特定の臓器が撮像された画像であると判定する撮像部位判定ス テツプを有することを特徴とする。
図面の簡単な説明
[0081] [図 1]本発明の第 1の実施形態である画像処理動作が行われる画像処理装置および 周辺機器の外観を示した外観正面図。
[図 2]第 1の実施形態の画像処理装置において処理する所定の画像情報を生成する カプセル型内視鏡の一部を切り取って示した要部拡大断面図。
[図 3]第 1の実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視 鏡装置の概略内部構成を示すブロック図。
[図 4]第 1の実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視 鏡装置の一使用例を示した図。
[図 5]図 2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチヤ ート。
[図 6]図 2に示すカプセル型内視鏡の位置検出を説明する説明図。
[図 7]図 3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示 した要部拡大断面図。
[図 8]図 3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを 説明する説明図。
[図 9]図 3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明 する説明図。
[図 10]図 2に示すカプセル型内視鏡の電気的な構成を示すブロック図。
[図 11]第 1の実施形態に係る画像処理動作を示すフローチャート。
[図 12]制御部が行う処理により作成される、特徴空間におけるヒストグラムの一例を示 す図。 [図 13]制御部が行う処理により作成される、特徴空間におけるクラスタの一例を示す 図。
[図 14]図 13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値 未満であるクラスタが削除される様子を示す図。
[図 15]制御部が行う処理である、境界が接している 2つ以上のクラスタの統合または 分離判定の処理の一例を示すフローチャート。
圆 16]胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量; z gpの、サブ セット毎の時間方向における変化を示すグラフ。
[図 17]図 16のグラフに示される特徴量/ z gpにおいて、時間方向への平滑化処理を 行った場合のグラフ。
[図 18]制御部が行う処理である、病変検出処理の一例を示すフローチャート。
圆 19]第 2の実施形態に係る画像処理動作を示すフローチャート。
圆 20]第 2の実施形態において制御部が行う処理により作成される、特徴空間にお けるヒストグラムの一例を示す図。
圆 21]第 2の実施形態において制御部が行う処理により作成される、特徴空間にお けるクラスタの一例を示す図。
[図 22]図 21に示すクラスタのうち、特徴空間における面積または体積が所定の閾値 未満であるクラスタが削除される様子を示す図。
[図 23]制御部が行う処理である、境界が接している 2つ以上のクラスタの統合または 分離判定の処理の一例を示すフローチャート。
[図 24]図 19に示す画像処理動作の変形例を示すフローチャート。
圆 25]第 3の実施形態に係る画像処理動作を示すフローチャート。
[図 26]図 25に示す処理に弓 Iき続 ヽて行われる画像処理動作を示すフローチャート。 圆 27]第 3の実施形態において制御部が行う処理により作成される、特徴空間にお けるヒストグラムの一例を示す図。
[図 28]第 3の実施形態において制御部が行う第 2の教師なしクラスタリング処理により 作成される、特徴空間におけるクラスタの一例を示す図。
[図 29]第 3の実施形態において制御部が行う第 1の教師なしクラスタリング処理により 作成される、特徴空間におけるクラスタの一例を示す図。
[図 30]第 3の実施形態において制御部が行うクラスタの分割処理により、図 29に示す クラスタ Cがクラスタ C1及びクラスタ C2に分割された状態を示す図。
発明を実施するための最良の形態
[0082] 以下、図面を参照して本発明の実施の形態を説明する。
[0083] (第 1の実施形態)
図 1から図 18は、本発明の第 1の実施形態に係るものである。
[0084] 図 1は、本発明の第 1の実施形態である画像処理動作が行われる画像処理装置お よび周辺機器の外観を示した外観正面図である。図 2は、第 1の実施形態の画像処 理装置において処理する所定の画像情報を生成するカプセル型内視鏡の一部を切 り取って示した要部拡大断面図である。図 3は、第 1の実施形態の画像処理装置に 所定の画像情報を供給するカプセル型内視鏡装置の概略内部構成を示すブロック 図である。図 4は、第 1の実施形態の画像処理装置に所定の画像情報を供給する力 プセル型内視鏡装置の一使用例を示した図である。図 5は、図 2に示すカプセル型 内視鏡から出力される信号の一例を示したタイミングチャートである。図 6は、図 2に 示すカプセル型内視鏡の位置検出を説明する説明図である。図 7は、図 3に示す力 プセル型内視鏡装置を使用した際におけるアンテナユニットを示した要部拡大断面 図である。図 8は、図 3に示すカプセル型内視鏡装置を使用した際におけるシールド ジャケットを説明する説明図である。図 9は、図 3に示すカプセル型内視鏡装置の外 部装置の被検体への装着状態を説明する説明図である。図 10は、図 2に示すカブ セル型内視鏡の電気的な構成を示すブロック図である。図 11は、第 1の実施形態に 係る画像処理動作を示すフローチャートである。図 12は、制御部が行う処理により作 成される、特徴空間におけるヒストグラムの一例を示す図である。図 13は、制御部が 行う処理により作成される、特徴空間におけるクラスタの一例を示す図である。図 14 は、図 13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未 満であるクラスタが削除される様子を示す図である。図 15は、制御部が行う処理であ る、境界が接している 2つ以上のクラスタの統合または分離判定の処理の一例を示す フローチャートである。図 16は、胃粘膜クラス及び絨毛クラスに分類された領域が有 する特徴量 gpの、サブセット毎の時間方向における変化を示すグラフである。図 1 7は、図 16のグラフに示される特徴量/ z gpにおいて、時間方向への平滑化処理を行 つた場合のグラフである。図 18は、制御部が行う処理である、病変検出処理の一例 を示すフローチャートである。
[0085] 本発明の第 1の実施形態である画像処理装置に所定の画像情報を供給するカブ セル型内視鏡装置 1は、図 3に示すように、カプセル型内視鏡 3、アンテナユニット 4 及び外部装置 5とを有して要部が構成されて 、る。
[0086] 医療機器としてのカプセル型内視鏡 3は、詳細は後述するが、被検体である患者 2 のロカ 体腔内に飲み込まれることにより体腔内に配置された後、蠕動運動により消 化管内を進行する形状に形成され、かつ、内部に体腔内を撮像し、その撮像画像情 報を生成する撮像機能と、その撮像画像情報を体外に送信する送信機能とを有して いる。アンテナユニット 4は、詳細は後述するが、患者 2の身体表面上に設置され、前 記カプセル型内視鏡 3から送信される撮像画像情報を受信する複数の受信アンテナ 11を有している。外部装置 5は、外形が箱形形状に形成されており、詳細は後述す るが、前記アンテナユニット 4が受信した撮像画像情報の各種処理、撮像画像情報 の記録、及び撮像画像情報による撮像画像表示等の機能を有している。この外部装 置 5の外装の表面に前記撮像画像を表示させる液晶モニタ 12と、各種機能の操作 指示を行う操作部 13とが設けられている。
[0087] また、この外部装置 5は、駆動電源用の電池の残量に関する警告表示用の LEDと 、電源スィッチ等のスィッチ力もなる操作部 13とが外装の表面に設けられている。又 、カプセル型内視鏡 3の内部には、 CPU及びメモリを用いた演算実行部が設けられ ており、例えば、該演算実行部において、受信及び記録した撮像画像情報に対して 後述する画像処理が実行されるような構成であっても良い。
[0088] この外部装置 5は、患者 2の身体に着脱自在に装着されると共に、図 1に示すように 、クレードル 6に装着されることにより、本発明の第 1の実施形態である画像処理装置 (以下、端末装置と記す) 7に着脱自在に接続されるようになっている。この端末装置 7は、たとえば、パーソナルコンピュータが用いられ、各種データの処理機能や記憶 機能を有する端末本体 9と、各種操作処理入力用のキーボード 8a及びマウス 8bと、 及び各種処理結果を表示するディスプレイ 8cとを有している。この端末装置 7は、基 本的機能として、例えば、前記外部装置 5に記録されている撮像画像情報をクレード ル 6を介して取り込み、端末本体 9に内蔵されている書換可能なメモリ、或いは端末 本体 9に着脱自在な書換可能な半導体メモリ等の可搬型メモリに書込記録させ、 つ、その記録した撮像画像情報をディスプレイ 8cに表示する画像処理を行うような機 能を有している。なお、前記外部装置 5に記憶されている撮像画像情報は、前記タレ 一ドル 6に代えて、 USBケーブル等によって端末装置 7に取り込まれるようにしても良 い。
[0089] なお、端末装置 7が行う画像処理は、例えば、前記外部装置 5から取り込み記録し た撮像画像情報から経過時間に応じて表示させる画像を選択する処理、及び後述 する画像処理として、端末本体 9が有する制御部 9aにおいて行われる。制御部 9aは 、 CPU (中央処理装置)等を有し、例えば、前述したような処理を行う場合に、処理結 果を一時的に図示しないレジスタ等に保持することができる。
[0090] 次に、前記カプセル型内視鏡 3の外形と内部構造について、図 2を用いて説明する 。カプセル型内視鏡 3は、断面が U字状の外装部材 14と、この外装部材 14の先端側 の開放端に接着剤により水密装着された透明部材により形成された略半球形状の力 バー部材 14aと有する。そのため、カプセル型内視鏡 3の外装は、外装部材 14と、力 バー部材 14aとが接続された状態においては、水密構造かつカプセル形状を有する ように形成されている。
[0091] この外装部材 14とカバー部材 14aを有するカプセル形状の内部中空部であって、 前記カバー部材 14aの半球の円弧の略中央にあたる部分には、カバー部材 14aを 介して入射された観察部位像を取り込む対物レンズ 15がレンズ枠 16に収納されて 配置されている。この対物レンズ 15の結像位置には、撮像素子である電荷結合素子 (以降、 CCDと記す) 17が配置されている。また、前記対物レンズ 15を収納するレン ズ枠 16の周囲には、照明光を発光放射させる 4つの白色系の LED18が同一平面 上に配置されて 、る(図中には 2つの LEDのみを表記して!/、る)。前記 CCD17の後 端側の前記外装部材 14の内部中空部には、前記 CCD17を駆動制御して光電変換 された撮像信号の生成、その撮像信号に所定の信号処理を施して撮像画像信号を 生成する撮像処理、及び前記 LED 18の点灯 Z非点灯の動作を制御する LED駆動 の処理を行う処理回路 19と、この処理回路 19の撮像処理により生成された撮像画像 信号を無線信号に変換して送信する通信処理回路 20と、この通信処理回路 20から の無線信号を外部に送信する送信アンテナ 23と、前記処理回路 19と通信処理回路 20の駆動用電源を供給する複数のボタン型の電池 21とが配置されている。
[0092] なお、 CCD17、 LED18、処理回路 19、通信処理回路 20及び送信アンテナ 23は 、図示しない基板上に配置され、それらの基板の間は、図示しないフレキシブル基板 にて接続されている。また、前記処理回路 19には、後述する画像処理を行うための 図示しない演算回路を備えている。つまり、前記カプセル型内視鏡 3は、図 3に示す ように、前記 CCD17、 LED18及び処理回路 19とを有する撮像装置 43と、前記通信 処理回路 20を有する送信器 37と、送信アンテナ 23とを有する。
[0093] 次に、前記カプセル型内視鏡 3の撮像装置 43の詳細構成について、図 10を用い て説明する。撮像装置 43は、 LED18の点灯 Z非点灯の動作を制御する LEDドライ バ 18Aと、 CCD 17の駆動を制御して光電変換された電荷の転送を行う為の CCDド ライバ 17Aと、前記 CCD 17から転送された電荷を用いて撮像信号を生成し、かつ、 その撮像信号に所定の信号処理を施して撮像画像信号を生成する処理回路 19Aと 、前記 LEDドライバ 18A、 CCDドライバ 17A、処理回路 19A、及び送信器 37に電 池 21からの駆動電源を供給するスィッチ部と、前記スィッチ部及び CCDドライバ 17 Aにタイミング信号を供給するタイミングジェネレータ 19Bとからなっている。なお、前 記スィッチ部は、電池 21から前記 LEDドライバ 18Aへの電源供給をオン Zオフをす るスィッチ 19Cと、前記 CCD17、 CCDドライバ 17A及び処理回路 19Aへの電源供 給をオン ·オフするスィッチ 19Dと、前記送信器 37への電源供給をオン Zオフするス イッチ 19Eとからなっている。また、前記タイミングジェネレータ 19Bには、電池 21から 常時駆動電源が供給されるようになって!/ヽる。
[0094] このような構成を有するカプセル型内視鏡 3の撮像装置 43においては、スィッチ 19 Cと、スィッチ 19Dと、スィッチ 19Eとがオフ状態である場合、タイミングジェネレータ 1 9B以外の各部は非動作状態である。そして、タイミングジェネレータ 19B力もタイミン グ信号が出力されると、前記スィッチ 19Dがオンされ、これにより、電池 21から電源が 供給された CCD17、 CCDドライバ 17A及び処理回路 19Aは動作状態となる。
[0095] 前記 CCD17の駆動初期時に、 CCD17の電子シャッターを動作させて、不要な暗 電流を除去した後、タイミングジェネレータ 19Bは、スィッチ 19Cをオンさせて LEDド ライバ 18 Aを駆動させて LED 18を点灯させ CCD 17を露光する。 LED18は、 CCD 17の露光に必要な所定の時間だけ点灯された後、消費電力低減の為に、スィッチ 1 9Cがオフしたタイミングにお!/、て消灯される。
[0096] 前記 CCD17の露光が行われた前記所定の時間内に蓄えられた電荷は、 CCDドラ ィバ 17Aの制御により処理回路 19Aへ転送される。処理回路 19Aは、 CCD17から 転送された電荷を基に撮像信号を生成し、その撮像信号に所定の信号処理を施し て内視鏡画像信号を生成する。処理回路 19Aは、例えば、送信器 37から送信される 信号がアナログ無線方式である場合、 CDS出力信号に対して複合同期信号を重畳 させたアナログ撮像信号を生成した後、該アナログ撮像信号を内視鏡画像信号とし て送信器 37へ出力する。また、処理回路 19Aは、例えば、送信器 37から送信される 信号がデジタル無線方式である場合、アナログ Zデジタルコンバータにより生成した シリアルなデジタル信号に対し、さらにスクランブル等の符号ィ匕処理を施したデジタ ル撮像画像信号を生成し、該デジタル撮像信号を内視鏡画像信号として送信器 37 へ出力する。
[0097] この送信器 37は、前記処理回路 19Aから供給された内視鏡画像信号である、アナ ログ撮像画像信号またはデジタル撮像画像信号に対して変調処理を施して送信アン テナ 23から外部へ無線送信する。この時、スィッチ 19Eは、前記処理回路 19Aから 撮像画像信号が出力されたタイミングにおいてのみ送信器 37に駆動電力が供給さ れるように、タイミングジェネレータ 19Bによりオン/オフされる。
[0098] なお、スィッチ 19Eは、処理回路 19Aから撮像画像信号が出力されて力も所定の 時間が経過した後に、送信器 37に駆動電力が供給されるように制御されても良い。 また、スィッチ 19Eは、カプセル型内視鏡 3に設けられた、図示しない pHセンサーに よる所定値の pH値の検出、図示しない湿度センサーによる所定値以上の湿度の検 出、図示しない圧力センサーまたは図示しない加速度センサーによる所定値以上の 圧力または加速度の検出等の検出結果に基づいてタイミングジェネレータ 19Bから 出力される信号により、被検体である患者 2の体腔内に挿入された際に、送信器 37 に電源を供給するように制御されるような構成を有して 、ても良 、。
[0099] なお、前記カプセル型内視鏡 3の撮像装置 43は、通常毎秒 2枚の画像 (毎秒 2フレ ーム = 2fps)を撮像するものである力 例えば、食道の検査の場合は、毎秒 15〜30 枚の画像(15fps〜30fps)を撮像できるようにする。具体的には、カプセル型内視鏡 3に、図示しないタイマー回路を設け、このタイマー回路により、例えば、タイマーカウ ントが所定時間以内においては毎秒当たりの撮像枚数の多い高速撮像とし、所定時 間が経過した後は、毎秒当たりの撮像枚数の少な ヽ低速撮像となるように撮像装置 4 3の駆動を制御させる。或いは、カプセル型内視鏡 3の電源の投入と共にタイマー回 路を作動させて、このタイマー回路により、例えば、患者 2が飲み込んだ直後の食道 を通過するまでの時間は高速撮像となるように、撮像装置 43の駆動を制御させること も可能である。さらに、低速撮像用カプセル型内視鏡と高速撮像用カプセル型内視 鏡とを個別に設けて、観察対象部位に応じて使 、分けるようにしても良 、。
[0100] 次に、前記患者 2の身体表面上に設置されるアンテナユニット 4について説明する 。図 4に示すように、カプセル型内視鏡 3を飲み込んで内視鏡検査を行う場合、患者 2は、複数の受信アンテナ 11からなるアンテナユニット 4が設置されたジャケット 10を 装着する。このアンテナユニット 4は、図 7に示すように、たとえば、 GPSに使用されて V、るパッチアンテナのような単方向の指向性を有する複数の受信アンテナ 11を患者 2の身体内方向にその指向性を向けて配置する。つまり、カプセル型内視鏡 3のカプ セル本体 3Dは、身体内に留置されるため、その身体内のカプセル本体 3Dを取り囲 むように前記複数のアンテナ 11が配置される。この指向性の高 、アンテナ 11を使用 することにより、身体内のカプセル本体 3D以外力 の電波による干渉妨害の影響を 受けにくくしている。
[0101] 前記ジャケット 10は、図 8に示すように、患者 2の身体表面に設置する前記アンテナ ユニット 4と、ベルトにより患者 2の腰に設置された外部装置 5の本体部 5Dを覆うよう に電磁シールド繊維で形成されたシールドジャケット 72とからなる。このシールドジャ ケット 72を形成する電磁シールド繊維は、金属繊維、金属化学繊維、硫化銅含有繊 維等が用いられている。なお、このシールドジャケット 72は、ジャケット形状に限るもの ではなぐ例えば、ベスト、ワンピース形状等であっても良い。
[0102] 又、前記シールドジャケット 72に前記外部装置 5を装着する例として、図 9に示すよ うに、前記外部装置 5の外部本体 5Dに鍵穴 74を設け、前記シールドジャケット 72に 設けた鍵 75を前記鍵穴 74に差し込むことにより、ベルト 73に着脱自在に装着できる ようにする。或いは、単にシールドジャケット 72に図示しないポケットを設け、そのポケ ットに外部本体 5Dを収納したり、又は、外部装置 5の外部本体 5Dとシールドジャケッ ト 72にマジックテープ (登録商標)を設置し、そのマジックテープ (登録商標)により取 付固定しても良い。
[0103] つまり、アンテナユニット 4が配置された身体にシールドジャケット 72を装着すること により、アンテナユニット 4に対する外部力もの電波がシールド遮蔽されて、外部電波 による干渉妨害の影響を一層受けに《している。
[0104] 次に、前記アンテナユニット 4と外部装置 5の構成について、図 3を用いて説明する 。前記アンテナユニット 4は、前記カプセル型内視鏡 3の送信アンテナ 23から送信さ れた無線信号を受信する複数の受信アンテナ 1 la〜 1 Idと、このアンテナ 1 la〜 11 dを切り替えるアンテナ切換スィッチ 45とからなる。前記外部装置 5は、アンテナ切換 スィッチ 45からの無線信号を撮像画像信号に変換及び増幅等の受信処理を行う受 信回路 33と、この受信回路 33から供給された撮像画像信号に所定の信号処理を施 して、撮像画像の表示用信号及び撮像画像データを生成する信号処理回路 35と、 この信号処理回路 35により生成された撮像画像表示用信号に基づいて撮像画像を 表示する液晶モニタ 12と、前記信号処理回路 35により生成された撮像画像データを 記憶するメモリ 47と、前記受信回路 33により受信処理された無線信号の大きさにより 前記アンテナ切換スィッチ 45を制御するアンテナ選択回路 46とからなる。
[0105] 前記アンテナユニット 4の図中受信アンテナ 1 la〜l Idとして示した複数の受信ァ ンテナ 11は、前記カプセル型内視鏡 3の送信アンテナ 23から一定の電波強度により 送信された無線信号を受信する。この複数の受信アンテナ 11a〜: L idは、前記外部 装置 5のアンテナ選択回路 46からのアンテナ選択信号によりアンテナ切替スィッチ 4 5が制御されて、前記無線信号を受信する受信アンテナを順次切り替える。つまり、 前記アンテナ切替スィッチ 45により順次切り替えられた各受信アンテナ l la〜d毎に 受信した無線信号が前記受信器 33に出力される。この受信器 33において、各受信 アンテナ 11a〜: L id毎の無線信号の受信強度を検出して、各受信アンテナ l la〜l l dとカプセル型内視鏡 3の位置関係を算出すると共に、その無線信号を復調処理して 撮像画像信号を信号処理回路 35へと出力する。前記アンテナ選択回路 46は、前記 受信器 33からの出力によって制御される。
[0106] 前記アンテナ選択回路 46によるアンテナ切替スィッチ 45の動作について説明する 。前記カプセル型内視鏡 3から送信される無線信号は、図 5に示すように、撮像画像 信号の 1フレームの送信期間に、無線信号の受信強度を示す受信強度信号の送信 期間である強度受信期間と、撮像画像信号の送信期間である映像信号期間とが順 次繰り返されて送信されるとする。
[0107] 前記アンテナ選択回路 46は、前記受信回路 33を介して、各受信アンテナ l la〜l Idが受信した受信強度信号の受信強度が供給される。前記アンテナ選択回路 46は 、前記受信器 33からの供給された各アンテナ 1 la〜l Idの受信強度信号の強度を 比較して、映像信号期間の撮像画像信号を受信する最適な受信アンテナ、つまり、 受信強度信号の強度が最も高 、アンテナ 1 li (i=a〜d)を決定して、アンテナ切替 回路 45をそのアンテナ l liに切り替えるための制御信号を生成出力する。これにより 、現在画像信号を受信しているアンテナよりも、他のアンテナの受信強度信号の受信 強度が高い場合には、映像信号期間の受信アンテナを次フレーム分力ゝら切り替える ようにする。
[0108] このように、カプセル型内視鏡 3からの無線信号を受信するたびに、撮像画像信号 、又は受信強度信号の受信強度を比較し、この比較結果を受けたアンテナ選択回路 46によって受信強度が最大となるアンテナ 1 liを画像信号受信用のアンテナとを指 定するようにしている。これにより、カプセル型内視鏡 3が患者 2の体内で移動しても、 その移動位置において最も受信強度の高い信号を検出できるアンテナ 11により取得 した画像信号を受信することができる。また、体内でのカプセル型内視鏡 3の移動速 度は非常に遅い部分と早い部分に分かれるので、撮像動作 1回につき常にアンテナ 切替動作を 1回行うとは限らず、高速撮像モードなどでは複数回の撮像動作に対し てアンテナ切替動作を 1回行うようにしてもよ!、。 [0109] なお、カプセル型内視鏡 3は、患者 2の体内を移動して!/、るので、適宜の時間間隔 で外部装置 5から電波強度を検出した結果である検出結果信号を送り、その信号に 基づいてカプセル型内視鏡 3が送信する際のその出力を更新するようにしてもよい。 このようにすれば、カプセル型内視鏡 3が患者 2の体内を移動した場合にも、適切な 送信出力に設定でき、電池 21のエネルギを無駄に消費すること等を防止でき、信号 の送受信状態を適切な状態に維持できるようになる。
[0110] 次に、前記複数の受信アンテナ 11とカプセル型内視鏡 3の位置関係を示す情報の 取得方法について、図 6を用いて説明する。なお、図 6において、カプセル型内視鏡 3を 3次元座標 X、 Y、 Ζの原点に設定した場合を例に説明する。又、前記複数の受 信アンテナ l la〜l ldのうち、説明を簡単ィ匕するために、 3つの受信アンテナ l la、 1 lb、 11cを用い、受信アンテナ 11aと受信アンテナ l ibとの間の距離を Dab、受信ァ ンテナ 1 lbと受信アンテナ 1 lcとの間の距離を Dbc、受信アンテナ 1 laと受信アンテ ナ 11cとの間の距離 Dacとしている。さらに、この受信アンテナ l la〜l lcとカプセル 型内視鏡 3の間は、所定の距離関係としている。
[0111] カプセル型内視鏡 3の送信された一定の送信強度の無線信号は、各受信アンテナ l lj (j = a、 b、 c)で受信した場合の受信強度は、カプセル型内視鏡 3 (カプセル型内 視鏡 3の送信アンテナ 23)からの距離 Li (i = a, b, c)の関数となる。具体的には電波 減衰量が伴う距離 Liに依存する。従って、カプセル型内視鏡 3から送信された無線 信号の受信アンテナ l ljにより受信した受信強度力 カプセル型内視鏡 3と各受信ァ ンテナ l ljとの間の距離 Liを算出する。この距離 Liの算出には、前記カプセル型内 視鏡 3と受信アンテナ l ljの間の距離による電波の減衰量などの関係データを事前 に前記アンテナ選択回路 46に設定する。又、その算出されたカプセル型内視鏡 3と 各受信アンテナ l ljの位置関係を示す距離データは、前記メモリ 47にカプセル型内 視鏡 3の位置情報として記憶させる。このメモリ 47に記憶された撮像画像情報及び力 プセル型内視鏡 3の位置情報を基に、前記端末装置 7による後述する画像情報処理 方法において、内視鏡観察所見の位置設定に有用となる。
[0112] 次に、第 1の実施形態の画像処理装置における画像処理動作について説明を行う [0113] なお、第 1の実施形態においては、カプセル型内視鏡 3により撮像された体腔内の 像の画像は、 X軸方向のドット数 ISXXy軸方向のドット数 ISY(1≤ISX、 1≤ISYを 満たす値であり、例えば、 ISX= 300、 ISY= 300)、 R (赤) G (緑) B (青)の 3プレー ンからなり、各プレーンにおける各画素は、濃度値である RGB値として各々 8bit、す なわち、 0から 255の値をとるものとする。また、本発明の第 1の実施形態においては 、時系列的に連続して撮像された N枚の画像( 1≤ N)における i番目の画像を Ii ( 1≤ i≤N)と示すものとする。さらに、第 1の実施形態においては、画像 Iiの各プレーンに おける V番目の画素(1≤v≤ISXX ISY)をそれぞれ riv、 giv及び bivと示すものとす る。
[0114] また、第 1の実施形態の画像処理装置における画像処理動作は、前述した端末装 置 7の端末本体 9が有する制御部 9aにおける処理として行われるようになつている。
[0115] まず、制御部 9aは、端末装置 7において予め設定されたサンプリング値 k (k= l, 2 , · ··)に基づき、カプセル型内視鏡 3により時系列的に連続して撮像された N枚の画 像において、 k番目毎の画像 Ik、 I2k、 · ··、 Ink (nkは l≤nk≤Nを満たす整数である とする)のサンプリングを行う(図 11のステップ Sl)。例えば、カプセル型内視鏡 3が毎 秒 2枚の画像を撮像し、かつ、サンプリング値 kが 20として設定されている場合、制御 部 9aは、カプセル型内視鏡 3により撮像された N枚の画像において、撮像開始時間 力も 10秒経過毎の画像を 1枚ずつサンプリングする。
[0116] そして、制御部 9aは、サンプリングした (NZk)枚 (NZkは、端数を切り捨てた整数 であるとする)の画像 Inkをサンプル画像群とした後、該サンプル画像群の画像 Ink 各々に対し、以下に記す処理を行う。なお、前記サンプル画像群は、(NZk)枚の画 像 Inkにカロえ、 1番目の画像 IIを含む(n+ 1)枚の画像力もなるものであっても良い。
[0117] 制御部 9aは、入力された画像 Inkを構成する Rnk、 Gnk及び Bnkの各プレーンに 対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆 γ補正 を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外するため、 閾値に基づく処理により検出しておく(図 11のステップ S2)。そして、前記閾値に基 づく処理は、例えば、 rnkv、 gnkv及び bnkvの濃度値の全てが 10以下の値であれ ば暗部画素、また、 rnkv、 gnkv及び bnkvの濃度値の全てが 230以上の値であれば ハレーション画素とするような処理として行われる。
[0118] 制御部 9aは、入力された画像 Inkを、例えば、 8 X 8からなる複数の矩形領域に分 割する(図 11のステップ S3)。なお、以降の説明においては、制御部 9aにおいて分 割された矩形領域のうち、一の領域を Hp (pは 1以上の整数)と示すものとする。
[0119] その後、制御部 9aは、画像 Inkの一の領域 Hp各々における各画素の RGB値の比 に基づく値である、 gnkvZrnkvの平均値(以降、 gpと示す)及び bnkvZgnkvの 平均値 (以降、 /z bpと示す)からなる、画像の色度を示す 2つの特徴量を算出する( 図 11のステップ S4)。
[0120] さらに、制御部 9aは、領域 Hp各々において得られた特徴量/ z gp及び/ z bpを各々 離散化するとともに、離散化した特徴量 gp及び bpの発生頻度に基づぐ特徴空 間におけるヒストグラムを作成する(図 11のステップ S5)。具体的には、制御部 9aは、 特徴量 gp及び bpの値を、例えば、 1以上の値を全て 1としつつ、各々 0から 1ま での値をとるものとして扱うとともに、さらに、 0から 1までの値としての特徴量/ z gp及 び bpを 80倍した値を整数値に丸めることにより、離散化及びヒストグラムの作成を 行う。
[0121] 制御部 9aは、離散化した特徴量/ z gp及び/ z bp各々に対し、例えば、所定のサイズ の平均値フィルタを適用することにより、ヒストグラムを平滑ィ匕する(図 11のステップ S 6)。なお、制御部 9aが以上までの処理を行うことにより作成されるヒストグラムは、例 えば、図 12に示されるようなものとなる。
[0122] 次に、制御部 9aは、サンプル画像群としての(NZk)枚の画像全てに対して前述し た処理を行うことにより作成したヒストグラムにおいて、発生頻度が極大となる( μ gp, bp)の要素、すなわち、ピーク点を検出する(図 11のステップ S7)。具体的には、 制御部 9aは、作成したヒストグラムにおいて、一の要素及び該一の要素の 8近傍の要 素からなる 9個の要素を抽出した後、抽出した該 9個の要素のうち、発生頻度が最大 となる要素をピーク点として検出する。
[0123] 制御部 9aは、作成したヒストグラムにおいて、( gp, μ bp) = (0, 0)以外の各要 素力 検出した各ピーク点のうち、いずれのピーク点に向力うものであるかを、 gradie ntベクトルに基づく解析手法としての、例えば、 Valley— Seeking法を用いることに より特定する(図 11のステップ S8)。そして、制御部 9aは、同一のピーク点に向かう gr adientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒストグ ラム内の各要素に対する教師なしクラスタリング処理を行う(図 11のステップ S9)。な お、制御部 9aが教師なしクラスタリング処理を行うことにより作成される各クラスタは、 例えば、図 13に示されるようなものとなる。
[0124] なお、制御部 9aは、前述した教師なしクラスタリング処理において、 2つ以上のクラ スタの境界が接していることを検出した場合、以降に記すような、該 2つ以上のクラス タの統合または分離判定の処理をさらに行うものであってもよい。
[0125] その場合、制御部 9aは、作成した各クラスタのうち、 8近傍の要素を含む 9個の要素 において、 2以上のクラスタを含む要素を抽出することにより、すなわち、 2以上のクラ スタの境界に属している要素を抽出することにより、該 2以上のクラスタが接していると 判定する(図 15のステップ S21)。さらに、制御部 9aは、処理対象となる前記 2以上の クラスタの境界に属して 、る前記各要素のうち、発生頻度が最小となる一の要素を抽 出し、該一の要素における発生頻度を/ z miniとする(図 15のステップ S22)。また、 制御部 9aは、処理対象となる前記 2以上のクラスタにおける各ピーク点のうち、発生 頻度が最大となる一のピーク点を抽出し、該一のピーク点における発生頻度を ma xlとする(図 15のステップ S23)。
[0126] 制御部 9aは、 μ mini及び/ z maxlを抽出した後、 μ mini/ μ maxlの値と、閾 値 μ thrとの比較を行う。そして、制御部 9aは、 μ mini/ μ maxlの値が閾値 μ thr よりも大きいことを検出した場合(図 15のステップ S24)、処理対象となる前記 2以上 のクラスタを各々別クラスタと判定し、該 2以上のクラスタを分離したままとする(図 15 のステップ S25)。また、制御部 9aは、 μ mini/ μ maxlの値が閾値/ z thr以下であ ることを検出した場合(図 15のステップ S24)、処理対象となる前記 2以上のクラスタ が同一クラスタに属すると判定するとともに、該 2以上のクラスタを統合し、発生頻度 μ maxlのピーク点を新たなピーク点とする、統合後のクラスタを作成する(図 15のス テツプ S26)。なお、前述した閾値/ z thrは、第 1の実施形態においては、例えば、 0. 1であるとする。
[0127] 制御部 9aは、前述した教師なしクラスタリングの処理(図 11のステップ S9に示す処 理)を行った後、生成した各クラスタについて、該各クラスタのクラスタ情報を取得する
(図 11のステップ S 10)。なお、制御部 9aが取得するクラスタ情報は、例えば、クラス タ番号、該各クラスタのピーク点となる要素、該各クラスタ各々の特徴空間における面 積及び体積、及び該各クラスタにおける特徴量 gp及び bpの平均値ベクトルとい つた情報である。
[0128] その後、制御部 9aは、取得したクラスタ情報に基づき、例えば、図 14に示すように、 特徴空間における面積または体積が所定の閾値未満であるクラスタを削除する(図 1 1のステップ S 1 1)。
[0129] さらに、制御部 9aは、特徴空間に残った各クラスタにおける特徴量/ z gp及び/ z bp の平均値ベクトル及び教師データセットから作成された、例えば、線形判別関数また はベイズの定理に基づく関数等の識別器を用いることにより、特徴空間に残った各ク ラスタがいずれのクラスに属するかを判定する(図 11のステップ S 12)。なお、第 1の 実施形態においては、前記クラスは、胃粘膜、絨毛、便及び泡力もなる 4つのクラス であるとする。また、第 1の実施形態においては、前記教師データセットは、前記 4つ のクラスの教師データを構成する複数の画像であるとする。
[0130] そして、制御部 9aは、特徴空間に残った各クラスタを胃粘膜、絨毛、便及び泡の 4 つのクラスに分類するとともに、該 4つのクラスに分類不可能なクラスタを不明クラスと して分類する(図 11のステップ S 13)。
[0131] ここで、図 11のステップ S 12及びステップ S 13に示す処理の具体例を以下に詳述 する。なお、制御部 9aは、特徴空間に残ったクラスタ全てに対し、以下に述べる処理 を各々行うものであるとする。
[0132] 前述した 4つのクラスの識別及び分類において、一のクラス co a (a = l、 2、 · · ·、 C、 C はクラス数を示す)が発生する事前確率を P ( ω a)とし、特徴空間に残った各クラスタ における特徴量 gp及び bpから決定された特徴ベクトルを Xとし、全クラスからの 特徴ベクトル の発生確率に基づく確率密度関数を p (x)とし、一のクラス ω aからの 特徴ベクトル の発生確率に基づく状態依存確率密度 (多変量正規確率密度)関数 を p ( I ω a)とすると、発生した特徴ベクトル が一のクラス ω aに属する事後確率 P ( ω α I )を算出するための計算式は、下記数式(1)として示される。 Ρ{ωα I x) = p(x \ ωα)Ρ{ωα)Ι p(x) · · · ( 1 ) なお、状態依存確率密度関数 p I ω a)及び確率密度関数 ρ(2 )は、下記数式 (2
)及び数式(3)として示される。
[0134]
p(x I ωα) =
Figure imgf000031_0001
\ Σα \ι 12 )) exp[(-l / 2)(χ μα)] · · · (2)
C
Ρ{^) =∑ ^(^ I ωα)Ρ(ωα) · · · ( 3) なお、上記数式(2)及び数式(3)において、 dは の特徴量の個数と同数である次 元数を示し、 u a及び∑ aはクラス ω aにおける特徴ベクトル の平均ベクトル及び一の クラス ω aにおける分散共分散行列を示すものとする。また、 (X— a)tは (X— μ&) の転置行列を示し、 I ∑a Iは∑ aの行列式を示し、∑a_1は∑aの逆行列を示すも のとする。さらに、説明の簡単のため、事前確率 P(coa)は、全クラスにおいて等しい 値をとると仮定し、また、確率密度関数 p ( )は、上記数式(3)により全クラス共通の関 数として表されるものとする。
[0135] 前述したようなベイズの定理に基づく統計的識別器と共に、分類基準として用いら れる平均ベクトル 及び分散共分散行列∑ aは、一のクラス ω aにおける母数を構 成する要素であり、 1番目の画像 IIが端末装置 7に入力される以前の段階において、 胃粘膜、絨毛、便及び泡力 なる 4つのクラスの教師データを構成する複数の画像に 基づき、該画像の一の領域各々において都度決定される特徴ベクトル 2から、クラス 毎に予め算出された後、初期値として端末装置 7に各々記録される。なお、このとき、 制御部 9aは、各クラスの教師データにおける特徴ベクトルに、画像 Iiにおける各クラ スの特徴ベクトルをカロえるようにして母数を推定しても良 、。
[0136] なお、平均ベクトル aは、特徴ベクトル が有する 2つの特徴量各々の平均値から なり、かつ、特徴ベクトル 2と同一の次元数を有するベクトルである。すなわち、特徴 ベクトル 力 ½= gp, μ bp)として表される場合、平均ベクトル a aは、特徴ベクトル が有する 2つの特徴量各々の平均値である、 μ gp)及び bp)を用いて、1 α= (μ (^gp), μ (μbp))として表されるものとする。また、分散共分散行列∑ aは、 一のクラス ω aに属する特徴ベクトル の分布のバラツキ及び広がり具合を示す行列 であり、特徴ベクトル の特徴量の個数と同数である次元数 dに対し、 dXd行列として 表されるものとする。
[0137] 制御部 9aは、発生した特徴ベクトル がクラス ω 1に属する事後確率 Ρ ( ω 1 | )と、 発生した特徴ベクトル がクラス ω 2に属する事後確率 Ρ(ω 2 | )と、発生した特徴 ベクトル 力 Sクラス ω 3に属する事後確率 Ρ(ω 3 | )と、発生した特徴ベクトル 力 sクラ ス ω4に属する事後確率 Ρ(ω4 | )とを、ベイズの定理に基づいた上記数式(1)か ら数式(3)を用いて各々算出する。そして、制御部 9aは、これら 4つの事後確率のう ち、最大の事後確率 Pl(coa I )を与えるクラス ω aに特徴ベクトル が属するものと して識別を行 ヽ、該識別結果に基づ ヽて特徴ベクトル 2が発生した領域である一のク ラスタをクラス coaに分類すると共に、最大の事後確率 Pl(coa | を与える確率密 度関数 pl l coa)の値を算出する。
[0138] そして、制御部 9aは、以上までの処理において、クラス coaに分類された一のクラス タの分類結果が正確なものである力否かを判定するため、平均値からの距離に基づ く処理、すなわち、最大の事後確率 Pl( coa I を与える確率密度関数 P 1(2 I coa) の値に対する閾値に基づく処理をさらに行う。
[0139] 具体的には、まず、制御部 9aは、平均ベクトル が有する 2つの特徴量各々の平 均値のうち、例えば、特徴量 gpの平均値 ( μ gp)に対し、特徴量 gpの標準偏 差 σ ( gp)と、所定の定数としての乗算係数 exとの積を加えた値を含む、閾値べタト ル を決定する。なお、このような閾値ベクトル^ klは、例えば、下記数式 (4)として 示されるものであり、また、第 1の実施形態においては、乗算係数 αの値は 1. 5であ るとする。
[0140] xbl = ( ,u ( ,u gp) + α X σ ( ,u gp) , ,u bp) · · · (4)
上記数式 (4)により閾値ベクトル が決定されると、制御部 9aは、閾値ベクトル 1を上記数式(1)、数式 (2)及び数式 (3)の として代入し、一のクラスタが分類され たクラス coaの閾値としての、確率密度関数 p(^kl I coa)の値を算出する。
[0141] そして、制御部 9aは、 pi ( I coa)の値が p(^kl | coa)の値より大きいことを検出 すると、前述した処理において、一のクラスタをクラス coaに分類した分類結果が正確 であると判定する。
[0142] また、制御部 9aは、 pi ( I ω a)の値が p (xbl | ω a)の値以下であることを検出す ると、前述した処理において、一のクラスタをクラス ω aに分類した分類結果が不正確 であると判定し、一のクラスタを不明クラスに分類する。
[0143] さらに、制御部 9aは、前述したクラス分類を行った後、サンプル画像群としての (N Zk)枚の画像 Inkから、撮像されたタイミングに基づく所定の間隔 t毎のサブセットを 生成する(図 11のステップ S 14)。例えば、撮像開始時間から 10秒経過毎の画像が 1枚ずつサンプリングされ (k= 20と設定され)、かつ、間隔 tが 180として設定されて いる場合、制御部 9aは、サンプル画像群としての(NZk)枚の画像 Inkにおいて、撮 像開始時間から 1800秒経過毎までに含まれる画像を 1組のサブセットとする。
[0144] その後、制御部 9aは、各サブセットに含まれる画像 Ink各々において、特徴空間に お 、て発生したクラスの種別の分布を示すクラス分布情報と、該特徴空間にお 、て 発生したクラスタに含まれる特徴量/ z gp及び/ z bpの、クラス毎の分布状態を示す特 徴量分布情報とを取得する(図 11のステップ S 15)。そして、制御部 9aは、前記特徴 量分布情報に基づき、画像を分類する際の分類基準としての平均値ベクトル及び分 散共分散行列を算出した後、該平均値ベクトル及び該分散共分散行列を用いた、サ ブセット毎の識別器を構成する(図 11のステップ S16)。さらに、制御部 9aは、前述し た処理により、サブセット毎に構成した識別器を用いつつ、 N枚の画像各々に対する 分類を行う(図 11のステップ S 17)。このような処理を行うことにより、制御部 9aは、前 述した統計的識別器において、各クラスの分布を規定するための多変量正規確率密 度関数の母数を、サブセット毎に最適に設定することができる。
[0145] 制御部 9aは、以上に述べた、図 11のステップ S1から図 11のステップ S 17までに示 す処理を行うことにより、カプセル型内視鏡 3により撮像された画像の分類を高精度 かつ高速に行うことができる。
[0146] なお、制御部 9aは、取得した特徴量分布情報に基づき、一のサブセットにお 、て 発生しな力つたクラスにっ 、ては、平均値ベクトル及び分散共分散行列を算出しな ヽ ものであっても良い。
[0147] また、以上に述べた、制御部 9aが行う処理は、 N枚の画像が撮像された後に行わ れるものに限るものではなぐ例えば、間隔 tに基づぐ一のサブセットの画像が撮像 された直後毎に随時行われるものであっても良い。
[0148] さらに、制御部 9aは、さらに高精度な処理結果を得るために、図 11のステップ S15 に示す処理において取得した特徴量分布情報に対し、例えば、 1次元において均等 な重み付けがなされた所定のサイズの平滑ィ匕フィルタを用いた処理である、平滑ィ匕 処理を行うものであっても良い。そして、制御部 9aは、このような平滑化処理を行うこ とにより、特徴量分布情報のうち、特徴量 gpまたは bpの変動が顕著である部分 、または、特徴量/ z gpまたは/ z bpの変動が極大となる部分から、撮像部位及び病変 部位を特定することができる。
[0149] 前述した、平滑化処理の処理結果に基づき、制御部 9aが撮像部位及び病変部位 を特定するための方法の一例を以降に記す。
[0150] 例えば、制御部 9aが図 11のステップ S15に示す処理において取得した特徴量分 布情報に基づき、胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量 g pのサブセット毎の時間方向における変化を表した場合、該変化は図 16のようなダラ フとして示される。
[0151] 本来、生体粘膜等の色調は、同一の撮像部位を撮像し続けた場合、時間方向にお ける頻繁な変動を伴うものではない。そのため、時間的に近接した画像から得られる 特徴量 μ gp (または特徴量 μ bp)の値は、類似した値をとると考えられる。
[0152] そして、前述したような観点に基づいて予め設定された所定のサイズのフィルタとし て、例えば、サイズ 20の 1次元均等重み付けフィルタを用いた、図 16のようなグラフと して示される特徴量/ z gpに対する時間方向への平滑ィ匕処理を制御部 9aが行うこと により、特徴量 gpのサブセット毎の時間方向における変化は、図 17のようなグラフ として示されるものになる。なお、図 16及び図 17に示すグラフは、特徴量/ z gpのサ ブセット毎の時間方向における変化を表したものである力 特徴量; z bpにおいても、 サブセット毎の時間方向における変化を示す、略同様のグラフを描くことが可能であ る。
[0153] また、制御部 9aは、平滑化処理を行った後にお 、てもなお特徴量 μ gpまたは特徴 量; z bpの値が顕著に変動する時間帯が存在することを検知した場合、該時間帯に おいて、例えば、撮像部位の変化が確認されたと判定する。あるいは、制御部 9aは、 平滑化処理を行った後にお 、てもなお特徴量 μ gpまたは特徴量 μ bpの値が顕著に 変動する時間帯が存在することを検知した場合、該時間帯において、例えば、便、胆 汁の泡または病変部位等の存在が確認されたと判定する。
[0154] 例えば、カプセル型内視鏡 3が胃力 小腸 (十二指腸)へ移動する際には、胆汁等 の消化液が分泌されることにより、黄色が力つた被写体の像が撮像される。そのため 、制御部 9aは、胃粘膜クラス及び絨毛クラスにおける特徴量; z bpの値が顕著な減少 を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡 3の撮 像部位が胃から小腸へ変化したということを特定することができる。
[0155] また、例えば、カプセル型内視鏡 3が、病変部位の 1つとしての出血部位を通過す る際には、該出血部位における血液の存在により、赤色が力つた被写体の像が撮像 される。そのため、制御部 9aは、同一クラスにおいて特徴量 gpの値が顕著な減少 を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡 3が病 変部位を撮像したと 、うことを特定することができる。
[0156] そして、制御部 9aは、以上に述べた、図 11のステップ S1から図 11のステップ S17 までに示す一連の処理に加え、さらに、以降に記す処理を行うものであっても良い。 なお、以降に記す処理において、制御部 9aが取得するクラス分布情報には、胃粘膜 、絨毛、便、泡及び不明の、 5つのクラスの情報が含まれているものであるとする。ま た、前述したクラス分布情報は、前述した 5つのクラスの情報を含むものに限るもので はなぐ例えば、胃粘膜及び絨毛クラスが生体粘膜クラスとして同一のクラスとして扱 われるとともに、便、泡及び不明クラスが非生体粘膜クラスとして同一のクラスとして扱 われるような情報を含むものであっても良いし、白色調の生体粘膜と黄色調の生体粘 膜とが同一のクラスとして扱われている情報を含むものであっても良い。
[0157] 制御部 9aは、前述した、図 11のステップ S17の処理を行った後、入力された i番目 の画像 Iiを、例えば、 8 X 8の複数の矩形領域に分割する(図 18のステップ S31)。
[0158] ここで、前述した、図 11のステップ S 17までの処理において生成した s番目(sは整 数であるとする)のサブセットが有する最初の画像及び最後の画像を、それぞれ Isl 及び Is2 (sl及び s2は、 l≤sl < s2≤Nを満たす整数であるとする)とした場合、制御 部 9aは、前述した処理において生成した各サブセットのうち、 sl≤i< s2または i = s2 を満たす所定のサブセットにおけるクラス分布情報及び特徴量分布情報を取得する (図 18のステップ S32)。
[0159] その後、制御部 9aは、 sl≤i< s2または i=s2を満たす所定のサブセットにおけるク ラス分布情報及び特徴量分布情報に基づき、画像 Iiが有する各矩形領域が、胃粘 膜、絨毛、便、泡及び不明力もなる 5つのクラスのうち、どのクラスに属するかを識別し 、該識別結果に基づく分類を行う(図 18のステップ S33)。なお、制御部 9aは、前述 した、図 11のステップ S17までの処理において発生していないクラスについて、教師 データにより予め推定された特徴量分布情報を用いた識別及び分類を行うものであ つても良い。
[0160] さらに、制御部 9aは、図 18のステップ S33における分類結果に基づき、画像 Iiの各 矩形領域のうち、胃粘膜または絨毛として分類された領域、すなわち、生体粘膜が撮 像された領域が存在するか否かを判定する。そして、制御部 9aは、画像 Iiの各矩形 領域のうち、生体粘膜が撮像された領域が存在する場合(図 18のステップ S34)、画 像 Iiにお ヽて生体粘膜が撮像されて ヽると判定された全領域における全特徴量に基 づく値と、画像 Iiにお!/、て生体粘膜が撮像されて!、ると判定された一の領域が有する 特徴量 gp及び bpの値との比較により病変箇所を検出するための処理、すなわ ち、病変検出処理として、例えば、出血または発赤を検出する処理を行う(図 18のス テツプ S35)。
[0161] 具体的には、制御部 9aは、例えば、画像 Iiにおいて生体粘膜が撮像されていると 判定された一の領域が有する特徴量 gp及び bpの値と、画像 Iiにおいて生体粘 膜が撮像されていると判定された全領域に含まれる各画素の RGB値の比に基づく値 としての、 givZrivの平均値(以降、 /z giと記す)及び bivZgivの平均値(以降、 bi と記す)とに基づき、 μ gpと μ giとの it較及び/ z bpと μ biとの it較を行うことにより、 画像 Iiにお!/ヽて生体粘膜が撮像された領域のうち、出血または発赤が撮像された領 域を検出する。このような処理を行うことにより、制御部 9aは、クラス分類を伴う領域分 割結果にぉ ヽて、生体粘膜が撮像されて ヽると判定された全領域の平均色度に対し 、出血または発赤調の変化を呈するとされる色度を有する一の領域を、出血領域ま たは発赤領域として正確に検出することができる。なお、制御部 9aは、画像 Iiにおい て不明クラスに分類された一の領域が有する特徴量と gi及び biとの比較結果に 基づく処理をさらに行うことにより、画像 Iiにおいて生体粘膜が撮像された領域に加 え、画像 Iiにおいて不明クラスに分類された領域に対しても出血または発赤が撮像さ れた領域を検出可能とするものであっても良い。
[0162] 制御部 9aは、入力された N枚の画像全てに対し、前述した処理が完了していない 場合(図 18のステップ S36)、画像番号 iに 1をカ卩ぇ(図 18のステップ S37)、次の画像 について、図 18のステップ S31からステップ S36までに示す処理を引き続き行う。
[0163] なお、制御部 9aは、胃粘膜または絨毛として分類された領域に加え、胆汁等により 黄色調になった絨毛もまた生体粘膜が撮像された領域であるとして判定するもので あっても良い。
[0164] また、以上に述べた画像処理方法は、カプセル型内視鏡により撮像された画像に 対してのみ適用されるものに限らず、例えば、生体内に挿入可能であるとともに、撮 像機能を有する挿入部を具備して構成される内視鏡により撮像された画像に対して 適用されるものであっても良 、。
[0165] 以上に述べたように、第 1の実施形態における画像処理方法によれば、画像を撮 像対象毎に高精度かつ高速に分類することができ、さらに、前記分類結果に基づい て撮像された臓器を特定することができ、その結果、ユーザによる観察の効率ィ匕をは 力ることがでさる。
[0166] また、第 1の実施形態によれば、生体粘膜が撮像された領域として分類された各々 の領域に対し、さらに、前述した病変検出処理を用いることにより、病変部位の検出 精度を高めることができる。
[0167] また、第 1の実施形態において、制御部 9aは、一の画像 Iiを大きさ 8 X 8からなる複 数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限るも のではなぐ例えば、 1 X 1、すなわち画素毎に分割して処理を行うものであってもよ いし、また、他の大きさの矩形領域に分割して処理を行うものであってもよい。
[0168] さらに、第 1の実施形態において、制御部 9aは、一の画像 Iiを大きさ 8 X 8からなる 複数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限る ものではなぐ例えば、エッジ情報等に応じた、一の画像 Iiにおける分類結果に基づ く領域に分割して処理を行うものであってもよいし、また、他の形状を有する領域に分 割して処理を行うものであってもよ!/、。
[0169] (第 2の実施形態)
図 19から図 24は、本発明の第 2の実施形態に係るものである。なお、第 1の実施形 態と同様の構成を持つ部分については、詳細説明は省略する。また、第 1の実施形 態と同様の構成要素については、同一の符号を用いて説明は省略する。さらに、第 2 の実施形態に用いるカプセル型内視鏡装置 1の構成は、第 1の実施形態と同様であ る。また、第 2の実施形態における画像処理動作は、端末本体 9が有する制御部 9a における処理として行われるものとする。
[0170] 図 19は、第 2の実施形態に係る画像処理動作を示すフローチャートである。図 20 は、第 2の実施形態において制御部が行う処理により作成される、特徴空間における ヒストグラムの一例を示す図である。図 21は、第 2の実施形態において制御部が行う 処理により作成される、特徴空間におけるクラスタの一例を示す図である。図 22は、 図 21に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未満で あるクラスタが削除される様子を示す図である。図 23は、制御部が行う処理である、 境界が接している 2つ以上のクラスタの統合または分離判定の処理の一例を示すフ ローチャートである。図 24は、図 19に示す画像処理動作の変形例を示すフローチヤ ートである。
[0171] 第 2の実施形態の画像処理装置における画像処理動作について説明を行う。
[0172] なお、第 2の実施形態においては、第 1の実施形態と同様に、カプセル型内視鏡 3 により撮像された体腔内の像の画像は、 X軸方向のドット数 ISXXy軸方向のドット数 I SY(1≤ISX、 1≤ISYを満たす値であり、例えば、 ISX= 300、 ISY= 300)、 R (赤) G (緑) B (青)の 3プレーン力もなり、各プレーンにおける各画素は、濃度値である RG B値として各々 8bit、すなわち、 0カゝら 255の値をとるものとする。また、第 2の発明の 実施形態においては、第 1の実施形態と同様に、時系列的に連続して撮像された N 枚の画像(1≤N)における i番目の画像を Ii (l≤i≤N)と示すものとする。さらに、第 2 の実施形態においては、画像 Iiの各プレーンにおける w番目の画素(l≤w≤ISXX ISY)をそれぞれ riw、 giw及び biwと示すものとする。
[0173] また、本実施形態の画像処理装置における画像処理動作は、第 1の実施形態と同 様に、前述した端末装置 7の端末本体 9が有する制御部 9aにおける処理として行わ れるようになっている。
[0174] まず、制御部 9aは、入力された i番目の画像 Iiを構成する Ri、 Gi及び Biの各プレー ンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆 γ 補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外する ため、閾値に基づく処理により検出しておく(図 19のステップ S101)。そして、前記閾 値に基づく処理は、例えば、 riw、 giw及び biwの濃度値の全てが 10以下の値であ れば暗部画素、また、 riw、 giw及び biwの濃度値の全てが 230以上の値であればハ レーシヨン画素とするような処理として行われる。
[0175] その後、制御部 9aは、入力された画像 Iiを、例えば、 8 X 8からなる複数の矩形領域 に分割する(図 19のステップ S 102)。なお、以降の説明においては、制御部 9aにお いて分割された矩形領域のうち、一の領域を Ho (oは 1以上の整数)と示すものとする
[0176] その後、制御部 9aは、画像 Iiの一の領域 Ho各々における各画素の RGB値の比に 基づく値である、 giwZriwの平均値(以降、 80と示す)及び^ 781 の平均値( 以降、 boと示す)からなる、画像の色度を示す 2つの特徴量を算出する(図 19のス テツプ S 103)。
[0177] さらに、制御部 9aは、領域 Ho各々において得られた特徴量/ z go及び/ z boを各々 離散化するとともに、離散化した特徴量 go及び; z boの発生頻度に基づぐ特徴空 間におけるヒストグラムを作成する(図 19のステップ S 104)。具体的には、制御部 9a は、特徴量 go及び boの値を、例えば、 1以上の値を全て 1としつつ、各々 0から 1までの値をとるものとして扱うとともに、さらに、 0から 1までの値としての特徴量/ z go 及び/ z boを 80倍した値を整数値に丸めることにより、離散化及びヒストグラムの作成 を行う。なお、制御部 9aは、画像 Ii内に含まれる一の領域 Hoにおいて、所定の数以 上のハレーション画素及び暗部画素を検出した場合、該一の領域 Hoを以降の処理 の適用から除外するものであっても良 、。 [0178] 制御部 9aは、離散化した特徴量 μ go及び μ bo各々に対し、例えば、所定のサイズ の平均値フィルタを適用することにより、ヒストグラムを平滑ィ匕する(図 19のステップ S 105)。なお、制御部 9aが以上までの処理を行うことにより作成されるヒストグラムは、 例えば、図 20に示されるようなものとなる。
[0179] 次に、制御部 9aは、入力された画像 Iiに対して前述した処理を行うことにより作成し たヒストグラムにおいて、発生頻度が極大となる( go, μ bo)の要素、すなわち、ピ 一ク点を検出する(図 19のステップ S106)。具体的には、制御部 9aは、作成したヒス トグラムにおいて、一の要素及び該一の要素の 8近傍の要素からなる 9個の要素を抽 出した後、抽出した該 9個の要素のうち、発生頻度が最大となる要素をピーク点として 検出する。
[0180] 制御部 9aは、作成したヒストグラムにおいて、( go, μ bo) = (0, 0)以外の各要 素力 検出した各ピーク点のうち、いずれのピーク点に向力うものであるかを、 gradie ntベクトルに基づく解析手法としての、例えば、 Valley— Seeking法を用いることに より特定する(図 19のステップ S107)。そして、制御部 9aは、同一のピーク点に向か う gradientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒス トグラム内の各要素に対する教師なしクラスタリング処理を行う(図 19のステップ S 10 8)。なお、制御部 9aが教師なしクラスタリング処理を行うことにより作成される各クラス タは、例えば、図 21に示されるようなものとなる。
[0181] なお、制御部 9aは、前述した教師なしクラスタリング処理において、 2つ以上のクラ スタの境界が接していることを検出した場合、以降に記すような、該 2つ以上のクラス タの統合または分離判定の処理をさらに行うものであってもよい。
[0182] その場合、制御部 9aは、作成した各クラスタのうち、 8近傍の要素を含む 9個の要素 において、 2以上のクラスタを含む要素を抽出することにより、すなわち、 2以上のクラ スタの境界に属している要素を抽出することにより、該 2以上のクラスタが接していると 判定する(図 23のステップ S121)。さらに、制御部 9aは、処理対象となる前記 2以上 のクラスタの境界に属して 、る前記各要素のうち、発生頻度が最小となる一の要素を 抽出し、該一の要素における発生頻度を/ z min2とする(図 23のステップ S 122)。ま た、制御部 9aは、処理対象となる前記 2以上のクラスタにおける各ピーク点のうち、発 生頻度が最大となる一のピーク点を抽出し、該一のピーク点における発生頻度を max2とする(図 23のステップ S123)。
[0183] 制御部 9aは、 μ min2及び/ z max2を抽出した後、 μ min2/ μ max2の値と、閾 値 μ thqとの比較を行う。そして、制御部 9aは、 μ min2/ μ max2の値が閾値 μ thq よりも大きいことを検出した場合(図 23のステップ S124)、処理対象となる前記 2以上 のクラスタを各々別クラスタと判定し、該 2以上のクラスタを分離したままとする(図 15 のステップ S25)。また、制御部 9aは、 μ min2/ μ max2の値が閾値/ z thq以下であ ることを検出した場合(図 15のステップ S24)、処理対象となる前記 2以上のクラスタ が同一クラスタに属すると判定するとともに、該 2以上のクラスタを統合し、発生頻度 μ max2のピーク点を新たなピーク点とする、統合後のクラスタを作成する(図 15のス テツプ S26)。なお、前述した閾値/ z thqは、第 2の実施形態においては、例えば、 0 . 1であるとする。
[0184] 制御部 9aは、前述した教師なしクラスタリングの処理(図 19のステップ S108に示す 処理)を行った後、生成した各クラスタについて、該各クラスタのクラスタ情報を取得 する(図 19のステップ S109)。なお、制御部 9aが取得するクラスタ情報は、例えば、 クラスタ番号、該各クラスタのピーク点となる要素、該各クラスタ各々の特徴空間にお ける面積及び体積、及び該各クラスタにおける特徴量 go及び/ z boの平均値べタト ルといった情報である。
[0185] その後、制御部 9aは、取得したクラスタ情報に基づき、例えば、図 22に示すように、 特徴空間における面積または体積が所定の閾値未満であるクラスタを削除する(図 1 9のステップ S 110)。
[0186] さらに、制御部 9aは、特徴空間に残った各クラスタにおける特徴量/ z go及び/ z bo の平均値ベクトル及び教師データセットから作成された、例えば、線形判別関数また はベイズの定理に基づく関数等の識別器等の識別器を用いることにより、特徴空間 に残った各クラスタカ^、ずれのクラスに属するかを判定する(図 19のステップ S 111) 。なお、第 2の実施形態においては、前記クラスは、胃粘膜、絨毛、便及び泡力もなる 4つのクラスであるとする。また、本実施形態においては、前記教師データセットは、 前記 4つのクラスの教師データを構成する複数の画像であるとする。 [0187] そして、制御部 9aは、特徴空間に残った各クラスタを胃粘膜、絨毛、便及び泡の 4 つのクラスに分類するとともに、該 4つのクラスに分類不可能なクラスタを不明クラスと して分類する(図 19のステップ S 112)。
[0188] ここで、図 19のステップ S111及びステップ S112に示す処理の具体例を以下に詳 述する。なお、制御部 9aは、特徴空間に残ったクラスタ全てに対し、以下に述べる処 理を各々行うものであるとする。
[0189] 前述した 4つのクラスの識別及び分類において、一のクラス coa(a=l、 2、 ···、 C、 C はクラス数を示す)が発生する事前確率を P ( ω a)とし、特徴空間に残った各クラスタ における特徴量 go及び/ z boから決定された特徴ベクトルを Xとし、全クラスからの 特徴ベクトル の発生確率に基づく確率密度関数を P (x)とし、一のクラス ω aからの 特徴ベクトル の発生確率に基づく状態依存確率密度 (多変量正規確率密度)関数 を p (2 I ω a)とすると、発生した特徴ベクトル がーのクラス ω aに属する事後確率 P ( ωα I を算出するための計算式は、下記数式(5)として示される。
[0190]
Ρ ωα I χ) = ρ(χ | ω )Ρ(ω )/ ρ(χ) · · · (5) なお、状態依存確率密度関数 p(s I coa)及び確率密度関数 p(s)は、下記数式 (6 )及び数式(7)として示される。 0191]
Figure imgf000042_0001
Μ)'∑α~](χ- μι) ' . ' (6) c
Ρ(χ) = ^∑ Ρ(χ \ θ)α)Ρ(ωα) · · · (7) なお、上記数式 (6)及び数式(7)において、 dは の特徴量の個数と同数である次 元数を示し、 ua及び∑ aはクラス ω aにおける特徴ベクトル の平均ベクトル及び一の クラス ω aにおける分散共分散行列を示すものとする。また、 (X— a)tは (X— μ&) の転置行列を示し、 I ∑a Iは∑ aの行列式を示し、∑a_1は∑aの逆行列を示すも のとする。さらに、説明の簡単のため、事前確率 P(coa)は、全クラスにおいて等しい 値をとると仮定し、また、確率密度関数 は、上記数式(7)により全クラス共通の関 数として表されるものとする。 [0192] 前述したようなベイズの定理に基づく統計的識別器と共に、分類基準として用いら れる平均ベクトル 及び分散共分散行列∑ aは、一のクラス ω aにおける母数を構 成する要素であり、 1番目の画像 IIが端末装置 7に入力される以前の段階において、 胃粘膜、絨毛、便及び泡力 なる 4つのクラスの教師データを構成する複数の画像に 基づき、該画像の一の領域各々において都度決定される特徴ベクトル から、クラス 毎に予め算出された後、初期値として端末装置 7に各々記録される。なお、このとき、 制御部 9aは、各クラスの教師データにおける特徴ベクトルに、画像 Iiにおける各クラ スの特徴ベクトルをカロえるようにして母数を推定しても良 、。
[0193] なお、平均ベクトル u aは、特徴ベクトル が有する 2つの特徴量各々の平均値から なり、かつ、特徴ベクトル 2と同一の次元数を有するベクトルである。すなわち、特徴 ベクトル 力 ½= go, μ bo)として表される場合、平均ベクトル a aは、特徴ベクトル が有する 2つの特徴量各々の平均値である、 μ ( go)及び bo)を用いて、1 α= (μ (μ&ο), μ (^ubo))として表されるものとする。また、分散共分散行列∑ aは、 一のクラス ω aに属する特徴ベクトル の分布のバラツキ及び広がり具合を示す行列 であり、特徴ベクトル 2の特徴量の個数と同数である次元数 dに対し、 dXd行列として 表されるものとする。
[0194] 制御部 9aは、発生した特徴ベクトル がクラス ω 1に属する事後確率 Ρ ( ω 1 | と、 発生した特徴ベクトル がクラス ω 2に属する事後確率 Ρ(ω 2 | と、発生した特徴 ベクトル S力 Sクラス ω 3に属する事後確率 Ρ(ω 3 | と、発生した特徴ベクトル 2カクラ ス ω4に属する事後確率 Ρ(ω4 | )とを、ベイズの定理に基づいた上記数式(5)か ら数式(7)を用いて各々算出する。そして、制御部 9aは、これら 4つの事後確率のう ち、最大の事後確率 Pl(coa I )を与えるクラス ω aに特徴ベクトル が属するものと して識別を行 ヽ、該識別結果に基づ ヽて特徴ベクトル が発生した領域である一のク ラスタをクラス coaに分類すると共に、最大の事後確率 Pl(coa | )を与える確率密 度関数 pi ( I coa)の値を算出する。
[0195] そして、制御部 9aは、以上までの処理において、クラス coaに分類された一のクラス タの分類結果が正確なものである力否かを判定するため、平均値からの距離に基づ く処理、すなわち、最大の事後確率 Pl( coa I )を与える確率密度関数 Pi ( I ωα) の値に対する閾値に基づく処理をさらに行う。
[0196] 具体的には、まず、制御部 9aは、平均ベクトル が有する 2つの特徴量各々の平 均値のうち、例えば、特徴量 goの平均値 ( μ go)に対し、特徴量/ z goの標準偏 差 σ go)と、所定の定数としての乗算係数 exとの積を加えた値を含む、閾値べタト ル を決定する。なお、このような閾値ベクトル^ klは、例えば、下記数式(8)として 示されるものであり、また、本実施形態においては、乗算係数 αの値は 1. 5であると する。
[0197] xb l = ( ^ ( ^ go) + α X σ ( ,u go) , ^ bo) · · · (8)
上記数式 (8)により閾値ベクトル が決定されると、制御部 9aは、閾値ベクトル 1を上記数式(5)、数式 (6)及び数式(7)の として代入し、一のクラスタが分類され たクラス ω aの閾値としての、確率密度関数 p (^kl I ω a)の値を算出する。
[0198] そして、制御部 9aは、 p i I co a)の値が p (^hl | ω a)の値より大きいことを検出 すると、前述した処理において、一のクラスタをクラス ω aに分類した分類結果が正確 であると判断する。
[0199] また、制御部 9aは、 p i I ω a)の値が p (xbl | ω a)の値以下であることを検出す ると、前述した処理において、一のクラスタをクラス ω aに分類した分類結果が不正確 であると判断し、一のクラスタを不明クラスに分類する。
[0200] 制御部 9aは、以上までの処理を行うことにより得た、特徴空間における各クラスタが 有する要素及び各クラスタのクラス分類結果と、画像 Πが有する各領域において算出 された特徴量 go及び boとに基づき、該各領域を前述した 4つのクラス及び不明 クラスのいずれかに分類する(図 19のステップ S 1 13)。具体的には、例えば、制御部 9aは、各領域 Hoにおいて算出され、かつ、離散化された特徴量 go及び boの値 が属するクラスタが分類されたクラスと同一のクラスに、該各領域 Hoを分類する。
[0201] なお、制御部 9aは、特徴空間においてどのクラスタにも属さない要素が存在する場 合には、画像 Iiが有する各領域のうち、該要素に対応する特徴量が算出された領域 を不明クラスとして分類するものであるとする。
[0202] そして、制御部 9aは、入力された N枚の画像全てに対し、図 19のステップ S 101か らステップ S 1 13までに示す処理が完了して!/、な!/、場合(図 19のステップ S 1 14)、画 像番号 iに 1を加え(図 19のステップ S115)、次の画像について、図 19のステップ S1 01からステップ S114までに示す処理を引き続き行う。また、制御部 9aは、入力され た N枚の画像全てに対し、図 19のステップ S101からステップ S113までに示す処理 が完了した場合(図 19のステップ S114)、一連の処理を終了する。
[0203] 制御部 9aは、以上に述べた、図 19のステップ S101からステップ S115までに示す 処理を行うことにより、カプセル型内視鏡 3により撮像された画像の分類を高精度か つ高速に行うことができる。
[0204] なお、以上に述べた処理のうち、図 19のステップ S104に示す処理、すなわち、特 徴空間におけるヒストグラム作成の処理は、 1枚の画像毎に行われるものに限るもの ではなぐ例えば、 N枚の画像に対して行われるものであっても良い。
[0205] その場合、まず、制御部 9aは、前述した、図 19のステップ S101、ステップ S102及 びステップ S103に示す処理と同様の処理を行う(図 24のステップ S 131、図 24のス テツプ S132及び図 24のステップ S133)。すなわち、制御部 9aは、入力された画像 Ii に対する前処理及び領域分割を行うとともに、画像 Iiを分割した各領域 Hoにおける 特徴量 go及び boを算出する。
[0206] その後、制御部 9aは、図 19のステップ S104に示す処理と略同様の処理として、領 域 Ho各々において得られた特徴量 go及び boを各々離散化するとともに、離散 化した特徴量/ z go及び/ z boの発生頻度に基づぐ特徴空間におけるヒストグラムを 作成する(図 24のステップ S 134)。
[0207] 制御部 9aは、入力された N枚の画像全てに対し、図 24のステップ S131からステツ プ S134までに示す処理が完了していない場合(図 24のステップ S135)、画像番号 i に 1をカ卩ぇ(図 24のステップ S136)、次の画像について、図 24のステップ S131から ステップ S 135までに示す処理を引き続き行う。
[0208] そして、制御部 9aは、入力された N枚の画像全てに対し、図 24のステップ S131か らステップ S134までに示す処理が完了した場合(図 24のステップ S135)、前述した 、図 19のステップ S105からステップ S112までに示す処理と同様の処理を行う(図 2 4のステップ S 137カゝらステップ S 144)。すなわち、制御部 9aは、作成したヒストグラム に基づいて教師なしクラスタリングの処理を行うとともに、得られた各クラスタを胃粘膜 、絨毛、便及び泡の 4つのクラスに分類するとともに、該 4つのクラスに分類不可能な クラスタを不明クラスとして分類する。なお、制御部 9aは、図 24のステップ S144に示 す処理、すなわち、特徴空間上に残った各クラスタを胃粘膜、絨毛、便及び泡の 4つ のクラスに分類するとともに、該 4つのクラスに分類不可能なクラスタを不明クラスとし て分類する処理において、該特徴空間において発生したクラスタに含まれる特徴量 μ go及び boの、クラス毎の分布状態を示す特徴量分布情報を得るものであるとす る。
[0209] その後、制御部 9aは、 1枚目の画像 IIに対し、画像 IIが有する各領域を、胃粘膜、 絨毛、便及び泡の 4つのクラス及び不明クラスのいずれかに分類する処理を行う(図 24のステップ S 145及びステップ S 146)。
[0210] さらに、制御部 9aは、入力された N枚の画像全てに対する、前述した図 24のステツ プ S 146に示す処理が完了して!/ヽな 、場合(図 24のステップ S 147)、画像番号 iに 1 をカロえ(図 24のステップ S148)、次の画像について、図 24のステップ S 146及びステ ップ S147に示す処理を引き続き行う。また、制御部 9aは、入力された N枚の画像全 てに対する、前述した図 24のステップ S 146に示す処理が完了した場合(図 24のス テツプ S147)、図 24のステップ S131からステップ S148までに示す一連の処理を終 了する。
[0211] なお、制御部 9aは、図 24のステップ S144に示す処理を行うことにより得られる特徴 量分布情報に加え、例えば、画像 IIから INまでのうち、所定のクラスに分類された領 域 Hoが画像 Ii内の所定の割合以上を占める画像を、所定の臓器が撮像された画像 として判定するといつた判定基準を併せて用いることにより、画像毎の撮像部位の判 定を行うものであっても良い。具体的には、例えば、制御部 9aは、画像 IIから INまで のうち、便クラスに分類された領域 Hoが画像 Ii内の 10%以上を占める画像を、大腸 が撮像されている画像であるとして判定するものであっても良い。なお、制御部 9aに より行われる、以上に述べたような撮像部位判定の処理は、前述した、図 19のステツ プ S112における処理に併せて行われるものであっても良い。
[0212] 制御部 9aは、以上に述べた、図 24のステップ S131からステップ S148までに示す 処理を行うことにより、図 19のステップ S 101からステップ S 115までに示す処理を行う 場合に比べ、カプセル型内視鏡 3により撮像された画像の分類をより高精度に行うこ とがでさる。
[0213] また、制御部 9aは、画像 Iiが有する各領域をより高精度に分類するための処理とし て、例えば、図 24のステップ S144に示す処理を行うことにおいて得られる特徴量分 布情報に基づいて構成した統計的識別器等を用いる、以降に記すような処理を行う ものであっても良い。
[0214] その場合、制御部 9aは、図 24のステップ S 144に示す処理を行った後、画像を分 類する際の分類基準としての平均値べ外ル及び分散共分散行列を、図 24のステツ プ S144に示す処理にお 、て得た特徴量分布情報に基づ!/、て算出し、該平均値べ タトル及び該分散共分散行列を用いた統計的識別器を構成する。
[0215] さらに、制御部 9aは、前述した処理により構成された統計的識別器と、画像 Iiが有 する各領域において算出された特徴量 go及び; z boとに基づき、該各領域を前述 した 4つのクラス及び不明クラスのいずれかに分類する。
[0216] 以上に述べた画像処理方法は、カプセル型内視鏡により撮像された画像に対して のみ適用されるものに限らず、例えば、生体内に挿入可能であるとともに、撮像機能 を有する挿入部を具備して構成される内視鏡により撮像された画像に対して適用さ れるものであっても良い。
[0217] 以上に述べたように、本実施形態によれば、画像を撮像対象毎に高精度かつ高速 に分類することができ、さらに、前記分類結果に基づいて撮像された臓器を特定する ことができ、その結果、ユーザによる観察の効率ィ匕をは力ることができる。
[0218] (第 3の実施形態)
図 25から図 30は、本発明の第 3の実施形態に係るものである。なお、第 1の実施形 態及び第 2の実施形態と同様の構成を持つ部分については、詳細説明は省略する。 また、第 1の実施形態及び第 2の実施形態と同様の構成要素については、同一の符 号を用いて説明は省略する。さらに、第 3の実施形態に用いるカプセル型内視鏡装 置 1の構成は、第 1の実施形態及び第 2の実施形態と同様である。また、第 3の実施 形態における画像処理動作は、端末本体 9が有する制御部 9aにおける処理として行 われるものとする。 [0219] 図 25は、第 3の実施形態に係る画像処理動作を示すフローチャートである。図 26 は、図 25に示す処理に引き続いて行われる画像処理動作を示すフローチャートであ る。図 27は、第 3の実施形態において制御部が行う処理により作成される、特徴空間 におけるヒストグラムの一例を示す図である。図 28は、第 3の実施形態において制御 部が行う第 2の教師なしクラスタリング処理により作成される、特徴空間におけるクラス タの一例を示す図である。図 29は、第 3の実施形態において制御部が行う第 1の教 師なしクラスタリング処理により作成される、特徴空間におけるクラスタの一例を示す 図である。図 30は、第 3の実施形態において制御部が行うクラスタの分割処理により 、図 29に示すクラスタ Cがクラスタ C1及びクラスタ C2に分割された状態を示す図であ る。
[0220] 第 3の実施形態の画像処理装置における画像処理動作について説明を行う。
[0221] まず、制御部 9aは、入力された i番目の画像 Iiを構成する Ri、 Gi及び Biの各プレー ンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆 γ 補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外する ため、閾値に基づく処理により検出しておく(図 25のステップ S151)。そして、前記閾 値に基づく処理は、例えば、 riw、 giw及び biwの濃度値の全てが 10以下の値であ れば暗部画素、また、 riw、 giw及び biwの濃度値の全てが 230以上の値であればハ レーシヨン画素とするような処理として行われる。
[0222] その後、制御部 9aは、入力された画像 Iiを、例えば、 8 X 8からなる複数の矩形領域 に分割する(図 25のステップ S152)。
[0223] その後、制御部 9aは、画像 Iiの一の領域 Ho各々における各画素の RGB値の比に 基づく値である、 μ go及び/ z boからなる、画像の色度を示す 2つの特徴量と、 giw/ riwの分散(以降、 σ 2goと示す)及び biwZgiwの分散(以降、 σ οと示す)からなる 、画像の色度のばらつきを示す 2つの特徴量を算出する(図 25のステップ S153)。な お、制御部 9aは、画像の色度のばらつきを示す特徴量として、 σ 2go及び σ οを算 出するものに限らず、例えば、 giwZriwの標準偏差 σ go及び biwZgiwの標準偏差 σ boを算出するものであっても良い。
[0224] 制御部 9aは、領域 Ho各々にお 、て得られた特徴量 μ go及び μ boを各々離散化 するとともに、離散化した特徴量 go及び boの発生頻度に基づぐ特徴空間にお けるヒストグラムを作成する(図 25のステップ S 154)。
[0225] 制御部 9aは、離散化した特徴量 μ go及び μ bo各々に対し、例えば、所定のサイズ の平均値フィルタを適用することにより、ヒストグラムを平滑ィ匕する(図 25のステップ S 155)。なお、制御部 9aが以上までの処理を行うことにより作成されるヒストグラムは、 例えば、前述した図 20に示されるものと略同様のものになる。
[0226] 次に、制御部 9aは、入力された画像 Iiに対して前述した処理を行うことにより作成し たヒストグラムにおいて、発生頻度が極大となる( go, μ bo)の要素、すなわち、ピ 一ク点を検出する(図 25のステップ S156)。具体的には、制御部 9aは、作成したヒス トグラムにおいて、一の要素及び該一の要素の 8近傍の要素からなる 9個の要素を抽 出した後、抽出した該 9個の要素のうち、発生頻度が最大となる要素をピーク点として 検出する。
[0227] 制御部 9aは、作成したヒストグラムにおいて、( go, μ bo) = (0, 0)以外の各要 素力 検出した各ピーク点のうち、いずれのピーク点に向力うものであるかを、 gradie ntベクトルに基づく解析手法としての、例えば、 Valley— Seeking法を用いることに より特定する(図 25のステップ S157)。そして、制御部 9aは、同一のピーク点に向か う gradientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒス トグラム内の各要素 go, μ bo)に対する、第 1の教師なしクラスタリング処理を行う (図 25のステップ S 158)。なお、制御部 9aが第 1の教師なしクラスタリング処理を行う ことにより作成される各クラスタは、例えば、前述した図 21に示されるものと略同様の ものになる。
[0228] 制御部 9aは、第 1の教師なしクラスタリングの処理を行った後、生成した各クラスタ について、該各クラスタのクラスタ情報を取得する(図 25のステップ S 159)。なお、図 25のステップ S 159に示す処理において制御部 9aが取得するクラスタ情報は、例え ば、クラスタ番号、該各クラスタのピーク点となる要素、該各クラスタ各々の特徴空間 における面積及び体積、及び該各クラスタにおける特徴量/ z go及び/ z boの平均値 ベクトルと ヽつた情報である。
[0229] その後、制御部 9aは、取得したクラスタ情報に基づき、特徴空間における面積また は体積が所定の閾値未満であるクラスタを削除する(図 25のステップ SI 60)。
[0230] さらに、制御部 9aは、特徴空間に残った各クラスタにおける特徴量/ z go及び/ z bo の平均値ベクトル及び教師データセットから作成された、例えば、線形判別関数また はベイズの定理に基づく関数等の識別器等の識別器を用いることにより、特徴空間 に残った各クラスタがいずれのクラスに属するかを判定する(図 25のステップ S161) 。なお、本実施形態においては、前記クラスは、胃粘膜、絨毛、便及び泡からなる 4 つのクラスであるとする。また、本実施形態においては、前記教師データセットは、前 記 4つのクラスの教師データを構成する複数の画像であるとする。
[0231] そして、制御部 9aは、特徴空間に残った各クラスタを胃粘膜、絨毛、便及び泡の 4 つのクラスに分類するとともに、該 4つのクラスに分類不可能なクラスタを不明クラスと して分類する(図 25のステップ S 162)。
[0232] なお、本実施形態における、図 25のステップ S161及びステップ S 162における処 理は、第 2の実施形態において説明した、図 19のステップ S111及びステップ S112 に示す処理と略同様の処理を適用するものであるとする。
[0233] また、制御部 9aは、領域 Ho各々にお 、て得られた特徴量 σ 2go及び σ οを各々 離散化するとともに、離散化した特徴量 σ 2go及び σ 2boの発生頻度に基づぐ特徴 空間におけるヒストグラムを作成する(図 26のステップ S 163)。
[0234] 制御部 9aは、離散化した特徴量 σ 2go及び σ ο各々に対し、例えば、所定のサイ ズの平均値フィルタを適用することにより、ヒストグラムを平滑ィ匕する(図 26のステップ S 164)。なお、制御部 9aが以上までの処理を行うことにより作成されるヒストグラムは 、例えば、図 27に示されるようなものとなる。
[0235] 次に、制御部 9aは、入力された画像 Iiに対して前述した処理を行うことにより作成し たヒストグラムにおいて、発生頻度が極大となる( σ 2go, σ ¾ο)の要素、すなわち、ピ 一ク点を検出する(図 26のステップ S165)。具体的には、制御部 9aは、作成したヒス トグラムにおいて、一の要素及び該一の要素の 8近傍の要素からなる 9個の要素を抽 出した後、抽出した該 9個の要素のうち、発生頻度が最大となる要素をピーク点として 検出する。
[0236] 制御部 9aは、作成したヒストグラムにおいて、( σ 2go, σ ¾ο) = (0, 0)以外の各要 素力 検出した各ピーク点のうち、いずれのピーク点に向力うものであるかを、 gradie ntベクトルに基づく解析手法としての、例えば、 Valley— Seeking法を用いることに より特定する(図 26のステップ S 166)。そして、制御部 9aは、同一のピーク点に向か う gradientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒス トグラム内の各要素( σ 2go, σ ¾ο)に対する、第 2の教師なしクラスタリング処理を行 う(図 26のステップ S 167)。なお、制御部 9aが第 2の教師なしクラスタリング処理を行 うことにより作成される各クラスタは、例えば、図 28に示されるようなものとなる。
[0237] そして、制御部 9aは、第 1の教師なしクラスタリング処理を行うことにより作成された 各クラスタにおける各要素 go, μ bo)の分布状態と、第 2の教師なしクラスタリング 処理を行うことにより作成された各クラスタにおける各要素( σ 2go, σ ¾ο)の分布状 態とに基づき、以降に記すような、第 1の教師なしクラスタリング処理を行うことにより 作成された各クラスタの分割処理を行う(図 26のステップ S 168)。
[0238] なお、以降においては、例えば、第 2の教師なしクラスタリング処理が行われること により、画像の色度のばらつきを示す特徴空間に図 28に示すようなクラスタ A及びク ラスタ Bが作成され、かつ、第 1の教師なしクラスタリング処理が行われることにより、画 像の色度を示す特徴空間に図 29に示すようなクラスタ Cが作成された場合を考える。
[0239] 制御部 9aは、一の領域 Ho iの特徴量として算出された σ 2gol及び σ 2bo lがクラス タ Aに属し、該一の領域 Ho iの特徴量として算出された/ z go l及び/ z bo lがクラスタ Cに属し、他の領域 Ho2の特徴量として算出された σ 2go2及び σ ο2がクラスタ Β に属し、該他の領域 Ηο2の特徴量として算出された/ z go2及び/ z bo2がクラスタ Cに 属していることを検出すると、クラスタ Cを、 2つのクラスの要素が混在したクラスタであ ると判断する。そして、制御部 9aは、前記検出結果に基づき、元のクラスタ Cを、例え ば、図 30に示すように、 /z go l及び/ z bo lが属する一のクラスタ C1と、 μ 。2及ぴ μ bo2が属する他のクラスタ C2とに分割する処理を行う。
[0240] その後、制御部 9aは、特徴量/ z gol及び/ z bo lの平均値ベクトル及び教師データ セットから作成された識別器を用い、元のクラスタ力も分割された一のクラスタである、 クラスタ C1のクラス分類を行うとともに、特徴量/ z go2及び/ z bo2の平均値ベクトル及 び教師データセットから作成された識別器を用い、元のクラスタ力 分割された他の クラスタである、クラスタ C2のクラス分類を行う(図 26のステップ S169)。
[0241] なお、前述した、図 26のステップ S163からステップ S169までの処理は、図 25のス テツプ S161の処理において、例えば、胃粘膜クラス及び絨毛クラスといった、特定の クラスに分類されたクラスタに対してのみ行うものであっても良い。
[0242] また、前述した処理において、制御部 9aは、図 25のステップ S161及びステップ S1 62の処理を省略しつつ、図 26のステップ S163からステップ S169までの処理を行う ものであっても良い。具体的には、制御部 9aは、第 2の教師なしクラスタリング処理を 行うことにより作成された各クラスタのクラス分類結果に基づき、第 1の教師なしクラス タリング処理を行うことにより作成された各クラスタのクラス分類を行うものであっても 良い。
[0243] 以上に述べた画像処理方法は、カプセル型内視鏡により撮像された画像に対して のみ適用されるものに限らず、例えば、生体内に挿入可能であるとともに、撮像機能 を有する挿入部を具備して構成される内視鏡により撮像された画像に対して適用さ れるものであっても良い。
[0244] 以上に述べたように、第 3の実施形態によれば、画像を撮像対象毎に高精度かつ 高速に分類することができ、その結果、ユーザによる観察の効率ィ匕をは力ることがで きる。
[0245] また、第 3の実施形態によれば、色調に基づくクラスタ生成及びクラス分類に加え、 色調のばらつきに基づくクラスタ生成及びクラス分類が併せて行われることにより、構 造的に明確な特徴を有する、泡及び絨毛が撮像された画像の分類を高精度に行うこ とがでさる。
[0246] また、本発明の第 2の実施形態及び第 3の実施形態において、制御部 9aは、一の 画像 Iiを大きさ 8 X 8からなる複数の矩形領域に分割して一連の処理を行うとして説 明を行っているが、これに限るものではなぐ例えば、 1 X 1、すなわち画素毎に分割 して処理を行うものであってもよいし、また、他の大きさの矩形領域に分割して処理を 行うものであってもよい。
[0247] さらに、本発明の第 2の実施形態及び第 3の実施形態において、制御部 9aは、一 の画像 Iiを大きさ 8 X 8からなる複数の矩形領域に分割して一連の処理を行うとして 説明を行っている力 これに限るものではなぐ例えば、エッジ情報等に応じた、一の 画像 Iiにおける分類結果に基づく領域に分割して処理を行うものであってもよいし、 また、他の形状を有する領域に分割して処理を行うものであってもよ 、。
[0248] なお、本発明は、上述した各実施形態に限定されるものではなぐ発明の趣旨を逸 脱しな 、範囲内にお 、て種々の変更や応用が可能であることは勿論である。
[0249] 本出願は、 2005年 12月 28曰に曰本国に出願された特願 2005— 380210号、及 び、 2005年 12月 28日に日本国に出願された特願 2005— 380212号を優先権主 張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、 図面に引用されたものとする。

Claims

請求の範囲
[1] 撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力 する画像信号入力手段と、
前記画像信号入力手段にお!ヽて入力した画像信号に基づき、前記複数の画像を 各々複数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出 する特徴量算出手段と、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類手段と、
前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複 数のサブセットを生成するサブセット生成手段と、
前記サブセット生成手段により生成された一のサブセットに含まれる画像各々の、 前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含ま れる画像を、前記複数のクラスのいずれかに各々分類する際の分類基準を算出する 分類基準算出手段と、
を具備することを特徴とする画像処理装置。
[2] さらに、前記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおい て前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特 徴とする請求項 1に記載の画像処理装置。
[3] 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少 なくとも有することを特徴とする請求項 1に記載の画像処理装置。
[4] 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少 なくとも有することを特徴とする請求項 2に記載の画像処理装置。
[5] さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における 各領域の分類を行う分類手段と、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラス として分類された領域を有している場合、該領域各々に対し、病変箇所を検出するた めの処理を行う病変検出手段と、
を有することを特徴とする請求項 3に記載の画像処理装置。
[6] さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における 各領域の分類を行う分類手段と、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラス として分類された領域を有している場合、該領域各々に対し、病変箇所を検出するた めの処理を行う病変検出手段と、
を有することを特徴とする請求項 4に記載の画像処理装置。
[7] 撮像機能を有する医療機器により時系列的に撮像された複数の画像に基づく画像 信号を入力する画像信号入力手段と、
前記画像信号入力手段にお!ヽて入力した画像信号に基づき、前記複数の画像を 各々複数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出 する特徴量算出手段と、
前記特徴量に基づき、前記複数の領域各々を複数のクラスの!/、ずれかに各々分類 する画像領域分類手段と、
前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する 代表値算出手段と、
前記代表値の変動を時系列的に検出する変動検出手段と、
を具備することを特徴とする画像処理装置。
[8] さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有 し、
前記変動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基 づき、前記代表値の変動が極大となる画像または時間の 、ずれかを検出することを 特徴とする請求項 7に記載の画像処理装置。
[9] 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであ ることを特徴とする請求項 7に記載の画像処理装置。
[10] 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであ ることを特徴とする請求項 8に記載の画像処理装置。
前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを 特徴とする請求項 7に記載の画像処理装置。
前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを 特徴とする請求項 8に記載の画像処理装置。
前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであるこ とを特徴とする請求項 7に記載の画像処理装置。
前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであるこ とを特徴とする請求項 8に記載の画像処理装置。
前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであ ることを特徴とする請求項 7に記載の画像処理装置。
前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであ ることを特徴とする請求項 8に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 7に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 8に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 9に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 10に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 11に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 12に記載の画像処理装置。
前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 13に記載の画像処理装置。 する請求項 14に記載の画像処理装置。
[25] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 15に記載の画像処理装置。
[26] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 16に記載の画像処理装置。
[27] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力手段と、
前記画像信号入力手段にお!ヽて入力した画像信号に基づき、前記画像を各々複 数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出 する特徴量算出手段と、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類手段と、
前記クラスタ分類手段の分類結果に基づき、前記複数の領域を前記複数のクラス の ヽずれかに各々分類する画像領域分類手段と、
を具備することを特徴とする画像処理装置。
[28] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力手段と、
前記画像信号入力手段にお!ヽて入力した画像信号に基づき、前記画像を各々複 数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出 する特徴量算出手段と、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類手段と、
前記特徴空間における前記特徴量の分布状態に関する情報である、特徴量分布 情報を得る特徴量分布情報取得手段と、 前記特徴量分布情報取得手段が取得した前記特徴量分布情報に基づき、前記複 数の領域を前記複数のクラスの!/ヽずれかに各々分類する画像領域分類手段と、 を具備することを特徴とする画像処理装置。
[29] 前記画像は、時系列的に連続して撮像された複数の画像であることを特徴とする請 求項 27に記載の画像処理装置。
[30] 前記画像は、時系列的に連続して撮像された複数の画像であることを特徴とする請 求項 28に記載の画像処理装置。
[31] 撮像機能を有する医療機器により撮像された画像に基づく画像信号を入力する画 像信号入力手段と、
前記画像信号入力手段にお!ヽて入力した画像信号に基づき、前記画像を各々複 数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における複数の種類の 特徴量を算出する特徴量算出手段と、
前記複数の種類の特徴量のうち、一の種類の特徴量及び該一の種類の特徴量の 発生頻度に基づき、一の特徴空間において複数のクラスタを生成するとともに、該複 数のクラスタを複数のクラスのいずれかに各々分類する第 1のクラスタ分類手段と、 前記複数の種類の特徴量のうち、他の種類の特徴量及び該他の種類の特徴量の 発生頻度に基づき、他の特徴空間において複数のクラスタを生成するとともに、該複 数のクラスタを複数のクラスの 、ずれかに各々分類する第 2のクラスタ分類手段と、 前記一の特徴空間及び前記他の特徴空間における特徴量の分布状態に基づき、 前記一の特徴空間において生成された複数のクラスタに対する分割処理を行うクラ スタ分割手段と、
を具備することを特徴とする画像処理装置。
[32] 前記病変検出手段は、前記医療機器に設けられていることを特徴とする請求項 5に 記載の画像処理装置。
[33] 前記病変検出手段は、前記医療機器に設けられていることを特徴とする請求項 6に 記載の画像処理装置。
[34] 前記変動検出手段は、前記時系列的に検出された代表値の変動が極大となる画 像または時間のいずれかを検出する処理を行うことを特徴とする請求項 7に記載の 画像処理装置。
[35] さらに、前記画像領域分類手段によって分類された領域のうち、特定の領域が前記 画像上において所定の割合以上を占める場合、当該画像を特定の臓器が撮像され た画像であると判定する撮像部位判定手段を有することを特徴とする請求項 27に記 載の画像処理装置。
[36] さらに、前記画像領域分類手段によって分類された領域のうち、特定の領域が前記 画像上において所定の割合以上を占める場合、当該画像を特定の臓器が撮像され た画像であると判定する撮像部位判定手段を有することを特徴とする請求項 28に記 載の画像処理装置。
[37] 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号 に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算 出する特徴量算出ステップと、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類ステップと、
前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複 数のサブセットを生成するサブセット生成ステップと、
前記サブセット生成ステップにより生成された一のサブセットに含まれる画像各々の 、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含 まれる画像を各々分類する際の分類基準を算出する分類基準算出ステップと、 を具備することを特徴とする画像処理装置における画像処理方法。
[38] さらに、前記分類基準算出ステップは、前記複数のクラスのうち、一のサブセットに ぉ 、て前記特徴量が発生しな 、クラスにっ 、ては、前記分類基準を算出しな 、こと を特徴とする請求項 37に記載の画像処理装置における画像処理方法。
[39] 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少 なくとも有することを特徴とする請求項 37に記載の画像処理装置における画像処理 方法。
[40] 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少 なくとも有することを特徴とする請求項 38に記載の画像処理装置における画像処理 方法。
[41] さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における 各領域の分類を行う分類ステップと、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラス として分類された領域を有している場合、該領域各々に対し、病変箇所を検出するた めの処理を行う病変検出ステップと、
を有することを特徴とする請求項 39に記載の画像処理装置における画像処理方法
[42] さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における 各領域の分類を行う分類ステップと、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラス として分類された領域を有している場合、該領域各々に対し、病変箇所を検出するた めの処理を行う病変検出ステップと、
を有することを特徴とする請求項 40に記載の画像処理装置における画像処理方法
[43] 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号 に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算 出する特徴量算出ステップと、
前記特徴量に基づき、前記複数の領域各々を複数のクラスの!/、ずれかに各々分類 する画像領域分類ステップと、
前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する 代表値算出ステップと、
前記代表値の変動を時系列的に検出する変動検出ステップと、
を具備することを特徴とする画像処理装置における画像処理方法。 [44] さらに、前記代表値各々に対して時系列方向の平滑ィ匕を適用する平滑化ステップ を有し、
前記平滑化ステップにより平滑化された後の前記代表値に基づき、前記代表値の 変動が極大となる画像または時間のいずれかを検出する処理を前記変動検出ステツ プにおいて行うことを特徴とする請求項 43に記載の画像処理装置における画像処 理方法。
[45] 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであ ることを特徴とする請求項 43に記載の画像処理装置における画像処理方法。
[46] 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであ ることを特徴とする請求項 44に記載の画像処理装置における画像処理方法。
[47] 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを 特徴とする請求項 43に記載の画像処理装置における画像処理方法。
[48] 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを 特徴とする請求項 44に記載の画像処理装置における画像処理方法。
[49] 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであるこ とを特徴とする請求項 43に記載の画像処理装置における画像処理方法。
[50] 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであるこ とを特徴とする請求項 44に記載の画像処理装置における画像処理方法。
[51] 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであ ることを特徴とする請求項 43に記載の画像処理装置における画像処理方法。
[52] 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであ ることを特徴とする請求項 44に記載の画像処理装置における画像処理方法。
[53] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 43に記載の画像処理装置における画像処理方法。
[54] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 44に記載の画像処理装置における画像処理方法。
[55] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 45に記載の画像処理装置における画像処理方法。 [56] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 46に記載の画像処理装置における画像処理方法。
[57] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 47に記載の画像処理装置における画像処理方法。
[58] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 48に記載の画像処理装置における画像処理方法。
[59] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 49に記載の画像処理装置における画像処理方法。
[60] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 50に記載の画像処理装置における画像処理方法。
[61] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 51に記載の画像処理装置における画像処理方法。
[62] 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴と する請求項 52に記載の画像処理装置における画像処理方法。
[63] 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号 に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算 出する特徴量算出ステップと、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類ステップと、
前記クラスタ分類ステップの分類結果に基づき、前記複数の領域を前記複数のクラ スの 、ずれかに各々分類する画像領域分類ステップと、
を具備することを特徴とする画像処理装置における画像処理方法。
[64] 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号 に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算 出する特徴量算出ステップと、 前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラ スタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類する クラスタ分類ステップと、
前記特徴空間における前記特徴量の分布状態に関する情報である、特徴量分布 情報を得る特徴量分布情報取得ステップと、
前記特徴量分布情報取得ステップが取得した前記特徴量分布情報に基づき、前 記複数の領域を前記複数のクラスの!/、ずれかに各々分類する画像領域分類ステツ プと、
を具備することを特徴とする画像処理装置における画像処理方法。
[65] 前記画像は、時系列的に連続して撮像された複数の画像であることを特徴とする請 求項 63に記載の画像処理装置における画像処理方法。
[66] 前記画像は、時系列的に連続して撮像された複数の画像であることを特徴とする請 求項 64に記載の画像処理装置における画像処理方法。
[67] 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号 に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における複数の種類 の特徴量を算出する特徴量算出ステップと、
前記複数の種類の特徴量のうち、一の種類の特徴量及び該一の種類の特徴量の 発生頻度に基づき、一の特徴空間において複数のクラスタを生成するとともに、該複 数のクラスタを複数のクラスの 、ずれか〖こ各々分類する第 1のクラスタ分類ステップと 前記複数の種類の特徴量のうち、他の種類の特徴量及び該他の種類の特徴量の 発生頻度に基づき、他の特徴空間において複数のクラスタを生成するとともに、該複 数のクラスタを複数のクラスの 、ずれか〖こ各々分類する第 2のクラスタ分類ステップと 前記一の特徴空間及び前記他の特徴空間における特徴量の分布状態に基づき、 前記一の特徴空間において生成された複数のクラスタに対する分割処理を行うクラ スタ分割ステップと、 を具備することを特徴とする画像処理装置における画像処理方法。
[68] 前記病変検出ステップは、前記医療機器内において行われることを特徴とする請 求項 41に記載の画像処理方法。
[69] 前記病変検出ステップは、前記医療機器内において行われることを特徴とする請 求項 42に記載の画像処理方法。
[70] 前記変動検出ステップは、前記時系列的に検出された代表値の変動が極大となる 画像または時間のいずれかを検出する処理を行うことを特徴とする請求項 43に記載 の画像処理方法。
[71] さらに、前記画像領域分類ステップによって分類された領域のうち、特定の領域が 前記画像上において所定の割合以上を占める場合、当該画像を特定の臓器が撮像 された画像であると判定する撮像部位判定ステップを有することを特徴とする請求項 63に記載の画像処理方法。
[72] さらに、前記画像領域分類ステップによって分類された領域のうち、特定の領域が 前記画像上において所定の割合以上を占める場合、当該画像を特定の臓器が撮像 された画像であると判定する撮像部位判定ステップを有することを特徴とする請求項 64に記載の画像処理方法。
PCT/JP2006/322387 2005-12-28 2006-11-09 画像処理装置および当該画像処理装置における画像処理方法 WO2007077672A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06823274A EP1969992B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in the image processing device
CN200680049583.0A CN101351149B (zh) 2005-12-28 2006-11-09 图像处理装置和该图像处理装置中的图像处理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005380212A JP4520405B2 (ja) 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法
JP2005-380210 2005-12-28
JP2005380210A JP4472631B2 (ja) 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法
JP2005-380212 2005-12-28

Publications (2)

Publication Number Publication Date
WO2007077672A1 true WO2007077672A1 (ja) 2007-07-12
WO2007077672A8 WO2007077672A8 (ja) 2007-10-11

Family

ID=38228031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322387 WO2007077672A1 (ja) 2005-12-28 2006-11-09 画像処理装置および当該画像処理装置における画像処理方法

Country Status (4)

Country Link
US (4) US20070165932A1 (ja)
EP (3) EP2412300B1 (ja)
CN (2) CN101947114B (ja)
WO (1) WO2007077672A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009004890A1 (ja) * 2007-07-04 2009-01-08 Olympus Corporation 画像処理装置、画像処理プログラムおよび画像処理方法
CN112305441A (zh) * 2020-10-14 2021-02-02 北方工业大学 一种集成式聚类下的动力电池健康状态评估方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005000101A2 (en) * 2003-06-12 2005-01-06 University Of Utah Research Foundation Apparatus, systems and methods for diagnosing carpal tunnel syndrome
JP4767591B2 (ja) * 2005-06-01 2011-09-07 オリンパスメディカルシステムズ株式会社 内視鏡診断支援方法、内視鏡診断支援装置および内視鏡診断支援プログラム
JP4855868B2 (ja) * 2006-08-24 2012-01-18 オリンパスメディカルシステムズ株式会社 医療用画像処理装置
US8213698B2 (en) * 2006-09-19 2012-07-03 Capso Vision Inc. Systems and methods for capsule camera control
US20080122616A1 (en) * 2006-11-28 2008-05-29 General Electric Company Smart bed method
US20080126132A1 (en) * 2006-11-28 2008-05-29 General Electric Company Smart bed system
US20080126122A1 (en) * 2006-11-28 2008-05-29 General Electric Company Smart bed system and apparatus
US20080120784A1 (en) * 2006-11-28 2008-05-29 General Electric Company Smart bed system and apparatus
US20080147442A1 (en) * 2006-12-18 2008-06-19 General Electric Company Smart bed system and apparatus
JP5147308B2 (ja) * 2007-06-20 2013-02-20 オリンパス株式会社 画像抽出装置および画像抽出プログラム
JP5312807B2 (ja) * 2008-01-08 2013-10-09 オリンパス株式会社 画像処理装置および画像処理プログラム
JP5281826B2 (ja) * 2008-06-05 2013-09-04 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
US8583647B2 (en) 2010-01-29 2013-11-12 Panasonic Corporation Data processing device for automatically classifying a plurality of images into predetermined categories
FR2956496B1 (fr) * 2010-02-17 2012-03-09 Commissariat Energie Atomique Procede de mesure en ligne de rayonnements ionisants
US8808170B2 (en) * 2010-03-10 2014-08-19 Mark A. Stern Multiple-channel endoscopic biopsy sheath
EP2425761B1 (en) * 2010-05-10 2015-12-30 Olympus Corporation Medical device
US8768024B1 (en) * 2010-06-01 2014-07-01 Given Imaging Ltd. System and method for real time detection of villi texture in an image stream of the gastrointestinal tract
US9122955B2 (en) * 2010-06-28 2015-09-01 Ramot At Tel-Aviv University Ltd. Method and system of classifying medical images
US8922633B1 (en) 2010-09-27 2014-12-30 Given Imaging Ltd. Detection of gastrointestinal sections and transition of an in-vivo device there between
US8965079B1 (en) 2010-09-28 2015-02-24 Given Imaging Ltd. Real time detection of gastrointestinal sections and transitions of an in-vivo device therebetween
CN103079452B (zh) * 2011-02-23 2015-06-17 奥林巴斯医疗株式会社 位置信息估计系统
JP5784751B2 (ja) 2011-12-08 2015-09-24 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN102708380B (zh) * 2012-05-08 2014-02-12 东南大学 一种基于机器视觉的室内一般物体识别方法
US9324145B1 (en) 2013-08-08 2016-04-26 Given Imaging Ltd. System and method for detection of transitions in an image stream of the gastrointestinal tract
CN104545925A (zh) * 2013-10-28 2015-04-29 英业达科技有限公司 健康监控器
JP6335007B2 (ja) * 2014-04-18 2018-05-30 オリンパス株式会社 カプセル内視鏡システム、カプセル内視鏡、受信装置、カプセル内視鏡の作動方法、及びプログラム
JP6249867B2 (ja) * 2014-04-18 2017-12-20 オリンパス株式会社 カプセル内視鏡システム、カプセル内視鏡、受信装置、カプセル内視鏡の撮像制御方法、及びプログラム
JP6339872B2 (ja) * 2014-06-24 2018-06-06 オリンパス株式会社 画像処理装置、内視鏡システム及び画像処理方法
EP3302242A4 (en) * 2015-05-27 2019-02-20 Senseonics, Incorporated WIRELESS ANALYTIC MONITORING
CN105608433B (zh) * 2015-12-23 2018-11-16 北京化工大学 一种基于核协同表达的高光谱图像分类方法
US10314514B2 (en) 2016-05-29 2019-06-11 Ankon Medical Technologies (Shanghai) Co., Ltd. System and method for using a capsule device
CN106909220A (zh) * 2017-02-21 2017-06-30 山东师范大学 一种适用于触控的视线交互方法
WO2019064704A1 (ja) * 2017-09-29 2019-04-04 オリンパス株式会社 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
US11857151B2 (en) 2018-09-12 2024-01-02 Steris Instrument Management Services, Inc. Systems and methods for standalone endoscopic objective image analysis
CN109460723A (zh) * 2018-10-26 2019-03-12 思百达物联网科技(北京)有限公司 对鼠情进行统计的方法、装置以及存储介质
KR20200107555A (ko) * 2019-03-08 2020-09-16 에스케이텔레콤 주식회사 영상 분석 장치, 방법 및 이에 이용되는 영상 분석 모델의 생성 방법
US10799090B1 (en) 2019-06-13 2020-10-13 Verb Surgical Inc. Method and system for automatically turning on/off a light source for an endoscope during a surgery
JP2022551507A (ja) * 2019-10-10 2022-12-09 アウスター インコーポレイテッド ライダー精度のための時系列測定処理
CN112837275B (zh) * 2021-01-14 2023-10-24 长春大学 胶囊内窥镜图像器官分类方法、装置、设备及存储介质
KR102625668B1 (ko) * 2021-07-07 2024-01-18 성신여자대학교 연구 산학협력단 캡슐 내시경 장치 및 병변 진단 지원 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190018A (ja) 2000-12-22 2002-07-05 Oki Electric Ind Co Ltd 画像領域分類装置および画像領域分類方法
WO2002073507A2 (en) 2001-03-14 2002-09-19 Given Imaging Ltd. Method and system for detecting colorimetric abnormalities
JP2002329188A (ja) * 2001-04-27 2002-11-15 Fuji Xerox Co Ltd データ分析装置
JP2005192880A (ja) 2004-01-08 2005-07-21 Olympus Corp 画像処理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4851984A (en) * 1987-08-03 1989-07-25 University Of Chicago Method and system for localization of inter-rib spaces and automated lung texture analysis in digital chest radiographs
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
IL119767A (en) * 1993-08-13 1998-02-08 Sophis View Tech Ltd System and method for diagnosis of living tissue diseases
IL108352A (en) * 1994-01-17 2000-02-29 Given Imaging Ltd In vivo video camera system
JP3123587B2 (ja) * 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
JP3778229B2 (ja) * 1996-05-13 2006-05-24 富士ゼロックス株式会社 画像処理装置、画像処理方法、および画像処理システム
US6611630B1 (en) * 1996-07-10 2003-08-26 Washington University Method and apparatus for automatic shape characterization
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
EP1025546A1 (en) * 1996-11-21 2000-08-09 Morphometrix Technologies Inc. Pipeline processor for medical and biological image analysis
US6317617B1 (en) * 1997-07-25 2001-11-13 Arch Development Corporation Method, computer program product, and system for the automated analysis of lesions in magnetic resonance, mammogram and ultrasound images
US6996549B2 (en) * 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
US6757412B1 (en) * 1998-10-21 2004-06-29 Computerzied Thermal Imaging, Inc. System and method for helping to determine the condition of tissue
GR1004180B (el) * 2000-03-28 2003-03-11 ����������� ����� ��������� (����) Μεθοδος και συστημα χαρακτηρισμου και χαρτογραφησης αλλοιωσεων των ιστων
US7024024B1 (en) * 2000-11-14 2006-04-04 Axle International System for contrast echo analysis
KR100374791B1 (ko) * 2000-11-22 2003-03-04 삼성전자주식회사 영상의 영역 구분 방법 및 장치
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices
KR100450793B1 (ko) * 2001-01-20 2004-10-01 삼성전자주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
CA2435290C (en) * 2001-01-23 2012-05-01 Biowulf Technologies, Llc Computer-aided image analysis
JP4112368B2 (ja) * 2001-02-13 2008-07-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 連続したデータセットの分析
US7231071B2 (en) * 2001-09-13 2007-06-12 Fujifilm Corporation Abnormal shadow detecting system
WO2003098522A1 (en) * 2002-05-17 2003-11-27 Pfizer Products Inc. Apparatus and method for statistical image analysis
US7536048B2 (en) * 2004-01-15 2009-05-19 Xerox Corporation Method and apparatus for automatically determining image foreground color
JP4767591B2 (ja) * 2005-06-01 2011-09-07 オリンパスメディカルシステムズ株式会社 内視鏡診断支援方法、内視鏡診断支援装置および内視鏡診断支援プログラム
EP2137696A2 (en) * 2007-03-16 2009-12-30 STI Medical Systems, LLC A method to provide automated quality feedback to imaging devices to achieve standardized imaging data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190018A (ja) 2000-12-22 2002-07-05 Oki Electric Ind Co Ltd 画像領域分類装置および画像領域分類方法
WO2002073507A2 (en) 2001-03-14 2002-09-19 Given Imaging Ltd. Method and system for detecting colorimetric abnormalities
JP2002329188A (ja) * 2001-04-27 2002-11-15 Fuji Xerox Co Ltd データ分析装置
JP2005192880A (ja) 2004-01-08 2005-07-21 Olympus Corp 画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1969992A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009004890A1 (ja) * 2007-07-04 2009-01-08 Olympus Corporation 画像処理装置、画像処理プログラムおよび画像処理方法
JP2009011563A (ja) * 2007-07-04 2009-01-22 Olympus Corp 画像処理装置および画像処理プログラム
US8107686B2 (en) 2007-07-04 2012-01-31 Olympus Corporation Image procesing apparatus and image processing method
CN112305441A (zh) * 2020-10-14 2021-02-02 北方工业大学 一种集成式聚类下的动力电池健康状态评估方法
CN112305441B (zh) * 2020-10-14 2023-06-16 北方工业大学 一种集成式聚类下的动力电池健康状态评估方法

Also Published As

Publication number Publication date
EP2412300A2 (en) 2012-02-01
WO2007077672A8 (ja) 2007-10-11
CN101947113B (zh) 2011-12-07
EP2412300B1 (en) 2014-03-26
EP2412300A3 (en) 2012-04-25
US8363962B2 (en) 2013-01-29
US8300955B2 (en) 2012-10-30
EP1969992A4 (en) 2011-04-27
EP2412301A2 (en) 2012-02-01
US8369626B2 (en) 2013-02-05
CN101947113A (zh) 2011-01-19
EP1969992B1 (en) 2012-05-02
EP2412301A3 (en) 2012-05-02
CN101947114A (zh) 2011-01-19
CN101947114B (zh) 2011-11-16
US20110255757A1 (en) 2011-10-20
US20110255758A1 (en) 2011-10-20
EP2412301B1 (en) 2014-04-23
EP1969992A1 (en) 2008-09-17
US20070165932A1 (en) 2007-07-19
US20110255759A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
WO2007077672A1 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4472631B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4624841B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4615963B2 (ja) カプセル型内視鏡装置
US8160329B2 (en) Medical image processing device and medical image processing method
US7953261B2 (en) Image processing apparatus and image processing method
JP4652694B2 (ja) 画像処理方法
JP4520405B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4624842B2 (ja) 画像処理方法、画像処理装置及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680049583.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006823274

Country of ref document: EP