WO2004049923A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2004049923A1
WO2004049923A1 PCT/JP2003/015582 JP0315582W WO2004049923A1 WO 2004049923 A1 WO2004049923 A1 WO 2004049923A1 JP 0315582 W JP0315582 W JP 0315582W WO 2004049923 A1 WO2004049923 A1 WO 2004049923A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
structural component
extracted
image processing
extraction
Prior art date
Application number
PCT/JP2003/015582
Other languages
English (en)
French (fr)
Inventor
Hirokazu Nishimura
Hideki Tanaka
Kenji Yamazaki
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to AU2003289291A priority Critical patent/AU2003289291A1/en
Priority to EP03780684A priority patent/EP1568307B1/en
Priority to US10/537,755 priority patent/US7599533B2/en
Publication of WO2004049923A1 publication Critical patent/WO2004049923A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to an image processing method for performing image processing such as facilitating evaluation of a feature amount on an endoscope image or the like.
  • an endoscope device capable of inserting an elongated insertion part into a body cavity, observing organs in the body cavity, etc. on a monitor screen using a solid-state imaging device or the like as an imaging means, and performing an inspection or diagnosis.
  • the organs in the body cavity are irradiated with ultrasonic waves, and the state of the organs in the body cavity can be observed and inspected or diagnosed on a monitor screen based on the reflection or transmittance of the ultrasonic waves.
  • Ultrasound endoscopes are also widely used.
  • the endoscopic diagnosis support device uses various features calculated from the region of interest (ROI) in the image, and uses threshold processing or statistical and non-statistical classifiers to determine the image to be diagnosed.
  • ROI region of interest
  • the objective and numerical diagnosis is supported by presenting to the physician whether the disease is classified as an unusual finding or a lesion.
  • the feature amount is a numerical value reflecting various findings on the endoscope image, and is obtained by applying an image processing method. For example, to characterize findings related to color tone such as "mucosa surface is red due to redness", RZ (R + G + B) is calculated for each pixel using the RGB data that constitutes the endoscope image. And use the average value as the feature value. (This feature is generally called chromaticity). In recent years, in the field of endoscopy, the hemoglobin index obtained from 3 21 og 2 (R / G) has been widely used as a color feature reflecting gastric mucosal blood flow.
  • Important findings for diagnosis in endoscopic observation include lesion shape and size, mucosal color tone, see-through blood vessel image, and mucosal surface structure (pattern image composed of pit etc.).
  • the present invention relates to an image processing method for see-through blood vessel images and mucosal surface structures among these findings.
  • a biological image of the same level as a conventional tissue specimen observed under a stereomicroscope can be observed at the time of clinical examination under an endoscope.
  • Various diagnostics have been actively studied and established in the gastrointestinal and bronchial fields.
  • IPCL Interpapillary capillary loop
  • Literature 4 (Shinhide Eto, Depressed early colorectal cancer, Japan Medical Center 1, 1996, pp. 33-40) Diagnosis of colorectal neoplastic lesions using the pit pat tern classification.
  • diagnosis for these endoscopic findings is based on the subjective judgment of the physician, there is a problem that the diagnosis results may differ due to differences in experience and knowledge. It is desired to provide quantitative and objective diagnosis support information.
  • the observation distance and angle of the endoscope image are not constant, and the observation target often has a curved surface shape. Therefore, the change in brightness in the image is large.
  • a dye or a dye typically typified by indigo carmine or crystal biolett is sprayed, but the staining concentration is different. Spraying unevenness (a state in which the dye remains even in the interstitial area other than the pit) may occur.
  • threshold processing is generally performed, but for these reasons, it is difficult to use a fixed threshold. Also, even if the threshold value is changed for each image (study in the character recognition field, etc.), There is a problem that the extraction result differs for each local part in the image due to the dark change and the state of dispersal of the dye, which may cause omission of extraction.
  • the present invention has been made in view of these problems, and an image processing method capable of satisfactorily extracting a structural portion to be extracted from an (endoscopic) image such as a blood vessel image, a pitpattern, etc. Also, it is possible to satisfactorily extract structural parts to be extracted in (endoscopic) images such as blood vessel images and pitpatterns, regardless of the imaging conditions of the images. It is also an object to provide an image processing method.
  • the purpose is to provide an image processing method for calculating feature values that realizes highly accurate diagnosis support information. Disclosure of the invention
  • the image processing method of the present invention performs an input step of inputting an image, a template that models a predetermined structural component in the image, and matching of the image input in the input step. It has an extraction step for extracting the structural components to be extracted in the image.
  • FIG. 1 is a block diagram illustrating a configuration of a personal computer that executes an image processing method according to a first embodiment of the present invention.
  • Fig. 2 Flowchart for explaining the processing content of the image processing method in the present embodiment.
  • Figure 3 Illustration for explaining the blood vessel image.
  • FIG. 4 is an explanatory diagram for explaining a blood vessel model in the present embodiment.
  • Figure 5 Illustration for explaining an example of template creation.
  • Fig. 6 An explanatory diagram for explaining an example of one-dimensional combination in template 'matching.
  • Figure 7 Explaining the determination of blood vessel position by template 'matching Explanatory drawing of a blood vessel image for performing.
  • Figure 8 An explanatory diagram for explaining the determination of the blood vessel position by template 'matching.
  • FIG. 9 is a flowchart for explaining a series of processes according to the second embodiment of the present invention.
  • Fig. 10 An explanatory diagram for explaining the frequency characteristics of a band-pass filter.
  • FIG. 1 is a diagram showing an example of an original image according to the embodiment.
  • FIG. 12 is a diagram showing a first image example in the course of processing.
  • FIG. 13 is a diagram showing a second image example in the middle of the process.
  • FIG. 4 is a diagram showing a third image example in the course of processing.
  • FIG. 5 is a diagram showing a fourth image example in the course of processing.
  • FIG. 6 is a diagram showing an example of a processing result image.
  • FIG. 7 is a flowchart for explaining a flow of a series of processes according to the third embodiment of the present invention.
  • Fig. 18 Flowchart showing the processing contents of the binary image generation in step S24 in the flowchart shown in Fig. 17.
  • Fig. 19 Illustration of the characteristics of a band-pass filter.
  • FIG. 20 An explanatory diagram of a blood vessel finding which is a target of the image processing method according to the fourth embodiment of the present invention.
  • FIG. 21 is a flowchart showing a series of processing contents according to the fourth embodiment of the present invention.
  • Figure 22 Illustration for explaining the feature value.
  • FIG. 23 Flow chart showing processing contents in the fifth embodiment of the present invention
  • FIG. 1 to 8 relate to a first embodiment of the present invention
  • FIG. 1 is a configuration for explaining a configuration of a personal computer for executing an image processing method according to the present embodiment.
  • FIG. 2 is a flow chart for explaining the contents of the image processing method in the present embodiment
  • FIG. 3 is an explanatory view for explaining a blood vessel image
  • FIG. 4 is a description of a blood vessel model in the present embodiment.
  • FIG. 5 is an explanatory diagram for explaining an example of template creation
  • FIG. 6 is an explanatory diagram for explaining an example of a one-dimensional combination in template matching
  • FIG. 4 is an explanatory diagram for explaining determination of a blood vessel position by template matching.
  • the first embodiment of the present invention relates to an image processing method particularly effective for extracting a tree-like blood vessel image in an endoscope image.
  • an image processing method according to the present embodiment will be described with reference to the drawings.
  • blood vessels differ not only in thickness but also in the depth under the mucous membrane, resulting in differences in sharpness (in general, the deeper they look, the more blurred).
  • a series of extraction processing described below is applied to such a blood vessel image. Then, a blood vessel image as a structural part to be extracted is extracted well, so that objective diagnosis support can be performed.
  • the endoscope image in the present invention is composed of three (color component) images of size (the number of pixels in the horizontal X vertical direction) SI SX XISY and RGB, and each of the R, G and B images is 0 to 255, respectively. It shall have an 8-bit gradation consisting of the following values.
  • FIG. 1 is an explanatory diagram of a configuration of a personal computer, peripheral devices, and the like used in the present embodiment. .
  • the personal computer 1 includes an arithmetic unit 2 as a CPU, a main memory 3 used for data storage and a work area, and a program storage unit 4 for storing programs and the like (in this embodiment, It has a hard disk (HD in Fig. 1), display means 5 such as a CRT, input means 6 such as a mouse and keyboard, and a magneto-optical disk (M0) drive. And other external storage means 7 are connected.
  • a hard disk HD in Fig. 1
  • display means 5 such as a CRT
  • input means 6 such as a mouse and keyboard
  • M0 magneto-optical disk
  • the external network 9 is connected to an external network 9 such as a LAN (Local Area Network) via a network adapter 8 or the like.
  • the external network 9 includes an endoscope device 11 for performing an endoscopy and an image file for filing image data of the endoscopy performed by the endoscope device 11.
  • Device 1 2 is connected.
  • the personal computer 1 can acquire image data from the image filing device 12 or the endoscope device 11 via the external network 9. I'm familiar.
  • the personal computer 1 reads the program stored in the program storage unit 4 into the main memory 3 and executes the program in the arithmetic unit 2.
  • the image data to be processed can be obtained as a file from the external storage means 7 either offline or via an external network 9 online.
  • the program storage means 4 If the program storage means 4 has a sufficient capacity, it can be stored in the personal computer 1 as in the case of the program.
  • a hard disk forming the program storage means 4 stores a template such as a blood vessel model in which a structural portion to be extracted from an input image is modeled as described later. are doing.
  • the CPU forming the calculating means 2 performs a calculation process of calculating the amount of correlation with the template by using a template for each pixel in the image, and starting from the one having the highest correlation.
  • the position is specified and the structural part is extracted.
  • the structural part to be extracted is extracted.
  • a plurality of different templates can be prepared so that extraction can be performed even for extraction targets having different shapes and sizes. I have.
  • FIG. 2 is a flowchart for explaining processing contents by the image processing method in the present embodiment.
  • step S1 the arithmetic means 2 of the personal computer 1 inputs a G image (component) as an original image taken from the image filing device 12 or the like.
  • a G image component
  • structural components such as blood vessel images and mucosal surface patterns are mainly composed of fluctuations in light absorption by blood in mucous membranes .
  • the known media unfinal lettering (pixel values in a mask including a target pixel are rearranged by size, and the value of the target pixel is replaced by a median value) is a pixel size of 3 ⁇ 3. Apply with.
  • inverse gamma correction is applied.
  • the ⁇ correction is a non-linear process applied to give a visually linear gradation when an image is displayed on a monitor or the like.
  • the inverse ⁇ correction uses this as the original linear gradation. It is to return to.
  • step S4 matching using a template, that is, a blood vessel extraction process using template matching is applied.
  • a template that is, a blood vessel extraction process using template matching
  • a semi-ellipse shown in Fig. 4 is obtained. (Or simply a semi-ellipse) can be modeled (hereinafter simply referred to as a blood vessel model).
  • the width of the blood vessel can be determined from the parameter W of the template.
  • the semi-elliptical function in Fig. 4 is the coordinate of a pixel when x is seen in the one-dimensional direction, and y is the pixel value.
  • W and D are parameters that define the width and depth of the semi-elliptical shape of the blood vessel model in FIG. 4, respectively, and k is a fixed real number, for example, 15 for an endoscopic image. Furthermore, since various blurs are added to the actual endoscopic image due to defocus, etc., the Gaussian function is applied to the blood vessel model obtained from equation (1). Smoothing processing (filtering by a convolution operation on a digital image. The convolution operation is a known technique and will not be described here).
  • is the standard deviation of the Gaussian function, which is used as a parameter to define the degree of blurring.
  • is the standard deviation of the Gaussian function, which is used as a parameter to define the degree of blurring.
  • a scale conversion (density conversion) in the y direction is applied by a logarithmic conversion in order to exclude an influence due to a difference in image brightness in matching described later.
  • the difference in light quantity at the time of imaging affects the pixel value as a multiplication term, but is separated as an addition term by logarithmic conversion, and the effect can be reduced. Can be increased. In other words, by applying scale conversion by logarithmic conversion, a blood vessel image or the like can be favorably extracted irrespective of imaging conditions.
  • the blood vessel model which is a continuous function value, is discretized into 10 sub-elements per template element (corresponding to a pixel for an image), and is further discretized.
  • Create a discretized template by calculating the average value of 10 sub-element values (averaging has the effect of smoothing out variations between template elements) .
  • the actual blood vessel image has various widths (thickness) and depths (the magnitude of the change in the pixel value)
  • a plurality of texts can be obtained by changing the combination of W and D.
  • Create a template it is possible to add a template by changing ⁇ to change the degree of blur.
  • FIG. 5 shows an example of a template obtained by changing W and ⁇ .
  • the size of the template depends on W and ⁇
  • the calculation is performed by calculating a normalized cross-correlation R represented by (the description of the normalized cross-correlation is omitted because it is a known technique).
  • is the size of the template
  • fx (i) is the i-th pixel of N pixels cut out in one dimension from the image according to the template
  • fxM is fx (i)
  • T (i) is the value of the i-th element of the template
  • tM is the average of t (i).
  • R has a value of 0 ⁇ R ⁇ 1, and the closer to 1, the higher the coincidence.
  • the directions of the template and the pixels to be cut out are, for example, 0 °, 45 °, 90 °, and 135 ° shown in FIG. Apply for direction.
  • KXM normalized cross-correlations R are calculated for each pixel. Note that even if D is fixedly set, the magnitude relationship of the normalized cross-correlation R for each template is invariable, so in the following description, a fixed value is set for simplicity. And '
  • step S5 it is determined whether there is a blood vessel centering on the pixel of interest based on the value of the normalized cross-correlation R calculated in step S4. .
  • the judgment process is performed as follows.
  • step S6 the determination result in step S5 is stored in the external storage means 7 or the like.
  • C the result of the following table a [k] is stored.
  • ISXX ISY a table a [ISXX ISY] of the same size as the image, ISXX ISY, is prepared and all elements are initialized to 0.
  • t is given as a continuous numerical value such as l ⁇ t ⁇ KXM for KXM normalized cross-correlations Rij. If it is determined that no blood vessel exists, the table a [k] remains 0.
  • step S7 it is determined whether or not the processing in steps S4 to S6 has been applied to all the pixels on the image. If not, the process returns to step S4 to return to the next pixel (k The processing of steps S4 to S7 is applied again from the xth pixel to the (k + 1) th pixel x (k + l). If the process has been applied to all pixels, the process proceeds to step S8.
  • a blood vessel extraction image is created from the blood vessel extraction result created in step S6.
  • an area b [ISXXISY] of size ISXXISY is prepared for creating a blood vessel extraction image, all pixels are initialized to 0, and the value of the line segment is set to 1. Substitute for each corresponding pixel
  • a blood vessel extraction image in step S8 it may be considered that blood vessels exist in both adjacent pixels.However, a pixel having a large normalized cross-correlation Rmax is employed, and one is excluded. You By doing so, you can get the correct result.
  • a [I SX XI SY] an area b [I SX XI SY] for storing the Rmax of each pixel is prepared, and the value is substituted in step S6.
  • a blood vessel extraction image can be satisfactorily created from an endoscope image.
  • a multi-tone image can be applied to an image other than an endoscope, for example, an X-ray angiography image.
  • an endoscope for example, an X-ray angiography image.
  • the extraction target is not limited to blood vessels.
  • a series of processing including template matching is applied to all pixels in an image, but it is also possible to apply the processing every few pixels to shorten processing time. is there.
  • a pixel having a low value is likely to be a blood vessel
  • a pixel having a locally low value may be searched in advance, and the search may be applied only to the obtained pixel.
  • the pixel of interest has a minimum value in a 3 ⁇ 3 area around the pixel of interest, it can be set as a processing target.
  • this embodiment has the following effects.
  • a blood vessel extraction image or the like to be extracted can be satisfactorily created from an endoscopic image or the like.
  • FIG. 9 is a flow chart for explaining a series of processes in the present embodiment
  • FIG. 10 is a frequency characteristic of the band-pass filter.
  • FIGS. 11 to 16 are explanatory diagrams for explaining an original image, a processing progress, and a processing result image in the present embodiment.
  • a series of image processing and analysis in this embodiment is performed by a program that operates on the personal computer 1 as in the first embodiment. Is realized.
  • the configuration of the personal computer 1 is the same as that of FIG. 1, and a description thereof will be omitted.
  • the present embodiment relates to an image processing method particularly effective for extracting a structure of a large intestine pit (hereinafter referred to as a pit pattern) in an endoscopic image.
  • BPF Band Pass Filtering
  • a filter having a high-frequency band-pass characteristic can obtain an extracted image along the structure shape, but is weak to noise and the like, and a filter having a low-frequency band-pass characteristic has an extracted shape. Utilizing the fact that it is larger than it is but has strong characteristics against noise, etc., it separates the extraction target from the region containing each structural component such as noise, and localizes each region including the extraction target locally. By setting the threshold, a good extraction result image is obtained.
  • an R image is used as an original image (step S11).
  • Figure 11 shows an example of an endoscope R image as an original image. Show. In pit pattern observation, a colorant (drug) called indigo canolemin is applied. Dye is stored in the pits, which are recesses on the mucosal surface, and has a blue-green color tone, so the structure is most reflected in the R image.
  • drug drug
  • step S12 noise removal and inverse ⁇ correction are applied as in steps S2 and S3 in FIG. 2 in the first embodiment. ⁇
  • band-pass filters BPF (Lo) and BPF (Hi) having different pass frequency band characteristics are applied to obtain respective processing result images.
  • the bandpass filters BPF (Lo) and BPF (Hi) use a Laplacian / Gaussian filter and set the pass frequency band relatively high (Hi) and low (Lo).
  • the pass frequency characteristics of Hi should be in line with the frequency band distribution of the structural component to be extracted, and Lo should be, for example, one octave lower than Hi.
  • the Laplacian-Gaussian filter is well-known, and will not be described in detail because it is detailed in the document “Vision, Sangyo Tosho, David Marmer, pp.58-66”.
  • FIG. 10 shows examples of frequency characteristics FLo and FHi of the band-pass filters BPF (Lo) and BPF (Hi) used in the present embodiment, respectively.
  • BPF Band-pass filters
  • Hi BPF
  • step S14 the threshold value is set to 0.0, and the binarization process is applied to the image of each of the bandpass filters BPF (Lo) and BPF (Hi).
  • the obtained binary images be ResLo and ResHi, respectively, and give a value of 1 if each pixel is extracted as a structural component, and give a value of 0 otherwise.
  • the results obtained by the band-pass filters BPF (Lo) and BPF (Hi) are 0 or less. Pixel as a structural component To extract.
  • all negative fluctuations are extracted, no omission of extraction due to changes in brightness or unevenness of pigments occurs.
  • step S15 a logical operation is performed for each pixel of ResLo and ResHi, and np regions (connected pixel groups) Pi (1 ⁇ i ⁇ np) and nn The area Nj (1 ⁇ j ⁇ nn) such as noise is extracted.
  • Figures 14 and 15 show examples of Pi and Nj images.
  • step S16 components such as noise that could not be completely excluded in step S15 are excluded.
  • the average value ⁇ Hi of each Pi and the neighboring pixels of size s X s centered on the center of gravity (cxi, cyi) of Pi Compare the average value i Hei of the excluded noise region Nj included in ⁇ .
  • Structural components have larger fluctuations than noise components, and are excluded if, for example, ⁇ Hi ⁇ ⁇ Hei.
  • step S17 an appropriate threshold value is set for each of the remaining Pis, and threshold processing, that is, re-binarization is performed.
  • the threshold is set using, for example, Otsu's discriminant analysis method.
  • step S18 the exclusion processing in the following step S18 is applied.
  • the exclusion processing by applying the same processing as in step S16 is applied again.
  • This Kodewa, and Hi ⁇ the exclusion criteria W 'ix Hei (w> 1. 0) By doing so, the exclusion effect is enhanced.
  • Fig. 16 shows an example of the extraction result image (the region of interest is set and the contour, the haration, etc. are excluded) extracted after the processing of step S18.
  • the image processing method according to the present embodiment can also extract structural components other than Pit (pore), such as a blood vessel image.
  • this embodiment has the following effects.
  • the present embodiment it is possible to obtain a good pit extraction image from an endoscopic image or the like even when there is a change in brightness, a difference in pigment concentration, or occurrence of unevenness.
  • pi uses the fact that the blue-green component of the color becomes stronger because the pigment is stored.
  • the ratio R / G may be calculated for each pixel from the R and G images to which is applied, and the average value for each area is calculated ⁇ Compare rgi and rgk, and exclude ⁇ rgi> ⁇ rgk (redder than surrounding extraction area).
  • noise area exclusion was performed by threshold processing (deletion of small areas) on the number of area pixels after binarization extraction.
  • exclusion is performed based on color tone information of local structural components. As a result, an extracted image without erroneous exclusion of small pits can be obtained.
  • the image processing method according to the present embodiment can also extract a structural component other than Pit, such as a blood vessel image.
  • FIGS. 17 to 19 ′ relate to the third embodiment
  • FIGS. 17 and 18 are flowcharts for explaining a flow of a series of processes in the present embodiment
  • FIG. 19 is a band diagram.
  • FIG. 4 is an explanatory diagram of a characteristic example of a pass-type filter.
  • a series of image processing and analysis in the present embodiment is realized as a program that operates on the personal computer 1 as in the first embodiment.
  • the configuration of the personal computer 1 is similar to that of FIG.
  • a reference image in which a structural component to be extracted is specified in advance on an endoscope image is used to compare the degree of coincidence with the binarized extraction processing result by combining a plurality of parameters. Based on A method for setting appropriate parameters will be described.
  • the extraction target is a large intestine pit pattern that is capable of spraying indigo carmine from an endoscopic image.
  • extraction of the bandpass filtering (BPF) and filtering results by threshold processing is performed.
  • step S21 an R image is input as an original image, and noise removal and noise removal are performed in step S22 in the same manner as in step S12 of FIG. 9 in the second embodiment.
  • Apply inverse gamma correction Apply inverse gamma correction.
  • step S23 a plurality of parameters are generated. That is, as processing parameters for creating a binary image in the next step S24, N (1N) band-pass filters having different frequency band characteristics and P Set the extraction threshold.
  • P 5 is set.
  • a binary image Bij is created using the parameters set in step S23.
  • Figure 18 shows the details of the binary image creation process in step S24.
  • step S31 in FIG. 18 the R image created in step S22 after noise removal and inverse gamma correction is applied is input.
  • step S32 the band-pass filter processing (abbreviated as BPF in Fig. 18) using the ⁇ band-pass filters Fi set in step S23 is applied.
  • step S33 the value obtained in step S32 is obtained.
  • step S24 After all of the NXP binary images Bij shown in the next step S34 are created, the processing in step S24 is completed, and the flow advances to step S25 in FIG.
  • step S25 the extraction result matching degree is calculated as follows for each of the obtained N X P binary images Bi j.
  • an operator prepares a reference image in which the structural component to be extracted is visually specified in advance for the original image.
  • the reference image is created by using, for example, general drawing (pain) software or the like, and the shape of the structural component (the pit pattern of the large intestine in the present embodiment) is determined based on the visual state.
  • Use a solid paint Use a solid paint.
  • a color that does not normally occur on a living mucous membrane in an endoscopic image is used as a drawing color for specifying that it is a structural component.
  • S the created reference image is referred to as S.
  • the extraction result coincidence with the reference image S is calculated.
  • an evaluation function based on the number of coincidences of extracted and non-extracted pixels with the binary image Bij and the reference image S is used.
  • M ij indicates the number of extracted matching pixels between the binary image B ij and the reference image S
  • L ij indicates the number of unmatched extracted pixels (the number of pixels extracted on the one hand and not extracted on the other).
  • Equation (4) is an evaluation function for the extraction result, and it can be judged that the larger the value of aij, the higher the degree of coincidence and the appropriate parameter. After calculating aij for all Bij, proceed to step S26. It should be noted that it is conceivable to use a function that assigns weight to the matching of the number of extracted and unextracted pixels, depending on which is prioritized. I do.
  • step S26 after comparing each aij, i and j giving the maximum aij are specified, and the corresponding band-pass filter Fi and threshold value Thj are determined as processing parameters.
  • the parameters can be set without complicated trial and error. A good extraction result image can be obtained.
  • this embodiment has the following effects.
  • FIG. 21 is an explanatory diagram for explaining a blood vessel finding which is a target of the image processing method according to the embodiment
  • FIG. 21 is an explanatory diagram of a series of processing contents in the present embodiment
  • FIG. 22 is a diagram for explaining feature amounts in the present embodiment.
  • an image processing method for calculating a feature quantity useful for discrimination of a lesion or the like from an image resulting from binarization extraction processing on a structural component in an image will be described.
  • a series of image processing in this embodiment is realized as a program that operates on the personal computer 1 as in the first embodiment.
  • the configuration of the personal computer 1 is the same as that shown in FIG. 1, and a description thereof will be omitted.
  • irregularities in individual vascular shapes may be important for diagnosis.
  • One of these irregular findings is a change in blood vessel width.
  • the blood vessel image of the lesion shown in FIG. 20 (B) has a wide or narrow change with respect to a normal blood vessel image having a substantially uniform width.
  • a wide or narrow change is calculated as a feature amount by applying a series of processes described below.
  • a series of processes in the present embodiment will be described with reference to FIG.
  • a blood vessel extraction binary image is input.
  • a blood vessel extraction binary image is created by using any of the binarization extraction processes described in the first to third embodiments of the present invention.
  • step S42 the application of the labeling process Numbering is performed on each extracted blood vessel image.
  • the present embodiment it is assumed that there are K regions Pk (l ⁇ k ⁇ K).
  • distance transformation and skeleton processing are one of the image analysis methods generally called skeleton, and are used for extracting information on the width of a figure, extracting shape features, and the like.
  • Distance transformation 'The details of the skeleton are detailed in the literature "Introduction to Computer Image Processing, Soken Publishing, Supervised by Tamura Hideyuki, pp. 77-80", and the explanation is omitted.
  • the width of the blood vessel with respect to the center line of the blood vessel image and the position of M pixels Qm (1 The corresponding distance Dm can be determined.
  • step S44 the width irregularity evaluation value V is calculated based on the pixel Qm on the center line and the distance Dm obtained in step S43.
  • the standard deviation of the distance Dm at all Qm is also used as the evaluation value
  • n D indicates the average value of D km. It shows that the larger the value of V, the larger the variation of the width.
  • the classifier using the teacher data calculated from the normal and lesion case image groups for example, a linear discriminant function, a neural network) Network, etc.).
  • the application of the series of image processing methods according to the present embodiment is useful for discriminating a lesion having irregularities from an image resulting from the binarization extraction processing on structural components in an image. It is possible to calculate different feature quantities.
  • a blood vessel image in an endoscope image is taken as an example.
  • processing in which the feature amount relating to the width calculated in the present embodiment is useful is not limited to these. It is also applicable to pit images or X-ray angiographic images.
  • this embodiment has the following effects.
  • FIGS. an image processing method for calculating a feature amount useful for discriminating a lesion or the like from a blood vessel image in an endoscope image will be described. More specifically, in an endoscope image composed of three RGB images, image processing is applied to each image, and a plurality of obtained feature amounts are used.
  • Blood vessels running under the living mucosa have different depths under the mucosa. In other words, it can be largely classified into a thick blood vessel traveling in a deep part under the mucous membrane, a blood vessel traveling in an intermediate part, and a fine blood vessel traveling in a part close to the surface layer.
  • the wavelength of the irradiation light is such that R has the longest wavelength and B has the shortest wavelength.
  • step S51 a blood vessel extraction binary image for each of RGB is input.
  • the blood vessel extraction binary image in this embodiment is obtained by applying any of the binarization extraction processes described in the first to third embodiments of the present invention to each of the R, G, and B images. Can be created.
  • the series of processing in steps S52 to S54 is applied to each image.
  • steps S52 to S54 the same processing as steps S42 to S44 in FIG. 21 described in the fourth embodiment of the present invention is applied to each of the RGB images. Is calculated as Vr, Vg, and Vb.
  • step S55 The processing ends with Vr, Vg, and Vb obtained in step S55 as the feature vectors for the blood vessel image of the endoscopic image to be processed.
  • the feature vectors (Vr, Vg, Vb) can be applied to classifiers (eg, linear discriminant functions, neural networks, etc.) using teacher data calculated from normal and lesion case image groups.
  • classifiers eg, linear discriminant functions, neural networks, etc.
  • the width irregularity evaluation value V shown in the fourth embodiment has been described as an example of the feature value to be calculated. It is important that the information of blood vessels with different depths be traced and used as a feature vector for identification processing and the like. Therefore, for example, by applying thinning to the binarized extracted image, another feature amount such as the number of branches and intersections can be used as another feature amount.
  • this embodiment has the following effects.
  • a good blood vessel extraction image can be obtained by applying the extraction processing to each of the R and G images and combining the results.
  • a band-pass type image for each of the R and G images is used.
  • a BPF processing result image based on filtering and binarization extraction processing using threshold processing are used, and a series of processing until a BPF processing result image is obtained is common to the other embodiments, so description thereof is omitted. I do.
  • the BPF processing result images of the R and G images are assumed to be Br and Bg, respectively. Also, let each pixel in Br and Bg be Br (X, y) and Bg (x, y) (1 ⁇ x ⁇ ISX, 1 ⁇ y ⁇ ISY), respectively.
  • Thr 10 olse (ifBr (x, y) ⁇ Thr)
  • the combined BPF image Brg is obtained by extracting the structural components present in each of the R and G images for each pixel without leaking. Finally, a binary image is created by applying threshold processing to Brg (x, y).
  • a structural portion to be extracted such as a blood vessel image and a pit pattern.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本発明の画像処理方法は、画像を入力する入力ステップと、前記画像中の所定の構造成分をモデル化したテンプレートと前記入力ステップで入力された画像とのマッチングを行い、この画像中の抽出対象とする構造成分を抽出する抽出ステップを有する。

Description

明 細 書 画像処理装置および画像処理方法 . 技術分野
本発明は内視鏡画像等に対して特徴量を評価し易く する等の画 像処理を行う画像処理方法に関する。 背景技術
近年、 細長の挿入部を体腔内に挿入し、 固体撮像素子等を撮像 手段に用いて体腔内臓器等をモニタ画面によ り観察し、 検査ある いは診断する こ とのできる内視鏡装置が広く 用いられている。 ま た、 前記体腔内臓器へ超音波を照射し、 この超音波の反射あるい は透過度等によ り 該体腔内臓器の状況をモニタ画面によ り観察し 検査あるいは診断する こ と のでき る超音波内視鏡装置も広く 用い られている。
これらの内視鏡装置を用いた最終的な診断は医師の主観に依存 している部分が多大であ り 、 客観的 · 数値的な診断に直接結びつ く 内視鏡診断支援装置の実現が望まれている。
内視鏡診断支援装置は画像内における関心領域 ( R O I ) から 算出された様々な特徴量を用い、 閾値処理あるいは統計的 · 非統 計的識別器を用いて診断対象とする画像がどのよ う な所見や病変 に分類されるかを医師に提示する こ とによ り 、 客観的 · 数値的な 診断の支援を行う ものである。
特徴量は内視鏡画像上の様々な所見を反映した数値であ り 、 画 像処理手法の適用によ り得られる ものである。 例えば 「発赤によ り粘膜表面が赤い」 といった色調に関する所見を特徴量化する場 合には、 内視鏡画像を構成する RGB各データ を用いて、 RZ ( R + G + B ) を各画素ごと に求め、 その平均値を特徴量と して使用する こ とができ る (この特徴量は一般に色度と呼ばれる) 。 また、 近年 内視鏡分野においては胃粘膜血流量を反映した色調の特徴量と し て、 3 2 1 o g 2 ( R / G) によ り 得られるヘモグロ ビン指標が広 く 用いられている。
さ らに、 透見血管像に見られる血管の拡張 · 蛇行や胃小区の形 態の大小 · 不整度 · 胃小区間の溝幅等、 内視鏡画像における粘膜 表面構造に関する所見も種々の疾患に対する診断の重要な要素と なってお り 、 これらに対しても画像処理手法の適用によ り特徴量 と して数値化する こ とができ る。 このよ う な特徴量算出において は、 特許第 2 9 1 8 1 6 2 号公報に示されている手法がある。
近年においては、 公知の G a b o r フィルタを用いて算出され る G a b o r 特徴に対し内視鏡画像への適用のための改良を加え た空間周波数解析手法によ り 、 粘膜表面構造の細かさ、 粘膜表面 構造が呈する模様の方向性等を特徴量と して数値化する内視鏡画 像処理方法がある。
また、 複数の異なる所見から得た各特徴量を組み合わせて特徴 ベタ トルと して用いる こ と によ り 、 よ り 複雑かつ正確な診断の支 援を行う こ とができ る。 内視鏡診断支援装置の精度向上において は、 重要な内視鏡画像所見を数値化するための高精度の特徴量算 出手法が非常に重要である といえる。
このよ う な内視鏡診断支援装置及び特徴量算出手法の例と して . 特開平 1 0 — 1 4 8 6 4号公報に示す例がある。
内視鏡観察における診断上重要な所見と して、 病変形状 · 大き さ、 粘膜色調、 透見血管像及び粘膜表面構造 (p i t等によ り構成さ れる模様像) があげられる。 本発明は、 これらの所見の中で透見 血管像及び粘膜表面構造に対する画像処理方法に関する ものであ る。
透見血管像が重要な所見と なる疾病と しては、 例えば潰瘍性大 腸炎があげられ、 炎症の程度、 寛解の判定等において重要なもの と なってレ、る。
また、 最近の内視鏡装置においては、 高画質化、 固体撮像素子
( CCD等) の高画素化、 さ らには通常の内視鏡と 同等の外径と操作 性を保ちつつ拡大観察 (ズー ミ ング) 機能を有する拡大内視鏡の 登場によ り 、 粘膜表面の極めて微細な毛細血管像や胃 · 大腸の腺 口 (Pit) 構造が明瞭に観察されるよ う になっている。
従来組織標本を実体顕微鏡下で観察していたのと同レベルの生 体像を内視鏡下で臨床検査時に観察する こ とが可能とな り 、 それ らの微細構造観察所見を用いた新たな診断学が消化管及び気管支 分野において盛んに研究 · 確立されてきている。
このよ う な例と しては、
文献 1 (H. Inoue, MAGNIFICATION ENDOSCOPY IN THE SOPHAGUS AND STOMACH, Digestive Endoscopy, JAPAN ASTR0ENTER0L0GICAL ENDOSCOPY SOCIETY, Vol.13, Supplement,
July 2001, pp. S40-S41) に示された食道粘膜の微小血管像
( Interpapillary capillary loop, IPCL) における开 態変ィ匕によ る食道腫瘍性病変 (腺腫、 がん) の診断。
文献 2 K. Yagi, ENDOSCOPIC FEATURES AND MAGNIFIED VIEWS OF THE CORPUS IN THE HELICOBACTER PYLORI-NEGATIVE STOMACH, Digestive Endoscopy, JAPAN GASTROENTEROLOGICAL ENDOSCOPY SOCIETY, Vol.13, Supplement, July 2001, pp. S34-S35) における 胃集合細静脈観察によるヘリ コバク タ ピロ リ感染診断。
文献 3 (K. Yao他, MICR0GASTR0SC0PIC FINDINGS OF MUCOSAL MICROVASCULAR ARCHITECTURE AS VISUALIZED BY MAGNIFYING ENDOSCOPY, Digestive Endoscopy, JAPAN GASTROENTEROLOGICAL ENDOSCOPY SOCIETY, Vol.13, Supplement,
July 2001, pp. S27-S33) における胃微細血管像観察による粘膜萎 縮及び腫瘍性病変種別診断。
文献 4 (ェ藤進英, 陥凹型早期大腸癌, 日本メディ カルセ ンタ 一, 1996, pp.33-40) における p i t pat t ern分類を用いた大腸腫瘍 性病変診断。
文献 5 (渋谷 潔 他, 拡大気管支 テ"ォスコ -フ。を用いた Bronchial Dysplasiaの微細観察, 第 22卷 第 8号, 2000年 12月 , pp.613-616) における気管支の微細血管網観察による気管支炎 · がんに对する 診断。
があげられる。 - 一方、 これらの内視鏡所見に対する診断は医師の主観判断に基 づく ものである こ と から、 経験及び知識の違いによ り診断結果が 異なる可能性がある という 問題があ り 、 画像処理による定量的か つ客観的な診断支援情報の提供が望まれている。
よ り具体的には、 血管、 pit等の構造を画像から抽出 し、 その形 態、 大き さ、 均一性、 規則性等を様々な画像処理方法の適用によ り数値化 (特徴量と呼ばれる) し、 線形判別関数、 ニューラルネ ッ ト ワーク等の識別器を用いる こ とで客観的診断支援を実現する c また、 本出願人においては例えば特許第 2 9 1 8 1 6 2号にお いて二値化処理を用いた画像処理 · 解析手法を開示している。
しかしなが ら、 二値化等によ る構造抽出をと もな う画像処理方 法の内視鏡画像への適用においては、以下のよ う な問題があった。
内視鏡画像は観察距離 · 角度が一定ではなく 、 さ らに観察対象 が曲面形状を有する場合も多々 ある こ と から画像中の明暗変化が 大きレ、。 また、 大腸 pit pattern観察像においては pitの明瞭化の ために一般にイ ンジゴカル ミ ンあるいはク リ ス タルバイ オレ ツ ト 等に代表される色素 · 染色剤を撒布するが、 染色濃度が異なった り 、 撒布むら (pit でない間質部にまで色素が残って しま う状態) が発生する場合がある。
二値化処理においては一般に閾値処理を実行するが、 これらの 理由から固定的な閾値を用いる こ とは困難である。 また、 画像ご とに閾値を変更 (文字認識分野等で研究されている) しても、 明 暗変化や色素の撒布状態によ り 、 画像内の局所ごと に抽出結果に 違いが現われ、 抽出漏れ等が発生するこ とがある と いう 問題があ る。
本発明'はこれらの問題を鑑みてなされたもので、 血管像、 p i t p a t t ern等の (内視鏡) 画像中の抽出対象となる構造部分を良好に 抽出するこ とができ る画像処理方法を提供する こ と を目的とする また、 血管像、 p i t p a t t ern等の (内視鏡) 画像中の抽出対象と なる構造部分を画像の撮像条件によ らず良好に抽出するこ とがで き る画像処理方法を提供する こ と も 目的とする。
さ らに、 高精度の診断支援情報を実現する特徴量算出のための 画像処理方法を合わせて提供する こ と を 目 的とする。 発明の開示
本発明の画像処理方法は、 画像を入力する入力ステ ップと 、 前 記画像中の所定の構造成分をモデル化したテンプレー ト と前記入 力ステップで入力された画像とのマッチングを行い、 この画像中 の抽出対象とする構造成分を抽出する抽出ステ ップを有する。 図面の簡単な説明
図 1 : 本発明の第 1 の実施形態である、 画像処理方法を実行す るパーソナルコ ン ピュータ の構成を示すブロ ッ ク図。
図 2 : 本実施形態における画像処理方法の処理内容を説明する ためのフ ローチヤ一ト。
図 3 : 血管像を説明するための説明図。
図 4 :本実施形態における血管モデルを説明するための説明図。 図 5 : テンプレー 卜 の作成例を説明するための説明図。
図 6 : テンプレー ト ' マッチングにおける 1 次元方向の組み合 わせの例を説明するための説明図。
図 7 : テンプ レー ト ' マッチングによる血管位置の判定を説明 するための血管像の説明図。
図 8 : テンプレー ト ' マッチングによ る血管位置の判定を説明 するための説明図。
図 9 本発明の第 2 の実施形態における一連の処理を説明する ためのフ ローチヤ一 ト。
図 1 0 : 帯域通過型フ ィ ルタの周波数特性を説明するための説 明図。
図 1 本実施形態における原画像例を示す図。
図 1 2 処理経過の途中の第 1 の画像例を示す図。
図 1 3 処理経過の途中の第 2 の画像例を示す図。
4 処理経過の途中の第 3 の画像例を示す図。
5 処理経過の途中の第 4 の画像例を示す図。
図 6 処理結果画像例を示す図。
図 7 本発明の第 3 の実施形態における一連の処理の流れを 説明するためのフ ローチヤ一ト。
図 1 8 : 図 1 7 に示すフローチャー トにおけるステップ S 2 4 の二値画像生成の処理内容を示すフローチヤ一ト。
図 1 9 : 帯域通過型フィルタの特性例の説明図。
図 2 0 : 本発明の第 4 の実施形態における画像処理方法の対象 と なる血管所見の説明図。
図 2 1 : 本発明の第 4 の実施形態における一連の処理内容を示 すフ 口一チヤ一ト。
図 2 2 : 特徴量を説明するための説明図。
図 2 3 : 本発明の第 5 の実施形態における処理内容を示すフロ
、— - — f~ャ ·■ ト
発明を実施するための最良の形態
以下、 図面を参照して本発明の実施形態を説明する。
(第 1 の実施形態) まず、 本発明の第 1 の実施形態について図 1 〜図 8 を用いて説 明する。
図 1 〜図 8 は本発明の第 1 の実施形態に係 り 、 図 1 は本実施形 態におげる画像処理方法を実行するためのパー ソナルコ ン ビユー タ の構成を説明するための構成図、 図 2 は本実施形態における画 像処理方法の内容を説明するためのフ ローチヤ一 ト、 図 3 は血管 像を説明するための説明図、 図 4 は本実施形態における血管モデ ルを説明するための説明図、 図 5 はテンプレー 卜の作成例を説明 するための説明図、 図 6 はテンプレー ト · マッチングにおける 1 次元方向の組合わせ例を説明するための説明図、 図 7及び図 8 は テンプレー ト · マッチングによる血管位置の判定を説明するため の説明図である。
本発明の第 1 の実施形態は、 特に内視鏡画像における樹枝状の 血管像の抽出に有効な画像処理方法に関する。 以下、 図面を参照 して本実施形態における画像処理方法について説明する。
内視鏡画像における透見血管像は、 様々な太さの血管が樹枝の よ う な構造を呈する ものがある。 これは、 ド レナージ血管と呼ば れる太い血管と、 そこから分岐する細い血管によ り構成されてい る 0
これらの血管は太さのみでなく 粘膜下に存在する深さ も異なる こ とから鮮鋭度 (一般に深い程ぼけて見える) にも違いが生じて いる。 このよ う な血管像に対して、 以下に説明する一連の抽出処 理を適用する。 そ して、 抽出対象となる構造部分と しての血管像 を良好に抽出 して、 客観的な診断支援ができ る よ う にする。
なお、 本発明における内視鏡画像は大き さ (横 X縦の画素数) 力 S I SX X I S Y、 RGBの 3 (色成分) 画像から構成され、 R、 G及び Bの 各画像はそれぞれ 0から 255の値からなる 8ビッ ト の階調を備える ものとする。
本実施形態における一連の画像処理方法は、 パーソナルコ ン ビ ュ一タ上で動作するプロ グラムと して実現される。 図 1 は本実施 形態に用いるパーソナルコンピュータ及び周辺機器等の構成の説 明図である。 .
パー ソナルコ ン ピュータ 1 は、 CPUである演算手段 2 と、 データ 格納や作業エ リ アに使用 されるメイ ンメモ リ 3 と、 プロ グラ ム等 を記憶するプロ グラム記憶手段 4 (本実施形態においてはハー ド ディスク (図 1 では HDと略記) であるものとする) を備える と共 に、 CRT等の表示手段 5 と 、マウス、キーボー ド等の入力手段 6 と、 光磁気ディ スク (M0) ドライブ等の外部記憶手段 7 とが接続され ている。
また、 ネッ ト ワークアダプタ 8等を介して LAN ( Lo c a l Ar e a Ne twork ) 等の外部ネ ッ ト ワーク 9 に接続されている。 また、 この 外部ネッ ト ワーク 9 には内視鏡検査を行う 内視鏡装置 1 1や、 内 視鏡装置 1 1 によ る内視鏡検査の画像データ をフアイ リ ング等す る画像フアイ リ ング装置 1 2 が接続されている。
そ してパー ソナルコ ン ピュータ 1 は、 外部ネ ッ ト ワーク 9 を介 して画像フアイ リ ング装置 1 2或いは内視鏡装置 1 1 等から画像 データの取得を行う こ と ができ るよ う になつている。
このパー ソナルコ ン ピュータ 1 は、 プロ グラ ム記憶手段 4 に記 憶されたプロ グラムをメ イ ンメモ リ 3 に読み込み、 演算手段 2 に おいて実行する。
また、 画像処理対象と なる画像データは、 フ ァ イ ルと して外部 記憶手段 7からオフ ライ ンも しく は外部ネ ッ ト ワーク 9 を経由 し たオンライ ンでの取得が可能となっている。 また、 プロ グラム記 憶手段 4 が十分な容量を備える場合には、 プロ グラムと同様にパ 一ソナルコンピュータ 1 内に保存するこ と も可能と なっている。
本実施形態では、 例えばプロ グラム記憶手段 4 を形成するハー ドディ スクには、 後述するよ う に入力される画像から抽出対象と する構造部分をモデル化 した血管モデル等のテ ンプレー トを格納 している。
そ して、 演算手段 2 を形成する CPUによ り 、 画像中の各画素に対 してテンプレー ト を用い、 テンプレー ト と の相関量を算出する演 算処理を'行い、 相関が高いものからその位置を特定して、 その構 造部分を抽出する。 つま り テンプレー トマッチングを行う こ と に よ り 、 抽出対象とする構造部分を抽出する。 この場合、 テンプレ 一卜のパラメータの値を変更するこ と によ り 、 複数の異なるテン プレー トを用意して、 異なる形状、 サイズの抽出対象に対しても 抽出ができ るよ う に している。
図 2は本実施形態における画像処理方法による処理内容を説明 するためのフローチヤ一トである。
始めに、 ステ ップ S 1 においてパーソナルコンピュータ 1 の演 算手段 2 は、 画像フアイ リ ング装置 1 2等から取り込む原画像と して G画像 (成分) を入力する。 通常の (色素、 染色剤等を使用 し ない) 内視鏡画像においては、 血管像、 粘膜表面模様等の構造成 分は、 主に粘膜内の血液による光の吸収変動によ り構成される。
よ り詳しく は、 血液中のヘモ グロ ビンの吸収帯域 (波長) に最 も依存し、構造成分は一般に G画像に多く 含まれる こ とが知られて いる。 具体的には血液量が多いほど吸収が大き く 、 G画像の画素の 値は低く な り 、 少ないほど吸収されず反射されるこ とから画素の 値は高く なる。
次のステ ップ S 2 においては、 前処理と してランダムノイズ等 に対するノイズ除去処理を適用する。 本実施形態においては公知 のメ ディ アンフイノレタ リ ング (注目画素を含むマスク内の画素値 を大き さで並べ替え、 中央値で注目画素の値を置き換える) を大 き さ 3 X 3 の画素サイ ズで適用する。
次のステ ップ S 3 においては逆 γ補正を適用する。 γ 補正は、 画像をモニタ等に表示する際に視覚的に線形な階調を与えるため に適用された非線形処理であ り 、 逆 Ύ補正はこれを元の線形階調 に戻すものである。
続く ステップ S 4 においては、 テンプレー ト を用いたマツチン グ、 つま り テンプレー ト · マッチングによる血管抽出処理を適用 する。 以下、 本ステップ 4 におけるテンプレー ト ' マ ッ チングの 詳細について説明する。
内視鏡画像における血管像に対して、 例えば図 3 に示すよ う に 1 次元方向 ( X方向)'で画素値の変動を抽出 して切 り 出 し した場 合、 図 4 に示す半楕円 (も しく は半円) に類した形状 (以下、 単 に半楕円形状とする) にモデル化 (以下、 これを血管モデルと称 する) する こ とができ る。
したがって、 半楕円形状を規定する W及び Dをパラメ タ と したテ ンプレー トを作成し、 相関が大である画素を抽出する こ とで血管 位置を特定し、 抽出する こ と ができ る。 また、 血管の幅について は該当するテ ンプレー ト のパラメ タ Wから決定する こ とができる。 図 4 における半楕円形状の関数は、xを 1 次元方向で見た画素の座 標、 yを画素値と して
v
Figure imgf000012_0001
と表すこ とができる。
こ こ で、 W及び Dはそれぞれ図 4 における血管モデルの半楕円形状 の幅及び深さを規定するパラメ タ、 kは固定的に与える実数で内視 鏡画像に対しては例えば 15とする。 さ らに、 実際の内視鏡画像に おいては焦点外れ等から様々 なぼけが加わるこ とから、 式 ( 1 ) から得られる血管モデルに対してガウシアン関数
Figure imgf000012_0002
を用いた平滑化処理 (ディ ジタル画像における畳み込み演算によ るフ ィ ルタ リ ング。 なお、 畳み込み演算については公知技術であ るため説明は省略する) を適用する。
こ こで、 σ はガウシアン関数における標準偏差で、 ぼけの強さ を規定するパラメ タ と して使用 され、 σ が大であるほど強く ぼけ る効果を有する。 さ らに、 本実施形態においては、 後述するマツ チングにおける画像め明る さの違いによ る影響を除外するために 対数変換によって y方向のスケール変換 (濃度変換) を適用する。
撮像時の光量の違いは画素値に対して乗算項と して影響を与え るが、 対数変換によ り加算項と して分離され、 影響を縮小する こ とができ、血管抽出精度をよ り 高める こ とが可能と なる。つま り 、 対数変換によるスケール変換を適用する こ とによ り 、 撮影条件に 殆ど依らないで血管像等を良好に抽出でき るよ う に している。
次に、 作成した血管モデルをステップ S 4 におけるテンプレー ト . マッチングでのテンプレー ト と して使用するための離散化を 行う。 本実施形態においては、 連続関数値である血管モデルをテ ンプレー ト 1 要素 (画像に対しては画素に相当する) あた り 1 0 個のサブ要素と なるよ うー且離散化し、 さ らにサブ要素値 1 0個 の平均値を算出する こ と によ り離散化されたテ ンプレー トを作成 する (平均化によ り 、 テンプレー ト の要素間の変動を滑らかにす る効果を与える) 。
さ らに、 実際の血管像は様々な幅 (太さ) 、 深さ (画素値の変 動の大き さ) を備えるため、 W、 Dの組合わせを変更する こ と によ り複数のテ ンプレー ト を作成する。 また、 ぼけの程度の変化に対 しては σ の変更によるテンプレー トの追加が可能である。
図 5 に W及び σ の変更によ り 得られるテンプレー トの例を示す。 なお、 ここでは D = 50に固定している。 図 5 においては、 W= l〜5 ( s t e p (亥 'Jみ) 1 . 0)、 σ =0. 0 ~ 4. 0 ( s t e p 1 . 0 )の各組み合わせのテ ンプレー ト を示している。テンプ レー 卜のサイズは W及び σ に応じ て適宜変更 し、 本実施形態においてはテ ンプレー 卜の両端におい て y=0.0 となる画素位置に 1画素分の余裕を持たせたる も の とす る。
続いて'、 上記テンプレー トを用いたテンプレー ト ' マッチング について説明する。マッチングは画像 f上の各画素に対して上記テ ンプレー ト を畳み込み演算と同様に重畳し、
Figure imgf000014_0001
で示される正規化相互相関 Rを算出する こ と によ り 実行する(正規 化相互相関については公知技術であるため説明は省略する) 。
こ こで、 Νはテ ンプレー 卜 のサイ ズ、 fx(i) は画像からテ ンプレ 一トに合わせて 1 次元で切 り 出 した N個の中の i番目 の画素、 fxM は fx (i)の平均値、 t (i)はテンプレー ト の i番 目 の要素の値、 tMは t(i)の平均値である。 Rは 0≤ R≤ 1の値を と り 、 1に近いほど一致度 が高いこ と を示す。
また、 実際の内視鏡画像における血管は様々な方向に走行して いる こ とから、 テンプレー ト及び切り 出す画素の方向を例えば図 6 に示す 0° 、 45° 、 90° 及び 135° の 4方向について適用する。 これらの 4方向に対し式 ( 3 ) の正規化相互相関を適用 した結果 をそれぞれ R0、 R45、 R90及び R135とする。
例えば、 図 7 に示すよ う に画像垂直方向に血管像が存在 し、 そ の幅が 5画素である場合には、 W= 5のテンプレー ト を方向 0° にお いて適用 し、 血管とテ ンプ レー 卜が一致する血管中央部で算出 し た正規化相互相関 R0 (W = 5)が最も高い値をと る。 こ の時、 テ ンプ レー ト の一次元移動に対する R0 (W = 5) の値は、 例えば図 8 に示 すよ う なものとなる。 図 8 においては、 R= 1.0となる Xが血管の幅 方向における中央に位置する画素に対応 し、 中央から 1 画素ずれ る毎に段階的に小さ く なる分布となる。
以上によ り 、 例えば K個のテンプレー トを用いた M個の方向のテ ンプレー ト · マ ッチングの適用によ り 、 各画素ごと に KXM個の正 規化相互相関 Rが算出される。 なお、 Dを固定的に設定した場合に おいても各テンプレー トによる正規化相互相関 Rの大小関係は不 変である こ と から、 以降の説明においては簡単のため固定値を設 定するものとする。 '
続く ステ ッ プ S 5 (図 2 ) においては、 ステ ップ S 4 において 算出した正規化相互相関 Rの値に基づき、注目する画素を中心とす る血管が存在しているかど うかを判定する。 判定処理は以下のよ う に行う。
得られた KXM個の Rij (1≤ i≤ K, 1≤ j≤ M) を比較 し、 その最大 値 Rmaxを求める。次に、最大値 Rmaxに対する閾値処理を適用する。 閾値 Th (例えば Th= 0.9とする) に対して Rmax≥ Thであれば、 最大 値 Rmaxに対応する W及び σ をパラメ タ とする血管モデルを対応す る方向 0 において適用 したテンプレー ト との一致度が高く 、 注目 画素を幅方向の中心とする血管が存在している ものと判定する。 血管が存在する と判定した場合にはステ ップ S 6へ 、 そ う でな い場合にはステップ S 7へ進む。 続く ステップ S 6 においては、 ステ ップ S 5 における判定結果を外部記憶手段 7等に保存をする c この場合の保存は、 例えば以下のテーブル a [k] の結果が保存さ れる。
はじめに、 画像と同 じ大き さ ISXX ISYのテーブル a[ISXX ISY] を用意し、 すべての要素を 0に初期化 しておく 。
k番目 の画素 xkに対するステップ S 3及び S 4 の処理結果にお いて、 Rmax Thであるテ ンプレー ト及び方向が存在した場合には、 対応するテーブル a[k]にテ ンプレー ト及び方向を特定するための 値 t (ただし、 t≠ 0) を代入する。 本実施形態においては tは KXM 個の正規化相互相関 Rijに対して l≤ t≤KXMのよ う に連続する数 値で与える ものとする。 血管が存在しないと判定された場合につ いてはテ'一ブル a[k]は 0のまま となる。
続く ステップ S 7 においては、 画像上の全画素についてステ ツ プ S 4〜 S 6 の処理を適用 したかど う かを判定し、 終了 していな ければステップ S 4 に戻り 、 次の画素 (k番目 の画素 xkから (k + 1) 番目 の画素 x(k+l)へ) に対してステップ S 4〜 S 7 の処理を再度 適用する。 全画素に対する処理の適用が終了 していれば、 ステツ プ S 8 〖こ進む。
ステップ S 8 においては、 ステップ S 6 において作成した血管 抽出結果から、 血管抽出画像を作成する。 具体的には各画素に対 応するテーブル a[k] ( 1≤ k≤ ISXX ISY) の値を参照し、 も し a[k] ≠ 0であれば、 a [k]の値に対応するテンプレー 卜の幅 W及び適用 し た方向 Θ に したがレ、、画素 xkを中心とする幅 Wの線分を当てはめる すべての a[k]に対する線分当てはめを適用 した結果が血管抽出 画像となる。 プロ グラムでの実現においては、 血管抽出画像作成 用 と して大き さ ISXXISYの領域 b[ISXXISY]を用意し、 すべての画 素を 0に初期化の上、 線分の値を 1と して対応する各画素に代入す る
以上に説明 した一連の処理の適用によ り 、 内視鏡画像における 血管を血管の太さ (幅) とぼけの程度によ らず良好に抽出する こ とが可能となる。
なお、 ステップ S 8 において作成した血管抽出画像に対する後 処理と して、 一般的な膨張 · 収縮処理を適用する こ とで、 よ り 滑 らかな処理結果画像を得る こ と も可能である。
また、 ステップ S 8 における血管抽出画像作成において、 隣接 する画素の双方に血管が存在する と判定される こ とが考えられる が、 正規化相互相関 Rmaxが大である画素を採用 し、 一方を除外す る こ と によ り正しい結果を得る こ とができ る。 この場合は、 テー ブル a [ I SX X I SY]に加え、 各画素の Rmaxを記憶するための領域 b [ I SX X I SY]を用意し、 ステップ S 6 において値を代入する。
以上説明 したよ う に、 本実施形態における画像処理方法によれ ば、内視鏡画像から血管抽出画像を良好に作成する こ とができ る。
また、 多階調画像であれば内視鏡以外の画像と して例えば X線 ア ンギオグラフィ画像に対しても適用可能である。 また、 線状の 構造成分 (長さは問わない) であれば適用可能であるため、 抽出 対象は血管に限定される ものではない。
また、 本実施形態においては画像中の全画素に対してテ ンプレ ー ト · マッチングを含む一連の処理を適用 したが、 処理時間の短 縮のために数画素おきに適用する こ と も可能である。
また、 低い値をと る画素が血管である可能性が高いこ とから、 あ らかじめ局所的に低い値を有する画素を探索 し、 得られた画素 に対してのみ適用 してもよい。 この場合は例えば注目画素を中心 とする例えば 3 X 3の領域内で注目画素が最小値をと る場合に処理 対象と設定するこ とができ る。
従って、 本実施形態は以下の効果を有する。
本実施形態によれば、 内視鏡画像等から抽出対象とする血管抽 出画像等を良好に作成する こ とができ る。
(第 2 の実施形態)
次に本発明の第 2 の実施形態を図 9 〜図 1 6 を参照して説明す る。 図 9 〜図 1 6 は本実施形態に係 り 、 図 9 は本実施形態におけ る一連の処理を説明するためのフローチャー ト、 図 1 0 は帯域通 過型フ ィ ルタ の周波数特性を説明するための説明図、 図 1 1 〜図 1 6 は本実施形態における原画像、 処理経過及ぴ処理結果画像を 説明するための説明図である。
本実施形態における一連の画像処理 · 解析は、 第 1 の実施形態 と 同様、 パーソナルコ ンピュータ 1 上で動作するプログラム と し て実現される。 パーソナルコ ン ピュータ 1 の構成については図 1 と 同様であるので、 その説明を省略する。
本実施形態は、特に内視鏡画像における大腸 pi t の構造(以下、 pit patternとする) の抽出に有効な画像処理方法に関する。
内視鏡画像から pit pat ternを抽出 し、 形状等を解析する手法に おいては、 帯域通過フ ィ ルタ リ ング画像への閾値処理を用いた二 値化によ る抽出が行おれる。 しかしながら、 内視鏡画像において は明る さの変化、 色素濃度の違い · むらの発生等によ り 固定的あ るいは画像ごとの閾値設定では安定した抽出ができないとい う 問 題がある。 本実施形態においては、 これらの問題を有する画像に 対しても解析対象となる pitを安定的に抽出でき る画像処理方法 について説明する。
帯域通過フ ィ ルタ リ ング (Band Pass Filtering 以下 BPFと略 記) 処理画像に対し、 画像も しく は関心領域全体に同一の閾値処 理を適用 した場合、 明暗変化、 色素むら等によ り抽出漏れゃ途切 れが生じる。 したがって、 抽出処理における閾値は抽出対象とな る個々の pit に対し局所的かつ適応的に決定する必要がある。 本 実施形態においては、 抽出対象と なる pit を含む個々の領域を局 所的に抽出 し、 各々の領域ごとに最適な閾値を設定する。
本実施形態においては、 高周波数帯域通過特性を有するフ ィ ル タは構造の形状に沿つた抽出画像を得られるがノイ ズ等に弱く 、 低周波数帯域通過特性を有するフ ィ ルタは抽出形状が実際よ り 大 きめとなるがノイ ズ等に強い特性を有する こ と を利用 して、 抽出 対象と ノイズ等の各構造成分を含む領域を分離し、 抽出対象を含 む領域ごと に局所的に閾値設定を行う こ と によ り 良好な抽出結果 画像を得る。
以下、 図 9 に示すフ ローチヤ一卜に基づき画像処理方法を説明 する。 まず、 本実施形態においては原画像と して、 R画像を使用す る (ステ ップ S 1 1 ) 。 図 1 1 に原画像と して内視鏡 R画像の例を 示す。 pit pat tern観察においてはィ ンジゴカノレ ミ ンと呼ばれる色 素(薬剤)を撒布する。色素は粘膜表面の凹部である pitに貯留 し、 青緑系の色調を有する こ とから R画像において最も構造が反映さ れる。
次のステ ップ S 1 2 においては、 第 1 の実施形態における図 2 のステップ S 2及び S 3 と同様にノイ ズ除去及び逆 γ補正を適用 する。 ―
続く ステ ップ S 1 3 においては、 異なる通過周波数帯域特性を 備える帯域通過フィルタ BPF (Lo) 、 BPF (Hi) を適用し、 各々の 処理結果画像を得る。 帯域通過フィルタ BPF (Lo) 、 BPF (Hi) は ラプラシア ン · ガウシアンフィ ルタ等を使用 し、 通過周波数帯域 を相対的に高 (Hi) · 低 (Lo) に設定する。 Hiの通過周波数特性 は抽出 したい構造成分の周波数帯域分布に沿ったものと し、 Loは 例えば Hiの 1 オクターブ低い特性とする。
なお、ラプラ シアン♦ガウシアンフィルタは公知のものであ り 、 文献「ビジ ョ ン, 産業図書, デビッ ド ' マー, pp.58-66」に詳しい ため詳細は省略する。
図 1 0 に本実施形態に使用する帯域通過フ ィ ルタ BPF(Lo) 、 BPF (Hi) の周波数特性例 FLo、 FHiをそれぞれ示す (本来は画像にお ける周波数空間は 2次元であるが、 簡単のため 1 次元化した片側 に対して示している) 。
ステ ップ S 1 4 においては、 帯域通過フィルタ BPF (Lo) 、 BPF (Hi) 各々 の処理結果の画像に対して、 0.0を閾値と し、 二値化処 理をそれぞれ適用する。 得られた二値画像を各々 ResLo及び ResHi と し、 各画素が構造成分と して抽出されていれば 1、 そ う でなけれ ば 0の値を与える。
本実施形態においては色素によ る構造成分は第 1 の実施形態に おける血管と同様に画素値が小と なるため、帯域通過フ ィ ルタ BPF (Lo) 、 BPF (Hi) による結果が 0以下となる画素を構造成分と し て抽出する。 こ こでは負の変動であればすべて抽出するため、 明 喑変化、 色素のむら等による抽出漏れは発生しない。
図 1 1 に示す pit patternを含む内視鏡 R画像の例に対して、 図 9 のステ ツプ S 1 4 によ る二値化処理で得られる ResLo及び ResHi の二値画像の例を図 1 2及び図 1 3 にそれぞれ示す。
ステップ S 1 5 においては、 ResLo及び ResHiの各画素ごとの論 理演算を行い、 抽出対象の構造成分を含む np個の領域 (連結した 画素群) Pi ( 1≤ i≤ np) と nn個のノイ ズ等の領域 Nj ( 1≤ j≤ nn) を抽出する。
こ こで、 各領域 Pi及び Njは二値画像に対する ラベリ ング処理を 適用の上、 個々 の領域を特定するための番号が付与されている も のとする。 ResHi及び ResLo双方で抽出された画素は Pi, ResHiでは 抽出されているが ResLoでは抽出されていない (図 9 において
NotResLoと示す) 画素は Njに含まれる。
図 1 4及び図 1 5 に Pi及び Njの画像例を示す。
次のステ ップ S 1 6 においては、 ステップ S 1 5 で除外しきれ なかったノ イズ等の成分を除外する。 具体的には、 BPF ( Hi ) の処 理結果 ResHiの絶対値において、 個々の Piの平均値 μ Hiと 、 Piの重 心 (cxi, cyi)を中心とする大き さ s X sの近傍画素內に含まれる除 外済みノイ ズ領域 Njの平均値 i Heiと を比較する。構造成分はノィ ズ成分よ り 変動が大である こ とから、例えば μ Hi≤ μ Heiであれば 除外とする。
ステップ S 1 7 においては、 残った Piごとに適切な閾値を設定 し閾値処理、 つま り 再二値化を行う。 閾値の設定は、 例えば大津 の判別分析法を用いる。
さ らに、 このステ ップ S 1 7 の実行後も ノイ ズ領域が残る場合 があるため、 続く ステップ S 1 8での除外処理を適用する。 こ こ では、 まずステ ップ S 1 6 と同様の処理適用による除外処理を再 度適用する。 こ こでは、 除外基準を Hi≤ W ' ix Hei ( w> 1. 0) と する こ と によ り 、 除外効果を高める。
図 1 6 はステ ッ プ S 1 8 の処理後に抽出された抽出結果画像 (さ らに関心領域を設定し、 輪郭部、 ハ レーショ ン等を除外 した) の例を示す。
以上に説明 した一連の処理によ り 、撮影条件に殆どよ らないで、 つま り 明る さの変化、 色素濃度の違い · むらの発生等がある場合 においても、内視鏡画像から良好な pit抽出画像を得るこ と が可能 となる。
また、本実施形態における画像処理方法は血管像等、 Pit (腺口) 以外の構造成分を抽出対象とする こ と も可能である。
従って、 本実施形態は以下の効果を有する。
本実施形態によれば、 明るさの変化、 色素濃度の違い · むらの 発生等がある場合においても内視鏡画像等から良好な pit抽出画 像を得る こ とが可能と なる。
(第 2の実施形態の変形例)
ResHiに差がないため除外できない領域 P iが存在する場合には、 ステ ップ S 1 8 に続いて色調の違いに基づく 除外処理を加える こ と も可能である。
具体的には pi こは色素が貯留する こ とから色調は青緑の成分 が強く なるこ と を利用 し、 例えば Pi及びその近傍内の Pk (k^ i) について、 ノイズ除去及び逆 γ補正を適用 した R画像及び G画像か ら比 R/G (さ らに Β画像を加え、 R/ (R+G+ Β) を使用 してもよい) を画素ごとに求め、 領域ごとの平均値 ^ rgiと rgkを比較し、 μ rgi> μ rgk (周辺の抽出領域よ り赤い) の場合は除外とする。
従来、 ノイ ズ領域の除外においては二値化抽出後の領域画素数 に対する閾値処理 (小領域の削除) 等が行われていたが、 局所的 な構造成分の色調情報に基づき除外する こ と によ り微小 pit等に 対する誤った除外のない抽出画像を得る こ とができ る。
以上に説明 した一連の処理によ り 、 明る さの変化、 色素濃度の 違い、 むらの発生等がある場合においても内視鏡画像から良好な p i t抽出画像を得る こ とが可能となる。
また、 本実施形態における画像処理方法は血管像等、 P i t以外の 構造成分—を抽出対象とする こ と も可能である。
(第 3 の実施形態)
次に本発明の第 3 の実施形態を図 1 7〜図 1 9 を参照 して説明 する。 図 1 7〜図 1 9'は第 3 の実施形態に係 り 、 図 1 7及び図 1 8 は本実施形態における一連の処理の流れを説明するためのフロ 一チャー ト、 図 1 9 は帯域通過型フィルタの特性例の説明図であ る。
本実施形態においては、 画像解析のための二値化処理において 効率的に最適な処理パラメ タ を設定するための方法について説明 する。 本実施形態における一連の画像処理 · 解析は、 第 1 の実施 形態と 同様、 パーソナルコンピュータ 1 上で動作するプロ グラム と して実現される。 パーソナルコンピュータ 1 の構成については 図 1 と 同様であるので、 その説明は省略する。
内視鏡画像における構造成分抽出のための二値化処理において は、 例えば帯域通過型フ ィルタの周波数特性、 各種閾値等のパラ メ タを設定する必要が生じる。 このよ う な調整は主と して目視に よ る p i t p a t t er n , 血管等の構造成分と二値化結果と の主観的一致 に基づいて行われ、 例えば複数の帯域通過型フ ィルタを適用 し、 二値化結果における抽出漏れの有無、 大き さや太さ等を原画像と 参照しながら各々の閾値設定を変更する。
しかしながら、このよ う な試行錯誤をと もな う調整においては、 画像処理方法の内容によってはパラメ タ及びその組み合わせが膨 大とな り 、 操作者の負担が大きいとい う 問題がある。
本実施形態においては、 あらかじめ内視鏡画像上に抽出対象と なる構造成分を指定した参照用画像を用意 し、 複数のパラメ タの 組合わせによる二値化抽出処理結果との一致度の比較に基づき最 適なパラメ タを設定する方法について説明する。
以下、 図 1 7及び図 1 8 に基づき本実施形態におけるパラメ タ 設定方法を説明する。 本実施形態においては第 2 の実施形態と 同 様に、 抽出対象を內視鏡画像にからのイ ンジゴカルミ ン撒布をと もな う大腸 pit pat ternとする。 また、 帯域通過フ ィ ルタ リ ング ( BPF)及びフィルタ リ ング結果に対する閾値処理による抽出を実 行するものとする。
はじめに、 ステップ S 2 1 において、 原画像と して R画像を入力 し、 第 2 の実施形態における図 9 のステ ップ S 1 2 と同様に、 ス テ ツプ S 2 2 でノイズ除去及ぴ逆 γ補正を適用する。
続く ステ ップ S 2 3 においては、 複数パラメ タ生成を行う。 つ ま り 、 次のステップ S 2 4 における二値画像作成のための処理パ ラメ タ と して、 異なる周波数帯域特性を備える N個 (1 N) の帯域 通過型フ ィ ルタ と 、 P個の抽出用閾値を設定する。
N個の帯域通過型フ ィ ルタ Fi (1≤ i≤N) の周波数特性は、 例え ば N= 3と し、 図 1 9 に示すよ う に、 1 オクターブおきに通過帯域 のピーク を備えるよ う にする。 図 1 9 では簡単化のため、 Fiでそ のフ ィルタ特性を示している。 また、 P個の閾値 Th j (1≤ j≤P) は 例えば Thl = 0.0, Th2= - 1.0, Th2= - 2.0, …, ThP= (一 1.0 XP) と設定する。 以下、 本実施形態においては P= 5と設定する。 続く ステ ップ S 2 4 においては、 ステ ップ S 2 3 において設定 したパラメ タを用いた二値画像 Bi jの作成を行う。図 1 8 にステ ツ プ S 2 4 における二値画像作成処理の詳細を示す。
図 1 8 のステ ップ S 3 1 においては、 ステ ップ S 2 2 において 作成したノ イ ズ除去及び逆 γ補正適用後の R画像を入力する。続く ステ ップ S 3 2 においては、 ステ ップ S 2 3 において設定した Ν 個の帯域通過型フィルタ Fiを用いた帯域通過フィルタ処理 (図 1 8 中では BPFと略記) を適用する。
次のステ ップ S 3 3 においては、 ステ ップ S 3 2 において得ら れた N個の帯域通過フィルタ処理した BPF処理結果画像の各々 に対 し、 ステップ S 2 3 において設定した P個の閾値 Thjを用いた二値 化処理を適用 し、 二値画像 Bijを作成する。
次のステップ S 3 4 に示す NXP個の二値画像 Bij すべてを作 成後、 このステップ S 2 4の処理が終わ り 、 図 1 7 のステ ップ S 2 5 に進む。
ステップ S 2 5 においては、 得られた N X P個の二値画像 Bi j の 各々に対し、 抽出結果一致度を以下のよ う に算出する。
は じめに、 あらかじめ原画像に対し操作者 (診断を行う 医師) が目視によ り 抽出対象となる構造成分を指定した参照用画像を用 意する。 参照用画像の作成は、 例えば一般的な描画 (ペイ ン ト) ソフ ト ウェア等を使用 し、 構造成分 (本実施形態においては大腸 の pit pattern) の形状を 目視状態に則して ト レース及び塗 り つぶ ししたものを使用する。
このと き、 構造成分である こ と を特定するための描画色と して 内視鏡画像における生体粘膜上には通常発生する こ とのない色と して、 例えば RGBの各々 に対して 0, 255, 255 (シアンとなる) を 用いる。 以下、 作成した参照用画像を Sとする。
次いで、 二値画像 Bijの各々 に対し、 参照用画像 Sとの抽出結果 一致度を算出する。 抽出一致度の算出においては、 二値画像 Bij 及び参照用画像 Sとの抽出及び非抽出画素の一致数に基づく 評価 関数を使用する。
本実施形態においてはすべての画素について二値画像 Bi j上で 抽出され、 かつ参照用画像 S上においても画素値が(0, 255, 255) と なっている画素を正し く 抽出されたものと し、 全画素数に対する 割合 j= (Mi j - Li j) / ( ISXX ISY) ( 4 ) を求める。 こ こ で、 M i jは二値画像 B i jと参照用画像 Sの抽出一致画 素数、 L i jは抽出不一致画素数 (一方で抽出され、 他方で抽出され ていない画素数) を示す。
式 ( 4 ) は抽出結果に対する評価関数とな り 、 a i jの値が大で あるほど一致度が高く 適切なパラ メ タである もの と判断でき る。 すべての B i jについて a i jを算出後、ステ ップ S 2 6 に進む。なお、 抽出及び非抽出画素数の一致についてはどち らを優先するかによ り重み付けをと もな う 関数を使用するこ と も考えられるが、 本実 施形態においては等しく 評価するものとする。
ステップ S 2 6 においては各 a i jを比較の上、 最大の a i jを与 える i及び jを特定し、対応する帯域通過型フ ィ ルタ F i及び閾値 Th j を処理パラメ タ と して決定する。
以上において設定した処理パラメ タを用い、 参照用画像以外の 内視鏡画像に対しても二値化処理を適用する こ と によ り 、 複雑な 試行錯誤によるパラメ タの設定をするこ となく 良好な抽出結果画 像を得る こ とが可能となる。
また、 画像ごと に撮像状態に基づく 明暗変化によ るコ ン ト ラ ス 卜の違い、 観察距離 · 倍率の違いによる画像中の構造成分の大き さの違い等が生じ、 適切な閾値や帯域通過型フ ィ ルタの周波数特 性が異なるこ とがある。 このよ う な状況を想定する場合には、 各 条件に応じた代表的なシーンを複数の参照用画像と して用意し、 各々に応 じたパラメ タ設定を行い、 選択的に適用する こ とで同様 に良好な抽出結果画像を得る こ とが可能となる。
従って、 本実施形態は以下の効果を有する。
本実施形態によれば、 複雑な試行錯誤によ るパラ メ タ の設定を する こ となく 良好な抽出結果画像を得る こ とが可能となる。
(第 4 の実施形態)
次に本発明の第 4 の実施形態を図 2 0〜図 2 2 を参照して説明 する。 図 2 0 〜図 2 2 は第 4 の実施形態に係 り 、 図 2 0 は本実施 形態における画像処理方法の対象となる血管所見を説明するため の説明図、図 2 1 は本実施形態における一連の処理内容の説明図、 図 2 2 は本実施形態における特徴量を説明するための説明図であ る。
本実施形態においては、 画像中の構造成分に対する二値化抽出 処理結果画像から病変の判別等に有用と なる特徴量を算出するた めの画像処理方法について説明する。 本実施形態における一連の 画像処理は、 第 1 の実施形態と同様に、 パーソナルコ ンピュータ 1 上で動作するプロ グラムと して実現される。 パーソナルコ ン ビ ユ ータ 1 の構成については図 1 と同様であるので、 その説明は省 略する。
また、 本実施形態における特徴量算出の説明においては、 すで に構造成分が抽出された二値画像に対し、 処理を適用する ものと する。
例えば内視鏡画像中の血管所見においては、 個々の血管形状の 不整が診断上重要となる場合がある。 一般に不整の度合いが増加 するにつれて腫瘍の悪性度、 病変の進行度等が高まるものと され ている。 このよ う な不整所見のひとつに血管の幅の変化があげら れる。
図 2 0 ( A ) に示すよ う に、 ほぼ均一な幅をもつ正常な血管像 に対して、 図 2 0 ( B ) に示す病変部の血管像は広狭の変化をと もな う。 本実施形態においては、 以下に示す一連の処理を適用す る こ と によ り このよ う な広狭の変化を特徴量と して算出する。 以下、 本実施形態における一連の処理について、 図 2 1 を参照 して説明する。 はじめに、 ステ ップ S 4 1 において血管抽出二値 画像を入力する。 本実施形態においては、 血管抽出二値画像を本 発明の第 1 〜第 3 の実施形態において説明 した二値化抽出処理の いずれかを用いる こ と によ り 作成する。
続く ステ ップ S 4 2 においては、 ラベリ ング処理の適用によ り 個々の抽出血管像に対する番号付けを行う。 本実施形態において は K個の領域 Pk ( l≤ k≤ K) が存在する ものとする。
次のステ ッ プ S 4 3 において距離変換 · 骨格処理を適用する。 距離変換 ' 骨格処理は一般にはスケル ト ン呼ばれる画像解析手法 の一つで、 図形の幅の情報の抽出、 形状特徴の抽出等に利用 され る。 距離変換 '骨格の詳細については文献「コンピュータ画像処理 入門、 総研出版、 田村秀行監修, pp . 77 - 80」に詳しいため、 その説 明は省略する。
距離変換 ·骨格処理の適用によ り 、例えば図 2 2 に示すよ う に、 血管像の中心線及び中心線上の M個の画素 Qm ( 1≤ m≤ M ) の位置に 対する血管の幅に相当する距離 Dmを求める こ とができ る。
Mは血管の長さに依存し、二値化された領域が円である場合には M = lとなる ものである。 実際には画素 Qm及び距離 Dmはラベリ ング された K個の領域の各々について各 Mk個ずつ算出されるため、各々 を Qkm及び Dkmとする。
続く ステップ S 4 4 においてはステ ッ プ S 4 3 において得られ た中心線上の画素 Qm及び距離 Dmに基づき、幅不整評価値 Vを算出す る。 本実施形態においてはすべての Qmにおける距離 Dmの標準偏差 も評価値と し、
Figure imgf000027_0001
と なる。 こ こ で、 n Dは D kmの平均値を示す。 Vの値が大であるほど 広狭の変動が大きいこ とを示してお り 、 正常及び病変の各症例画 像群から算出 した教師データを用いての識別器 (例えば線形判別 関数, ニューラルネ ッ ト ワーク等) に適用する こ と ができ る。 以上説明 したよ う に、 本実施形態における一連の画像処理方法 の適用によ り 、 画像中の構造成分に対する二値化抽出処理結果画 像から不整をと もな う病変の判別等に有用 となる特徴量を算出す る こ とが-可能と なる。
なお、 以上の説明においては内視鏡画像における血管像を例と したが、 本実施形態において算出する幅に関する特徴量が有用と なる処理 ·解析対象はこれらに限定される も のではなく 、 大腸 p i t 画像、 あるいは X線アンギオグラ フィ画像に対しても適用可能で ある。
従って、 本実施形態は以下の効果を有する。
本実施形態によれば、 画像中の構造成分に対する二値化抽出処 理結果画像から不整をと もな う病変の判別等に有用 となる特徴量 を算出する こ とが可能となる。
(第 5 の実施形態)
次に本発明の第 5 の実施形態を図 2 3 を参照 して説明する。 本 実施形態においては、 内視鏡画像中の血管像から病変の判別等に 有用と なる特徴量を算出するための画像処理方法について説明す る。よ り詳しく は、 RGBの 3 つの画像からなる内視鏡画像において、 各々に対する画像処理を適用 し、 得られた複数の特徴量を用いる こ と こ と を特徴と している。
生体粘膜下を走行する血管は粘膜下に存在する深さが異なって いる。 すなわち、 粘膜下の深い部位を走行する太い血管、 中間的 な部位を走行する血管及び表層に近い部位を走行する細かい血管 に大き く 分ける こ とができ る。 一方、 内視鏡画像を構成する RGB 画像の各々 は、 照射光の波長が Rが最も長く 、 Bが最も短く なつて レ、る。
生体粘膜においては波長の長い光が最も深部に到達し、 短い光 ほど表層に近い部位において吸収される こ とが知られている。 一 般に色素等を用いない通常の内視鏡画像に対する画像処理等は G 画像に対し適用 される力 本実施形態においては前述の理由から R 画像中に存在する よ り深い部位の血管及び B画像中に存在する よ り浅い部位の血管に関する特徴量を算出する こ とで、 血管像によ る病変の分類等によ り有用な画像処理方法について説明する。 本実施形態における一連の画像処理は、第 1 の実施形態と 同様、 パーソナルコ ン ピュータ 1 上で動作するプロ グラムと して実現さ れる。 パーソナルコンピュータ 1 の構成については図 1 と同様で あるので、 その説明は省略する。
また、 本実施形態における特徴量算出の説明においては、 すで に構造成分が抽出された二値画像に対し、 処理を適用する ものと する。
図 2 3 のフ ローチャー トを参照して説明する。 はじめに、 ステ ップ S 5 1 において RGB各々 に対する血管抽出二値画像を入力す る。 本実施形態における血管抽出二値画像は本発明の第 1 〜 3 の 実施形態において説明 した二値化抽出処理のいずれかを R、G及び B の各画像に対して適用する こ と によ り作成するこ とができる。 以 下、 ステ ップ S 5 2 〜 S 5 4 における一連の処理を各画像ごと に 適用する。
続く ステップ S 5 2 〜 S 5 4 においては、 各々本発明の第 4 の 実施形態において説明 した図 2 1 におけるステップ S 4 2 〜 S 4 4 と同様の処理の適用によ り 、 RGB各画像ごとの幅不整評価値 Vr、 V g及び V bを算出する。
ステップ S 5 5 において得られた V r、 V g及び V bを画像処理対象 と した内視鏡画像の血管像に対する特徴べク トルと して処理を終 了する。
特徴ベク トル (Vr、 V g , V b) を正常及び病変の各症例画像群か ら算出 した教師データ を用いての識別器 (例えば線形判別関数、 ニューラルネ ッ ト ワーク等) に適用する こ と によ り 、 存在する深 さの異なる血管に関する構造成分に関する情報を得られる こ と 力 ら、 V gのみを使用する場合よ り も精度の高い分類結果を得る こ と が可能となる。
なお、本実施形態においては算出する特徴量と して第 4 の実施形 態に示した幅不整評価値 Vを例に説明 したが、異なる波長の光によ り得られた粘膜下における存在する深さの異なる血管の情報を特 微量化し、 特徴べク トルと して識別処理等に使用するこ とが重要 な点となっている。 じたがって、 他の特徴量と して例えば二値化 抽出画像に対する細線化の適用によ り 、 分岐 · 交差点数等の他の 特徴量を使用する こ と も可能である。
従って、 本実施形態は以下の効果を有する。
本実施形態によれば、 生体粘膜下に存在する深さの異なる血管 に関する構造成分に関する情報を得る こ と によ り 、 有用な特徴量 を算出する こ とが可能となる。
(第 6 の実施形態)
次に本発明の第 6 の実施形態を説明する。 本実施形態において は、 RGBの 3 つの画像からなる内視鏡画像に対し、 各画像に含まれ る構造成分によ り 血管の色調差が生じている場合においても良好 な血管抽出結果を得る こ とが可能である画像処理方法について説 明する。
血管像の抽出においては、 G画像に対する処理の適用が一般的で あるが、 RGB (カ ラー) 画像上で青く 見える血管は R画像にその構 造成分が反映されている こ とから良好な抽出結果が得られない場 合がある。これは、本発明の第 5 の実施例における説明と 同様に、 粘膜下における血管が存在する深さの違い等による ものと考えら れている。
本実施形態においては、 R及び G画像の各々 に対する抽出処理を 適用 し、 その結果を合成する こ と によ り 良好な血管抽出画像を得 る こ と を可能とする。
本実施形態においては R及び G画像の各々に対する帯域通過型フ ィルタ リ ングによ る BPF処理結果画像及び閾値処理を用いた二値 化抽出処理を基本と し、 BPF処理結果画像を得る までの一連の処理 については他の実施形態と共通するので説明は省略する。
以下の説明においては、 R及び G画像の各々の BPF処理結果画像を それぞれ Br及び Bgとする。 また、 Br及び Bgにおける各画素を、各々 Br (X, y)及び Bg (x, y) ( 1≤ x≤ ISX, 1≤ y≤ ISY) とする。
BPF処理結果画像 Br及び Bgについて、 以下の合成画像 Brgを作成 する。
Brg (x, y) = a X Br (x, y) + β X Bg (x, y) ( 6 ) こで、 α及ぴ ]3 は以下のよ う に定める =0, β =1 ifBr(x,y)>Thr,
(7)
10, β =10 olse (ifBr(x,y)≤Thr) こ こで、 Thrは Brに血管像を反映する構造成分が存在しているか ど うかを判定するための閾値で、 例えば Thr = — 1. 0 と定める (血 管構造は負の変動のため、 符号が一 となつている) 。
式 ( 7 ) は Br (x, y)において構造成分が含まれていない場合には a = 0とする こ とによ り G画像のみを、 含まれている場合には a = β = 1. 0とするこ と によ り R及び G画像双方の構造成分を合成する ための係数となる。
以上、 式 ( 6 ) 及び ( 7 ) によ り 、 合成 BPF画像 Brgは画素ごと に R及び G画像の各々 に存在する構造成分を漏らすこ となく 抽出し たものとなる。 最後に、 Brg (x, y) に対し閾値処理を適用する こ と によ り 二値画像を作成する。
以上説明 したよ う に、 本実施形態における画像処理方法の適用 によ り 、 各画像に含まれる構造成分によ り生じる血管の色調差が 存在する場合においても良好な血管抽出結果を得る こ とが可能と なる。
なお、 —上述した各実施形態を部分的に組み合わせて構成される 実施形態等も本発明に属する。
なお、 本発明は上述した実施形態に限定される も のではなく 、 本発明の主旨を逸脱じない範囲内において種々 の変形や応用が可 能であるこ とは勿論である。 産業上の利用可能性
以上説明 したよ う に本発明によれば、 血管像、 pit pattern等の 抽出対象と なる構造部分を良好に抽出するこ とができ る。
関連出願へのク ロ ス リ フ ァ レンス
本出願は、 2 0 0 2年 1 2月 5 日 に 日本国に出願された特願 2 0 0 2 - 3 5 4 2 9 0号を優先権主張の基礎と して出願する もの であ り 、 上記の開示内容は、 本願明細書、 請求の範囲、 図面に引 用されたものとする。

Claims

請求の範囲
1 . 画像処理方法は以下を含む ;
画像を入力する入力ステップと、
前記画像中の所定の構造成分をモデル化したテンプレー 卜 と前 記入カステ ップで入力 された画像と のマ ツチングを行い、 この画 像中の抽出対象とする構造成分を抽出する抽出ステップ。
2 . ク レーム 1 の画像処理方法において、
前記テ ンプレー トを用いたマッチングによ り 、 前記抽出対象と する構造成分の前記入力された画像中の位置を特定する位置特定 ステ ップを更に有し、
前記抽出ステ ップでは、 前記位置特定ステ ップてのマ ッ チング 結果に基つき前記抽出対象とする構造成分を抽出する。
3 . ク レーム 1 の画像処理方法において、
前記テ ンプレー トは前記構造部分の画素幅及び変動の大き さに 基づき決定される。
4 . ク レーム 3 の画像処理方法において、
前記テ ンプレー トを複数種設定し、
前記複数のテンプレー トを用いたマッチングの結果を評価する 評価ステ ップを更に有し、
前記評価ステ ッ プでの評価結果に基づき前記構造成分を抽出す る。
5 . ク レーム 1 の画像処理方法において、
前記構造成分が生体粘膜観察画像における血管である と と もに 前記テンプレー トか画像上の血管の幅及びコン ト ラス トに基づ き決定される。
6 . ク レーム 2 の画像処理方法において、
前記構造成分の存在する位置及びテンプレー トに基づき構造成 分抽出画像を作成する抽出画像作成ステ ップをさ らに備える。
7 . ク レーム 4 の画像処理方法において、
前記マッチングは前記テンプレー 卜 と画像の局所的な相関演算 である と と もに、 前記相関演算結果によ り もつ と も高い相関をす るテンプレー トに対応する構造成分を抽出する。
8 . ク レーム 7 の画像処理方法において、
前記相関演算が正規化相互相関である。
9 . ク レーム 1 の画像処理方法において,
前記テ ンプレー トは大き さ N X 1 , N≥ 3 の一次元形状である と と もに、 前記マッチングを画像に対する複数の方向に対して適 用する。
1 0 . 画像処理方法は以下を含む ;
画像を入力する入力ステップと、
前記入力ステ ッ プで入力された画像画像に第 1 の領域抽出処理 を適用する こ とによ り 1 個以上の第 1 の領域群を抽出する第 1 の 抽出ステ ップと 、
前記第 1 の領域群を構成する領域ごと に第 2 の領域抽出処理を 適用する こ と によ り第 2 の領域群を抽出する第 2 の抽出ステ ッ プ
1 1 . ク レーム 1 0 の画像処理方法において、
前記第 1 の抽出ステップでは抽出を行う画像中の構造成分を冗 長に含む領域群を抽出 し、
前記第 2 の抽出ステ ップでは前記第 1 の領域群から不要な構造 成分を除外した領域群を抽出する。
1 2 . ク レーム 1 0 の画像処理方法において、
前記第 1 の抽出ステ ップでは、 第 1 の通過周波数帯域特性を有 する第 1 のフ ィ ルタ リ ングの結果に基づく 第 1 の 2値画像と、 第 2 の通過周波数帯城特性を有する第 2 のフ ィ ルタ リ ングの結果に 基づく 第 2 の 2値画像の論理演算に基づく領域抽出を行う
1 3 . ク レーム 1 2 の画像処理方法において、
前記論理演算は前記第 1 のフ ィ ルタ リ ングの結果に基づく 第 1 の 2値画像において抽出された領域群の各領域を、 所望する構造 成分を含む領域及び含まない領域に分離する。
1 4 . ク レーム 1 3 の画像処理方法において、
前記第 1 の通過周波数帯域特性は画像中の構造成分に基づき定 められる と と もに、
前記第 2 の通過周波数帯域特性は前記第 1 の通過周波数帯域特 性よ り相対的に低い周波帯域を通過する よ う に定められる。
1 5 . ク レーム 1 3 の画像処理方法において、
前記論理演算は、 前記第 1 及び第 2 のフ ィ ルタ リ ング結果に基 づく 各々の 2値画像において双方において抽出された画素を前記 第 1 の領域群と して抽出する。
1 6 . ク レーム 1 5 の画像処理方法において、
前記第 2 の抽出ステ ッ プでは、 前記第 1 の領域抽出結果におけ る抽出領域ごと に対応する前記第 1 のフ ィ ルタ リ ングの結果に対 してのしきい値処理によ り領域を抽出する。
1 7 . 画像処理方法は以下を含む ;
画像に-対し第 1 及び第 2 の帯域通過型フ ィ ルタ リ ングを適用す る フ イ ノレタ リ ングステ ップと 、
前記第 1 及び第 2 の帯域通過型フィルタ リ ングの結果から第 1 及び第 2 の 2値画像を作成する第 1 の 2値画像生成ステ ッ プと 、 前記第 1 及び第 2 の 2値画像に対する論理演算に基づき前記画 像中の抽出する構造成分を含む第 1 の領域群と含まない第 2 の領 域群と を特定する領域.群特定ステップと、
前記領域群特定ステ ップで特定された前記第 2 の領域群に基づ き前記第 1 の領域群から所望の構造成分を再抽出する再抽出ステ ップと、
前記第 1 の領域群を構成する各領域ごとに 2値画像を作成する 第 2 の 2値画像生成ステ ップ
1 8 . 画像処理方法は以下を含む ;
画像を入力する入力ステ ッ プと 、
前記入力ステ ップで入力された画像中の抽出対象とする構造成 分を特定する情報を含む参照用画像を入力する参照画像入力ステ ップと、
前記構造成分を抽出するための処理のパラメータを複数作成す るパラメ ータ作成ステップと、
前記パラメータ作成ステ ップで作成された前記複数のパラメ一 タを用いて前記入力された画像に対する前記構造成分抽出のため の処理を適用する こ と によ り複数の抽出画像を作成する抽出画像 作成ステ ッ プと 、
前記抽出画像作成ステ ップで作成された前記複数の抽出画像の 各々における抽出結果と前記参照用画像における構造成分との一 致度を比較する比較ステ ッ プと 、
前記比較ステ ップでの比較結果に基づき一致度の高いパラメ一 タを特定するパラメータ特定ステップ。
1 9 . ク レーム 1 8 の画像処理方法において、
前記抽出処理は 2値化処理である。
2 0 . 画像処理方法は以下を含む ;
画像を入力する入力ステ ッ プと 、
前記入力ステ ップで入力した画像から所定の構造成分を抽出す る抽出ステップと、
前記抽出ステ ップで抽出 した構造成分の幅に基づく 特徴量を算 出する特徴量算出ステップ。
2 1 . ク レーム 2 0 の画像処理方法において、
前記抽出ステ ップでの抽出は前記画像の所定の構造成分に対す る 2値画像を作成する 2値画像作成ステップを含むと と もに、 前記構造成分の幅は前記 2値画像に対する距離変換 , 骨格処理 の適用結果に基づく 。
2 2 . ク レーム 2 0 の画像処理方法において、
前記特徴量は、 前記構造成分の幅の変動の大小を評価する数値 である。
2 3 . ク レーム 2 2 の画像処理方法において、
前記数値は標準偏差または分散である。
2 4 . 画像処理方法は以下を含む ;
複数の色信号からなる画像を入力する入力ステップと、 前記入力ステ ッ プで入力 した画像を構成する複数の色信号の少 なく と も 2つから所望の構造成分を抽出する抽出ステ ッ プと 、 前記抽出ステップで抽出した構造成分に基づく 特徴量の組を算 出する算出ステ ッ プ。
2 5 . ク レーム 2 4 の画像処理方法において、
前記抽出ステ ッ プでの抽出は構造成分に対する 2値画像を作成 する 2値画像作成ステ ップを含むと と もに、
前記算出ステ ッ プにおける特徴量の算出は、 前記 2値画像に基 づく 特徴量の組を算出する。
2 6 . 画像処理方法は以下を含む ;
複数の色信号からなる画像を入力する入力ステ ッ プと 、 前記入力ステップで入力 した画像を構成する複数の色信号の少 なく と も 2つから所望の構造成分を抽出する抽出ステ ッ プと 、 前記抽出ステ ッ プで抽出した構造成分を合成する合成ステ ッ プ と 、
前記合成ステ ッ プでの合成の結果に基つく 特徴量を算出する算 出ステ ップ。
2 7 . ク レーム 2 6 の画像処理方法において、
前記合成ステップでの合成は前記構造成分の局所的な値に基づ く 合成を行う。
2 8 . ク レーム 1 の画像処理方法において、
前記入力ステ ッ プで入力する画像は内視鏡画像である。
2 9 . ク レーム 1 の画像処理方法において、
前記構造成分が画像における血管または腺口である。
3 0 . 画像処理装置は以下を含む ;
画像を入力する入力部と、
前記画像中の所定の構造成分をモデル化 したテ ンプレー ト と前 記入力ステップで入力された画像とのマ ッチンク を行い、 この画 像中の抽出対象とする構造成分を抽出する抽出部。
3 1 . ク レーム 3 0 の画像処理装置は、
前記テンプレー トを用いたマッチングによ り 、 前記抽出対象と する構造成分の前記入力された画像中の位置を特定する位置特定 部を更に有し、
前記抽出部は、 前記位置特定部によ るマッチング結果に基づき 前記抽出対象とする構造成分を抽出する。
PCT/JP2003/015582 2002-12-05 2003-12-05 画像処理装置および画像処理方法 WO2004049923A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2003289291A AU2003289291A1 (en) 2002-12-05 2003-12-05 Image processing device and image processing method
EP03780684A EP1568307B1 (en) 2002-12-05 2003-12-05 Image processing device and image processing method
US10/537,755 US7599533B2 (en) 2002-12-05 2003-12-05 Image processing system and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-354290 2002-12-05
JP2002354290A JP4409166B2 (ja) 2002-12-05 2002-12-05 画像処理装置

Publications (1)

Publication Number Publication Date
WO2004049923A1 true WO2004049923A1 (ja) 2004-06-17

Family

ID=32463336

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/015582 WO2004049923A1 (ja) 2002-12-05 2003-12-05 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US7599533B2 (ja)
EP (1) EP1568307B1 (ja)
JP (1) JP4409166B2 (ja)
AU (1) AU2003289291A1 (ja)
WO (1) WO2004049923A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984990A (zh) * 2011-02-01 2013-03-20 奥林巴斯医疗株式会社 诊断辅助装置
US9129384B2 (en) 2012-11-07 2015-09-08 Olympus Medical Systems Corp. Medical image processing device

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1643906A2 (en) * 2003-06-12 2006-04-12 University of Utah Research Foundation Apparatus, systems and methods for diagnosing carpal tunnel syndrome
ITPI20040066A1 (it) * 2004-09-21 2004-12-21 Cnr Consiglio Naz Delle Ricerche Metodo e dispositivo per la valutazione automatica di indici di funzionalita' cardiovascolare mediante elaborazione di immagini ecografiche
JP4615963B2 (ja) * 2004-10-29 2011-01-19 オリンパス株式会社 カプセル型内視鏡装置
JP4799248B2 (ja) * 2006-03-31 2011-10-26 富士フイルム株式会社 画像処理装置
JP5094036B2 (ja) * 2006-04-17 2012-12-12 オリンパスメディカルシステムズ株式会社 内視鏡挿入方向検出装置
JP4247691B2 (ja) * 2006-05-17 2009-04-02 ソニー株式会社 登録装置、照合装置、登録方法、照合方法及びプログラム
JP4847795B2 (ja) * 2006-06-06 2011-12-28 Hoya株式会社 内視鏡用組織蛍光染色剤組成物
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes
JP5243706B2 (ja) * 2006-08-28 2013-07-24 株式会社ミツトヨ 光波干渉測定装置
GB0705223D0 (en) * 2007-03-19 2007-04-25 Univ Sussex Method, apparatus and computer program for analysing medical image data
JP5073361B2 (ja) * 2007-05-15 2012-11-14 隆志 曽根 画像処理装置、画像処理システム、画像処理方法
JP2008287436A (ja) 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP5435532B2 (ja) * 2007-07-17 2014-03-05 富士フイルム株式会社 画像処理システム
US8144958B2 (en) 2008-09-11 2012-03-27 Carl Zeiss Meditec Ag Medical systems and methods
US20100142767A1 (en) * 2008-12-04 2010-06-10 Alan Duncan Fleming Image Analysis
JP5282343B2 (ja) * 2008-12-05 2013-09-04 富士フイルム株式会社 撮像装置、及びプログラム
JP5455550B2 (ja) * 2009-10-23 2014-03-26 Hoya株式会社 電子内視鏡用プロセッサ
TWI432168B (zh) * 2009-12-31 2014-04-01 Univ Nat Yunlin Sci & Tech 內視鏡導航方法以及內視鏡導航系統
EP2502546B1 (en) * 2010-04-12 2015-07-01 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
US8922633B1 (en) 2010-09-27 2014-12-30 Given Imaging Ltd. Detection of gastrointestinal sections and transition of an in-vivo device there between
US8965079B1 (en) 2010-09-28 2015-02-24 Given Imaging Ltd. Real time detection of gastrointestinal sections and transitions of an in-vivo device therebetween
JP5371920B2 (ja) * 2010-09-29 2013-12-18 富士フイルム株式会社 内視鏡装置
JP5582948B2 (ja) * 2010-09-29 2014-09-03 富士フイルム株式会社 内視鏡装置
JP5683888B2 (ja) * 2010-09-29 2015-03-11 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5435746B2 (ja) * 2011-01-24 2014-03-05 富士フイルム株式会社 内視鏡装置
WO2012114600A1 (ja) * 2011-02-22 2012-08-30 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
KR101182729B1 (ko) * 2011-03-10 2012-09-13 동국대학교 산학협력단 의료용 혈관영상 처리방법
JP5301737B2 (ja) * 2011-04-27 2013-09-25 オリンパスメディカルシステムズ株式会社 医用画像処理装置
JP5948203B2 (ja) * 2011-10-12 2016-07-06 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5844230B2 (ja) * 2011-10-12 2016-01-13 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5931418B2 (ja) 2011-11-25 2016-06-08 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP6061619B2 (ja) * 2012-10-30 2017-01-18 オリンパス株式会社 顕微鏡システム
CA2804439A1 (en) * 2012-12-13 2014-06-13 Ehsan Fazl Ersi System and method for categorizing an image
CN104869884B (zh) * 2012-12-19 2017-03-08 奥林巴斯株式会社 医用图像处理装置以及医用图像处理方法
JP6112859B2 (ja) * 2012-12-26 2017-04-12 オリンパス株式会社 医用画像処理装置
JP6045396B2 (ja) * 2013-02-27 2016-12-14 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6099436B2 (ja) * 2013-03-06 2017-03-22 オリンパス株式会社 画像処理装置
US9324145B1 (en) 2013-08-08 2016-04-26 Given Imaging Ltd. System and method for detection of transitions in an image stream of the gastrointestinal tract
JP6608141B2 (ja) * 2014-01-24 2019-11-20 国立大学法人九州工業大学 健康状態評価支援システム
JP6210962B2 (ja) * 2014-09-30 2017-10-11 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6651214B2 (ja) * 2015-06-19 2020-02-19 国立大学法人 東京大学 画像処理装置、画像処理方法、プログラム及び記録媒体
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US11468273B2 (en) * 2018-09-20 2022-10-11 Cable Television Laboratories, Inc. Systems and methods for detecting and classifying anomalous features in one-dimensional data
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
JP6877672B2 (ja) * 2019-04-26 2021-05-26 Hoya株式会社 電子内視鏡システム及びデータ処理装置
TWI711051B (zh) 2019-07-11 2020-11-21 宏碁股份有限公司 血管狀態評估方法與血管狀態評估裝置
US20220192470A1 (en) * 2019-09-27 2022-06-23 Hoya Corporation Endoscope system
US11940451B2 (en) * 2021-12-20 2024-03-26 Instrumentation Laboratory Co. Microfluidic image analysis system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08145628A (ja) * 1994-11-18 1996-06-07 Nippon Telegr & Teleph Corp <Ntt> 対象物位置特定方法
JP2918162B2 (ja) 1988-11-02 1999-07-12 オリンパス光学工業株式会社 内視鏡画像処理装置
JPH11271232A (ja) * 1998-03-23 1999-10-05 Hitachi Eng & Service Co Ltd プリント基板の配線の欠陥検出方法および装置
JP2002165757A (ja) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd 診断支援装置
US20020090126A1 (en) 2000-11-20 2002-07-11 Fuji Photo Film Co., Ltd. Method and apparatus for detecting anomalous shadows
US20020118278A1 (en) 2001-02-28 2002-08-29 Asahi Kogaku Kogyo Kabushiki Kaisha Organ-region-indication system incorporated in electronic endoscope system
JP2002336193A (ja) * 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2003265463A (ja) * 2002-03-13 2003-09-24 Nagoya Industrial Science Research Inst 画像診断支援システム及び画像診断支援プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0332635A (ja) 1989-06-30 1991-02-13 Olympus Optical Co Ltd 内視鏡画像処理装置
US5651047A (en) * 1993-01-25 1997-07-22 Cardiac Mariners, Incorporated Maneuverable and locateable catheters
JP3895400B2 (ja) 1996-04-30 2007-03-22 オリンパス株式会社 診断支援装置
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6468265B1 (en) * 1998-11-20 2002-10-22 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
JP2000197050A (ja) * 1998-12-25 2000-07-14 Canon Inc 画像処理装置及び方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2918162B2 (ja) 1988-11-02 1999-07-12 オリンパス光学工業株式会社 内視鏡画像処理装置
JPH08145628A (ja) * 1994-11-18 1996-06-07 Nippon Telegr & Teleph Corp <Ntt> 対象物位置特定方法
JPH11271232A (ja) * 1998-03-23 1999-10-05 Hitachi Eng & Service Co Ltd プリント基板の配線の欠陥検出方法および装置
US20020090126A1 (en) 2000-11-20 2002-07-11 Fuji Photo Film Co., Ltd. Method and apparatus for detecting anomalous shadows
JP2002165757A (ja) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd 診断支援装置
US20020118278A1 (en) 2001-02-28 2002-08-29 Asahi Kogaku Kogyo Kabushiki Kaisha Organ-region-indication system incorporated in electronic endoscope system
JP2002336193A (ja) * 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2003265463A (ja) * 2002-03-13 2003-09-24 Nagoya Industrial Science Research Inst 画像診断支援システム及び画像診断支援プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1568307A4
SHIGEMOTO KANAE: "3-jigen buttai model o mochiita kyobu X-sen Ct gazo kara no kessetsu in'ei ninshiki no kosokuka", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU, vol. 101, no. 581, 24 January 2002 (2002-01-24), pages 1 - 6, XP002979186 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984990A (zh) * 2011-02-01 2013-03-20 奥林巴斯医疗株式会社 诊断辅助装置
US9129384B2 (en) 2012-11-07 2015-09-08 Olympus Medical Systems Corp. Medical image processing device

Also Published As

Publication number Publication date
EP1568307B1 (en) 2012-04-18
JP2004181096A (ja) 2004-07-02
EP1568307A1 (en) 2005-08-31
JP4409166B2 (ja) 2010-02-03
AU2003289291A1 (en) 2004-06-23
US20060050966A1 (en) 2006-03-09
EP1568307A4 (en) 2008-05-21
US7599533B2 (en) 2009-10-06

Similar Documents

Publication Publication Date Title
WO2004049923A1 (ja) 画像処理装置および画像処理方法
Chan et al. Texture-map-based branch-collaborative network for oral cancer detection
Motta et al. Vessel optimal transport for automated alignment of retinal fundus images
Luo et al. Vision-based surgical field defogging
Barbalata et al. Laryngeal tumor detection and classification in endoscopic video
CN111178369B (zh) 一种医学影像的识别方法及系统、电子设备、存储介质
Chen et al. An improved level set for liver segmentation and perfusion analysis in MRIs
JP6580446B2 (ja) 画像処理装置及び画像処理方法
CN113298830B (zh) 一种基于自监督的急性颅内ich区域图像分割方法
JP6458166B2 (ja) 医用画像処理方法及び装置及びシステム及びプログラム
Du et al. Convolutional networks for the segmentation of intravascular ultrasound images: Evaluation on a multicenter dataset
CN111292307A (zh) 一种消化系统胆囊结石识别方法及定位方法
CN113450305B (zh) 医疗图像的处理方法、系统、设备及可读存储介质
Bodzioch et al. New approach to gallbladder ultrasonic images analysis and lesions recognition
CN111383759A (zh) 一种肺炎自动诊断系统
Goyal et al. Multi-modality image fusion for medical assistive technology management based on hybrid domain filtering
Xia et al. A robust edge-preserving stereo matching method for laparoscopic images
Khan et al. Multi-level GAN based enhanced CT scans for liver cancer diagnosis
CN113362360B (zh) 基于流体速度场的超声颈动脉斑块分割方法
Pelapur et al. Multi-focus image fusion using epifluorescence microscopy for robust vascular segmentation
Kutbay et al. A computer-aided diagnosis system for measuring carotid artery intima-media thickness (IMT) using quaternion vectors
Ali et al. Arthroscopic multi-spectral scene segmentation using deep learning
Chucherd et al. Sparse Phase Portrait Analysis for Preprocessing and Segmentation of Ultrasound Images of Breast Cancer.
Aksenov et al. An ensemble of convolutional neural networks for the use in video endoscopy
Nunes et al. Adaptive level set with region analysis via mask R-CNN: A comparison against classical methods

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003780684

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006050966

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10537755

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003780684

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10537755

Country of ref document: US