WO2014156176A1 - 領域抽出装置および方法並びにプログラム - Google Patents

領域抽出装置および方法並びにプログラム Download PDF

Info

Publication number
WO2014156176A1
WO2014156176A1 PCT/JP2014/001802 JP2014001802W WO2014156176A1 WO 2014156176 A1 WO2014156176 A1 WO 2014156176A1 JP 2014001802 W JP2014001802 W JP 2014001802W WO 2014156176 A1 WO2014156176 A1 WO 2014156176A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
boundary
residue
candidate
direction component
Prior art date
Application number
PCT/JP2014/001802
Other languages
English (en)
French (fr)
Inventor
聡志 井原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2014156176A1 publication Critical patent/WO2014156176A1/ja
Priority to US14/867,210 priority Critical patent/US9754368B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Definitions

  • the present invention relates to an area extraction processing apparatus, method, and program for extracting a residual area in a luminal organ from a luminal image including the luminal organ.
  • luminal organs such as the large intestine, small intestine, and stomach of a patient are extracted from a three-dimensional image taken by a modality such as a computed tomography (CT) apparatus, and the extracted three-dimensional image of the luminal organ is used for diagnostic imaging. Things have been done.
  • CT computed tomography
  • this image is called a virtual endoscopic image.
  • CT imaging is performed by contrasting the residue in advance, and after the CT imaging, the residual region is removed by image processing to virtually generate a three-dimensional image having no residue, and volume rendering may be performed.
  • This is called digital cleansing processing.
  • FIG. 10 is an example of a virtual endoscopic image generated using a three-dimensional image before the digital cleansing process
  • FIG. 11 is a virtual image generated using the three-dimensional image after the digital cleansing process. It is an example of an endoscopic image.
  • Patent Document 1 a method is proposed in which the boundary between the large intestine region (gas region) and the residue region is horizontal, and a region including the horizontal region is extracted as the residue region.
  • Patent Document 1 since the method described in Patent Document 1 is based on the assumption that the liquid level of the residue is horizontal, when an image obtained by CT imaging in a prone state is displayed with the top and bottom reversed, Since the liquid level is not necessarily horizontal, the residual region cannot be extracted properly. Further, when the residual region is a relatively small region, it is very difficult to determine whether or not it is a horizontal plane because the liquid level is small.
  • the portion where the large intestines are in contact with each other is a relatively horizontal plane.
  • a part of the intestinal wall is erroneously detected as a residual region.
  • the present invention provides an area extraction processing apparatus, method, and program capable of extracting a residual area in a lumen organ with high accuracy from a lumen image including a lumen organ such as a large intestine. It is intended.
  • the region extraction processing device of the present invention extracts a gas region extraction unit that extracts a gas region from a lumen image including a luminal organ, and extracts a residual region candidate in the luminal organ as a residual candidate region from the lumen image.
  • a residue candidate region extraction unit, a boundary candidate region detection unit that detects a boundary candidate region including a boundary between the gas region and the residue candidate region, and a plurality of direction components in the image in the boundary candidate region A representative direction component acquisition unit that acquires a representative direction component that represents the direction component of the boundary, and a boundary that detects a boundary region including a boundary between the gas region and the residual region from the boundary candidate regions based on the representative direction component
  • a region detection unit and a residue region extraction unit that extracts a residue candidate region including a boundary region as a residue region are provided.
  • the boundary candidate region detection unit expands each of the gas region and the residue candidate region, and a region common to the expanded gas region and the residue candidate region is defined as a boundary candidate. It can be detected as a region.
  • the representative direction component acquisition unit can perform a voting process of a plurality of direction components to acquire the representative direction component.
  • the representative direction component acquisition unit performs voting on the value obtained by converting the direction component into polar coordinates, acquires the direction component of the maximum peak in the polar coordinate space as the representative direction component, and the boundary region detection unit detects the representative direction component as the representative direction component.
  • the included boundary candidate area can be detected as the boundary area.
  • the representative direction component acquisition unit can calculate a normal direction component of each pixel in the boundary candidate region and acquire the representative direction component based on the normal direction component.
  • the representative direction component acquisition unit can calculate the normal direction component of each pixel based on the density gradient in the boundary candidate region.
  • the representative direction component acquisition unit can calculate a concentration gradient using a Sobel filter.
  • the residue candidate region extraction unit can extract a bone or contrast vessel region together with the residue region as a residue candidate region.
  • the luminal organ can be the large intestine.
  • the lumen image can be a three-dimensional image.
  • the region extraction processing method of the present invention extracts a gas region from a luminal image including a luminal organ, extracts a region candidate representing a residue in the luminal organ from the luminal image as a residue candidate region, A boundary candidate region including a boundary with the residual candidate region is detected, a representative direction component representing a plurality of direction components in an image in the boundary candidate region is obtained, and gas is generated from the boundary candidate region based on the representative direction component. A boundary region including a boundary between the region and the residual region is detected, and a residual candidate region including the boundary region is extracted as a residual region.
  • the region extraction processing program of the present invention uses a computer to extract a gas region from a lumen image including a luminal organ and a candidate for a region representing a residue in the luminal organ from the luminal image.
  • a residue candidate region extraction unit that extracts a region
  • a boundary candidate region detection unit that detects a boundary candidate region including a boundary between the gas region and the residue candidate region, and representative direction components of a plurality of direction components in an image in the boundary candidate region
  • a representative direction component acquisition unit that acquires a boundary region detection unit that detects a boundary region that includes a boundary between a gas region and a residue region from the boundary candidate regions based on the representative direction component, and a residue that includes the boundary region It functions as a residue region extraction unit that extracts candidate regions as residue regions.
  • a gas region is extracted from a lumen image including a luminal organ, and a residual region candidate in the luminal organ is extracted as a residual candidate region from the luminal image.
  • Detecting a boundary candidate region including a boundary between the gas region and the residue candidate region, obtaining a representative direction component representing a plurality of direction components in an image in the boundary candidate region, and based on the representative direction component Since the boundary region including the boundary between the gas region and the residue region is detected from the candidate regions, and the residue candidate region including the boundary region is extracted as the residue region, the residue region is extracted with high accuracy. can do.
  • FIG. 1 is a block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of a region extraction processing apparatus and method and a program according to the present invention.
  • action of the medical image diagnosis assistance system shown in FIG. The figure which shows an example of the air area
  • Diagram showing an example of a Sobel filter The figure which shows an example of the vote result of the value which carried out the polar coordinate transformation of the normal direction component of each voxel
  • region The figure which shows an example of the normal direction component of each voxel in a boundary candidate area
  • region The figure which shows an example of the normal direction component of each voxel in a boundary candidate area
  • region The figure which shows an example of the virtual endoscopic image before a digital cleansing process
  • the figure which shows an example of the imaged residual region in the large intestine The figure which shows the state where large intestines contact and the residue has accumulated on one side
  • FIG. 1 is a block diagram showing a schematic configuration of the medical image diagnosis support system of the present embodiment.
  • the medical image diagnosis support system of the present embodiment includes a medical image display control device 1, a three-dimensional image storage server 2, a display 3, and an input device 4, as shown in FIG.
  • the medical image display control apparatus 1 is a computer in which the medical image display control program of this embodiment is installed in a computer.
  • the medical image display control device 1 includes an embodiment of the region extraction processing device of the present invention.
  • the medical image display control apparatus 1 includes a central processing unit (CPU), a semiconductor memory, and a storage device such as a hard disk or an SSD (Solid State Drive).
  • a medical image display control program including the region extraction processing program of this embodiment is installed in the storage device, and when this medical image display control program is executed by the central processing unit, 3 as shown in FIG.
  • the virtual endoscope image generation unit 18 and the display control unit 19 operate.
  • the three-dimensional image acquisition unit 10 acquires a three-dimensional image 5 of a subject imaged in advance before surgery or before examination.
  • the three-dimensional image 5 include volume data reconstructed from slice data output from a CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic imaging apparatus, or the like.
  • the three-dimensional image 5 is stored in advance in the three-dimensional image storage server 2 together with the identification information of the subject, and the three-dimensional image acquisition unit 10 corresponds to the identification information of the subject input in the input device 4.
  • the image 5 is read from the three-dimensional image storage server 2.
  • the three-dimensional image acquisition unit 10 may acquire a large number of slice data and generate volume data.
  • the three-dimensional image acquisition unit 10 acquires a three-dimensional image including the large intestine imaged by the CT apparatus. In addition, you may make it acquire not only large intestine but the three-dimensional image containing other luminal organs which may have residues, such as a stomach and a small intestine.
  • the gas region extraction unit 11 receives the three-dimensional image 5 acquired by the three-dimensional image acquisition unit 10 and extracts a gas region included in the input three-dimensional image 5. In the present embodiment, an air region is extracted as the gas region.
  • the gas region extraction unit 11 extracts a region having a CT value of ⁇ 800 or less from the three-dimensional image 5.
  • This extracted air region substantially represents the large intestine region.
  • the small intestine, the stomach, and the lung may be extracted in addition to the large intestine. There is no particular problem because it will be excluded from processing. In addition, what is necessary is just to make it extract the gas area
  • the residue candidate area extraction unit 12 receives the 3D image 5 acquired by the 3D image acquisition unit 10 and extracts a residue candidate area included in the input 3D image 5.
  • the residue candidate region extraction unit 12 extracts a region having a CT value of 120 or more from the three-dimensional image 5.
  • the residual region is extracted by the threshold value determination of the CT value
  • the bone and contrast blood vessel regions are also extracted at the same time. That is, in the present embodiment, a region having a CT value close to the residual CT value, such as a bone or a contrasted blood vessel, is also extracted as a residual candidate region.
  • a region having a CT value close to the residual CT value such as a bone or a contrasted blood vessel
  • the boundary candidate region detection unit 13 Based on the air region extracted by the gas region extraction unit 11 and the residue candidate region extracted by the residue candidate region extraction unit 12, the boundary candidate region detection unit 13 detects a boundary candidate region including the boundary of these regions. To do.
  • the boundary candidate region detection unit 13 expands the air region extracted by the gas region extraction unit 11 and the residue candidate region extracted by the residue candidate region extraction unit 12, respectively, and the expanded air region And a residual candidate area are detected as boundary candidate areas.
  • the method for detecting the boundary candidate region is not limited to the above method, and other processing may be used as long as the region includes a boundary including the boundary between the air region and the residual candidate region.
  • the representative direction component acquisition unit 14 votes the direction component of the image in the boundary candidate area detected by the boundary candidate area detection unit 13, and acquires the representative direction component based on the result of the vote.
  • the voting process in the representative direction component acquisition unit 14 will be described in detail later.
  • the boundary region detection unit 15 detects a boundary region including the boundary between the gas region and the residual region from the boundary candidate regions described above, based on the representative direction component acquired by the representative direction component acquisition unit 14. . This boundary region detection process will also be described in detail later.
  • the residue region extraction unit 16 extracts a residue region based on the boundary region detected by the boundary region detection unit 15. Specifically, the residual region extraction unit 16 extracts a residual candidate region including the boundary region detected by the boundary region detection unit 15 as a final residual region. As a result, it is possible to exclude bone and contrast blood vessel regions that were included in the residue candidate region.
  • the residue region removing unit 17 removes the residue region extracted by the residue region extracting unit 16 from the three-dimensional image 5. That is, so-called digital cleansing processing is performed.
  • the virtual endoscopic image generation unit 18 generates a virtual endoscopic image based on the three-dimensional image 5 that has been subjected to the digital cleansing process in the residual region removal unit 17.
  • the virtual endoscopic image generation unit 18 converts voxel data in a plurality of light ray directions radially extending around a gaze vector based on a preset viewpoint and gaze direction into a predetermined projection plane.
  • An image based on the central projection projected on is generated as a virtual endoscopic image.
  • a specific method of central projection for example, a known volume rendering method or the like can be used.
  • the display control unit 19 causes the display 3 to display the virtual endoscopic image generated by the virtual endoscopic image generation unit 18.
  • the input device 4 is provided with a mouse, a keyboard, etc., and receives an operation input by the user. For example, as described above, the input device 4 receives setting inputs such as a viewpoint and a line-of-sight direction used when generating a virtual endoscopic image.
  • the identification information of the subject is input by the user using the input device 4, and the three-dimensional image acquisition unit 10 of the medical image display control device 1 performs the three-dimensional image 5 corresponding to the input identification information of the subject. Is read from the three-dimensional image storage server 2 and acquired (S10).
  • the 3D image 5 acquired by the 3D image acquisition unit 10 is input to the gas region extraction unit 11, and the gas region extraction unit 11 extracts an air region from the input 3D image 5 (S12).
  • the 3D image 5 acquired by the 3D image acquisition unit 10 is also input to the residue candidate region extraction unit 12, and the residue candidate region extraction unit 12 extracts a residue candidate region from the input 3D image 5. (S14).
  • the information on the air region extracted by the gas region extraction unit 11 and the information on the residue candidate region extracted by the residue candidate region extraction unit 12 are input to the boundary candidate region detection unit 13 to detect the boundary candidate region.
  • the unit 13 detects boundary candidate regions based on these pieces of information (S16). Specifically, the boundary candidate region detection unit 13 expands each of the air region and the residue candidate region as described above, and detects a region common to the expanded air region and the residue candidate region as a boundary candidate region. To do.
  • FIG. 3 shows an example of the air region after expansion
  • the hatched region shown in FIG. 3 is a region where the air region is expanded.
  • FIG. 4 shows an example of the residue candidate area after expansion, and the hatched area shown in FIG. 4 is an area obtained by expanding the residue candidate area.
  • a slice image is shown instead of a three-dimensional image in order to make it easy to see the air region, the residue candidate region, and the like.
  • the residue candidate region includes not only the residue region in the large intestine but also the bone region around the large intestine.
  • FIG. 5 shows boundary candidate regions (shaded regions in FIG. 5) that are common regions between the region in which the air region shown in FIG. 3 is expanded and the region in which the residue candidate region shown in FIG. 4 is expanded.
  • the boundary candidate region includes not only the boundary region between the residual region and the air region in the large intestine but also the bone region, the air region, and the boundary region around the large intestine.
  • the representative direction component acquisition unit 14 calculates the direction component of each voxel (pixel) of the boundary region candidate, and performs voting on a value obtained by polar-coordinate conversion of the direction component (S18). Specifically, the representative direction component acquisition unit 14 calculates the density gradient of the image in the boundary region candidate using a Sobel filter as shown in FIG. 6, and based on the density gradient, the normal direction of each voxel Is calculated. Then, the representative direction component acquisition unit 14 performs polar coordinate conversion on the normal direction of each voxel, and performs voting for each value after the polar coordinate conversion.
  • FIG. 7 shows an example of a result of voting for each value obtained by polar coordinate conversion.
  • the larger the number of votes the more white it is shown. Since all the voxels in the boundary region between the air region and the residual region are in the same normal direction, a large peak appears at one point as shown in FIG. 7 when the residual region exists. .
  • the representative direction component acquisition unit 14 first checks whether or not the maximum peak in the polar coordinate space is equal to or greater than a preset threshold value (S20). If the maximum peak in the polar coordinate space is equal to or greater than the threshold (S20, YES), it is determined that a residual region exists, and the normal direction component that is the maximum peak is acquired as the representative direction component (S22). . Then, the information of the representative direction component is output to the boundary region detection unit 15.
  • the boundary region detection unit 15 detects a boundary region including the boundary between the air region and the residual region from the boundary candidate regions shown in FIG. 5 based on the representative direction component (S24). Specifically, the boundary region detection unit 15 specifies voxels having the above-described representative direction component from the voxels in the residue candidate region, and detects the specified voxel group as a boundary region.
  • the voxel group having the normal direction components V5 and V6 is detected as a boundary region.
  • the voxel group having the normal direction components V5 and V6 is detected as a boundary region.
  • the voxel group having the normal direction component V7 is not detected as a boundary region. Therefore, it is possible to avoid erroneously detecting a boundary candidate region including a boundary where the large intestines are in contact with each other as a boundary region.
  • residue region extraction unit 16 extracts residue candidate regions including the boundary region detected by the boundary region detection unit 15 as described above as residue regions (S26).
  • the residual region removing unit 17 excludes the residual region voxels from the three-dimensional image 5 based on the residual region information extracted by the residual region extracting unit 16, and thereby performs the digital cleansing process on the three-dimensional image 5. Is acquired (S28).
  • the three-dimensional image 5 subjected to the digital cleansing process in the residual region removing unit 17 is output to the virtual endoscope image generating unit 18, and the virtual endoscope image generating unit 18, the three-dimensional image subjected to the digital cleansing process 5 is used to generate a virtual endoscopic image (S30).
  • the virtual endoscopic image generated in the virtual endoscopic image generation unit 18 is output to the display control unit 19, and the display control unit 19 displays the input virtual endoscopic image on the display 3 (S28). .
  • the direction component in the image in the boundary candidate region is voted, and the boundary between the gas region and the residual region is selected from the boundary candidate regions based on the result of the vote. Since the boundary region including the boundary region is detected and the candidate residue region including the boundary region is extracted as the residual region, only the residual region excluding bones and contrast vessels can be extracted with high accuracy as described above. Further, it is possible to avoid erroneously detecting a boundary candidate region including a boundary where the large intestines are in contact with each other as a boundary region.
  • the processing time until the virtual endoscopic image is displayed can be shortened by not performing the boundary area detection process to the residual area exclusion process. it can.
  • a boundary candidate region that includes less than 80% of voxel groups having the maximum peak normal direction component is not detected as a boundary region. Accordingly, it is possible to avoid detecting a boundary region candidate that includes only a few voxels having the normal direction component of the maximum peak as the boundary region.
  • the surface direction is calculated from the distribution state of the voxel group having the normal direction component of the maximum peak included in each boundary region candidate, and the surface direction and the normal direction are calculated. It may be determined whether or not the components are orthogonal, and a boundary region candidate determined to be orthogonal may be detected as a boundary region.
  • one vote is assigned to the normal direction component of each pixel to perform the voting process, but a weighted voting process may be performed.
  • a weighted voting process may be performed. For example, the distance from the body axis of each pixel may be acquired, and the weighted voting process may be performed by decreasing the weight as the distance increases.
  • the representative direction component is acquired by voting.
  • the present invention is not limited to this, and for example, the vector of the normal direction component of each pixel is weighted and added to calculate the vector of the representative direction component.
  • an average vector of normal direction component vectors of each pixel may be calculated and used as a representative direction component vector.
  • the weighting method for the weighted addition is the same as the weighted voting process described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】大腸などの管腔臓器を含む管腔画像から管腔臓器内の残滓の領域を高精度に抽出する。 【解決手段】管腔臓器を含む管腔画像から気体領域を抽出する気体領域抽出部(11)と、管腔臓器内における残滓の領域の候補を管腔画像から残滓候補領域として抽出する残滓候補領域抽出部(12)と、気体領域と残滓候補領域との境界を含む境界候補領域を検出する境界候補領域検出部(13)と、境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得する代表方向成分取得部(14)と、代表方向成分に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出する境界領域検出部(15)と、境界領域を含む残滓候補領域を残滓の領域として抽出する残滓領域抽出部(16)とを備える。

Description

領域抽出装置および方法並びにプログラム
 本発明は、管腔臓器を含む管腔画像から管腔臓器内の残滓の領域を抽出する領域抽出処理装置および方法並びにプログラムに関するものである。
 近年、CT(Computed Tomography)装置などのモダリティによって撮影された3次元画像から患者の大腸、小腸、胃などの管腔臓器を抽出し、その抽出した管腔臓器の3次元画像を画像診断に用いることが行われている。
 たとえば、大腸に空気を入れた状態でCT撮影を行い、その撮影によって得た3次元画像を大腸の内側からボリュームレンダリングすることによって、あたかも内視鏡で観察するような画像を作り出すことが可能であり、この画像を仮想内視鏡画像と呼んでいる。
 この仮想内視鏡画像を生成する際には、3次元画像上で大腸領域を抽出する必要がある。また、検査前に大腸の中を空にする必要があるが、大腸内に残滓が残る場合がある。この残滓が仮想内視鏡画像に残っていると大腸内の観察の妨げとなる。
 そこで、あらかじめ残滓を造影してCT撮影を行い、そのCT撮影後に画像処理でその残滓領域を取り除くことによって仮想的に残滓の存在しない3次元画像を生成してボリュームレンダリングすることもあり、これをデジタルクレンジング処理と呼んでいる。図10は、デジタルクレンジング処理を施す前の3次元画像を用いて生成した仮想内視鏡画像の一例であり、図11は、デジタルクレンジング処理を施した後の3次元画像を用いて生成した仮想内視鏡画像の一例である。
 そして、上述したデジタルクレンジング処理を行うためには、図12に示すような造影された残滓領域を適切に抽出する必要がある。
 そこで、特許文献1においては、大腸領域(気体領域)と残滓領域との境界が水平なのを利用し、その水平な領域を含む領域を残滓領域として抽出する方法が提案されている。
特開2006-198059号公報
 しかしながら、特許文献1に記載の方法では、残滓の液面が水平であることを前提としているため、うつ伏せの状態でCT撮影を行った画像を天地を逆にして表示した場合には、残滓の液面が必ずしも水平ではないので、残滓領域を適切に抽出することができない。また、残滓領域が比較的小さい領域である場合には、液面が小さいので水平な平面であるか否かの判別は非常に困難である。
 また、たとえば、図13に示すように、大腸同士が接触し、その片側に残滓がたまっている場合には、その大腸同士が接触している部分が比較的水平な平面となるので、大腸の腸壁の部分まで残滓領域として誤検出する可能性がある。このような誤検出があると、デジタルクレンジング処理の際、大腸の腸壁の画像まで除去してしまい、穴が開いた仮想内視鏡画像が生成されてしまう。
 本発明は、上記事情に鑑み、大腸などの管腔臓器を含む管腔画像から管腔臓器内の残滓の領域を高精度に抽出することができる領域抽出処理装置および方法並びにプログラムを提供することを目的とするものである。
 本発明の領域抽出処理装置は、管腔臓器を含む管腔画像から気体領域を抽出する気体領域抽出部と、管腔臓器内における残滓の領域の候補を管腔画像から残滓候補領域として抽出する残滓候補領域抽出部と、気体領域と残滓候補領域との境界を含む境界候補領域を検出する境界候補領域検出部と、境界候補領域内の画像における複数の方向成分を取得し、その取得した複数の方向成分を代表する代表方向成分を取得する代表方向成分取得部と、上記代表方向成分に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出する境界領域検出部と、境界領域を含む残滓候補領域を残滓の領域として抽出する残滓領域抽出部とを備えたことを特徴とする。
 また、上記本発明の領域抽出処理装置においては、境界候補領域検出部を、気体領域と残滓候補領域とをそれぞれ膨張させ、その膨張後の気体領域と残滓候補領域とで共通する領域を境界候補領域として検出するものとできる。
 また、代表方向成分取得部を、複数の方向成分の投票処理を行って代表方向成分を取得するものとできる。
 また、代表方向成分取得部を、方向成分を極座標変換した値の投票を行い、その極座標空間において最大ピークの方向成分を代表方向成分として取得するものとし、境界領域検出部を、代表方向成分を含む境界候補領域を境界領域として検出するものとできる。
 上記投票の結果、最大ピークが予め設定された閾値未満である場合には、境界領域検出部における境界領域の検出と残滓領域抽出部における残滓の領域の抽出とを行わないようにできる。
 また、代表方向成分取得部を、境界候補領域における各画素の法線方向成分を算出し、その法線方向成分に基づいて代表方向成分を取得するものとできる。
 また、代表方向成分取得部を、境界候補領域における濃度勾配に基づいて各画素の法線方向成分を算出するものとできる。
 また、代表方向成分取得部を、ソーベルフィルタを用いて濃度勾配を算出するものとできる。
 また、残滓候補領域抽出部を、残滓候補領域として、残滓の領域とともに骨または造影血管の領域を抽出するものとできる。
 また、管腔臓器を大腸とすることができる。
 また、管腔画像を3次元画像とすることができる。
 本発明の領域抽出処理方法は、管腔臓器を含む管腔画像から気体領域を抽出し、管腔臓器内における残滓を表す領域の候補を管腔画像から残滓候補領域として抽出し、気体領域と残滓候補領域との境界を含む境界候補領域を検出し、境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得し、代表方向成分に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出し、境界領域を含む残滓候補領域を残滓の領域として抽出することを特徴とする。
 本発明の領域抽出処理プログラムは、コンピュータを、管腔臓器を含む管腔画像から気体領域を抽出する気体領域抽出部と、管腔臓器内における残滓を表す領域の候補を管腔画像から残滓候補領域として抽出する残滓候補領域抽出部と、気体領域と残滓候補領域との境界を含む境界候補領域を検出する境界候補領域検出部と、境界候補領域内の画像における複数の方向成分の代表方向成分を取得する代表方向成分取得部と、代表方向成分に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出する境界領域検出部と、境界領域を含む残滓候補領域を残滓の領域として抽出する残滓領域抽出部として機能させることを特徴とする。
 本発明の領域抽出処理装置および方法並びにプログラムによれば、管腔臓器を含む管腔画像から気体領域を抽出し、管腔臓器内における残滓の領域の候補を管腔画像から残滓候補領域として抽出し、気体領域と残滓候補領域との境界を含む境界候補領域を検出し、境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得し、その代表方向成分に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出し、その境界領域を含む残滓候補領域を残滓の領域として抽出するようにしたので、残滓の領域を高精度に抽出することができる。なお、本発明の効果については後で詳述する。
本発明の領域抽出処理装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図 図1に示す医用画像診断支援システムの作用を説明するためのフローチャート 膨張後の空気領域の一例を示す図 膨張後の残滓候補領域の一例を示す図 図3に示す空気領域を膨張させた領域と、図4に示す残滓候補領域を膨張させた領域との共通領域である境界候補領域を示す図 ソーベルフィルタの一例を示す図 各ボクセルの法線方向成分を極座標変換した値の投票結果の一例を示す図 境界候補領域における各ボクセルの法線方向成分の一例を示す図 境界候補領域における各ボクセルの法線方向成分の一例を示す図 デジタルクレンジング処理前の仮想内視鏡画像の一例を示す図 デジタルクレンジング処理後の仮想内視鏡画像の一例を示す図 大腸内における造影された残滓領域の一例を示す図 大腸同士が接触して片方に残滓がたまっている状態を示す図
 以下、本発明の領域抽出処理装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の医用画像診断支援システムの概略構成を示すブロック図である。
 本実施形態の医用画像診断支援システムは、図1に示すように、医用画像表示制御装置1と、3次元画像保管サーバ2と、ディスプレイ3と、入力装置4とを備えている。
 医用画像表示制御装置1は、コンピュータに本実施形態の医用画像表示制御プログラムがインストールされたものである。また、医用画像表示制御装置1は、本発明の領域抽出処理装置の一実施形態を含むものである。
 医用画像表示制御装置1は、中央処理装置(CPU)および半導体メモリや、ハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えている。ストレージデバイスには、本実施形態の領域抽出処理プログラムを含む医用画像表示制御プログラムがインストールされており、この医用画像表示制御プログラムが中央処理装置によって実行されることによって、図1に示すような3次元画像取得部10、気体領域抽出部11、残滓候補領域抽出部12、境界候補領域検出部13、代表方向成分取得部14、境界領域検出部15、残滓領域抽出部16、残滓領域除去部17、仮想内視鏡画像生成部18および表示制御部19が動作する。
 3次元画像取得部10は、手術前または検査前などに予め撮影された被検体の3次元画像5を取得するものである。3次元画像5としては、たとえばCT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置や超音波撮影装置などから出力されたスライスデータから再構成されたボリュームデータなどがある。3次元画像5は、3次元画像保管サーバ2に被検体の識別情報とともに予め保管されており、3次元画像取得部10は、入力装置4において入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出すものである。なお、3次元画像取得部10において多数のスライスデータを取得してボリュームデータを生成するようにしてもよい。
 本実施形態においては、3次元画像取得部10は、CT装置によって撮影された大腸を含む3次元画像を取得するものとする。なお、大腸に限らず、胃や小腸などといった残滓が存在する可能性のあるその他の管腔臓器を含む3次元画像を取得するようにしてもよい。
 気体領域抽出部11は、3次元画像取得部10によって取得された3次元画像5が入力され、その入力された3次元画像5に含まれる気体領域を抽出するものである。本実施形態においては、気体領域として空気領域を抽出する。
 具体的には、気体領域抽出部11は、3次元画像5からCT値が-800以下の領域を抽出する。この抽出された空気領域は、実質的に大腸領域を示すものである。ただし、上述したようにCT値の閾値判定によって気体領域を抽出した場合、大腸以外に小腸や、胃や肺も抽出される場合もあるが、これらの領域は、後の処理で残滓領域の抽出処理の対象から除外されることになるので特に問題はない。なお、その他の気体を大腸内に充填させる場合にはその気体領域を抽出するようにすればよい。
 残滓候補領域抽出部12は、3次元画像取得部10によって取得された3次元画像5が入力され、その入力された3次元画像5に含まれる残滓候補領域を抽出するものである。
 具体的には、残滓候補領域抽出部12は、3次元画像5からCT値が120以上の領域を抽出する。このようにCT値の閾値判定によって残滓候補領域を抽出した場合、残滓の領域以外に骨や造影血管の領域も同時に抽出されることになる。すなわち、本実施形態においては、骨や造影血管などといった残滓のCT値に近いCT値を有する領域も残滓候補領域として抽出される。ただし、骨や造影血管の領域などは、後の処理によって最終的には残滓領域から除外されることになるので特に問題はない。
 境界候補領域検出部13は、気体領域抽出部11によって抽出された空気領域と残滓候補領域抽出部12によって抽出された残滓候補領域とに基づいて、これらの領域の境界を含む境界候補領域を検出するものである。
 具体的には、境界候補領域検出部13は、気体領域抽出部11によって抽出された空気領域と残滓候補領域抽出部12によって抽出された残滓候補領域とをそれぞれ膨張させ、その膨張後の空気領域と残滓候補領域とで共通する領域を境界候補領域として検出するものである。なお、境界候補領域を検出する方法としては、上記の方法に限らず、空気領域と残滓候補領域との境界を含む領域を検出する処理であればその他の処理を用いるようにしてもよい。
 代表方向成分取得部14は、境界候補領域検出部13によって検出された境界候補領域内の画像の方向成分の投票を行い、その投票の結果に基づいて代表方向成分を取得するものである。なお、代表方向成分取得部14における投票処理については、後で詳述する。
 境界領域検出部15は、代表方向成分取得部14によって取得された代表方向成分に基づいて、上述した境界候補領域の中から気体領域と残滓領域との境界を含む境界領域を検出するものである。この境界領域の検出処理についても、後で詳述する。
 残滓領域抽出部16は、境界領域検出部15において検出された境界領域に基づいて、残滓領域を抽出するものである。具体的には、残滓領域抽出部16は、境界領域検出部15において検出された境界領域を含む残滓候補領域を最終的な残滓領域として抽出するものである。これにより残滓候補領域に含まれていた骨や造影血管の領域を除外することができる。
 残滓領域除去部17は、3次元画像5から残滓領域抽出部16によって抽出された残滓領域を除去するものである。すなわち、いわゆるデジタルクレンジング処理を行うものである。
 仮想内視鏡画像生成部18は、残滓領域除去部17においてデジタルクレンジング処理の施された3次元画像5に基づいて仮想内視鏡画像を生成するものである。
 具体的には、仮想内視鏡画像生成部18は、予め設定された視点と視線方向とに基づく視線ベクトルを中心として放射線状に伸ばした複数の光線方向上のボクセルデータを、所定の投影面に投影した中心投影による画像を仮想内視鏡画像として生成するものである。なお、中心投影の具体的な方法としては、たとえば公知のボリュームレンダリング手法等を用いることができる。
 表示制御部19は、仮想内視鏡画像生成部18において生成された仮想内視鏡画像をディスプレイ3に表示させるものである。
 入力装置4は、マウスやキーボードなどを備えたものであり、ユーザによる操作入力を受け付けるものである。入力装置4は、たとえば上述したように仮想内視鏡画像を生成する際に用いられる視点や視線方向などの設定入力を受け付けるものである。
 次に、本実施形態の医用画像診断支援システムの作用について、図2に示すフローチャートを参照しながら説明する。
 まず、入力装置4を用いてユーザによって被検体の識別情報が入力され、医用画像表示制御装置1の3次元画像取得部10は、その入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出して取得する(S10)。
 3次元画像取得部10によって取得された3次元画像5は、気体領域抽出部11に入力され、気体領域抽出部11は、入力された3次元画像5から空気領域を抽出する(S12)。
 また、3次元画像取得部10によって取得された3次元画像5は、残滓候補領域抽出部12にも入力され、残滓候補領域抽出部12は、入力された3次元画像5から残滓候補領域を抽出する(S14)。
 次に、気体領域抽出部11によって抽出された空気領域の情報と、残滓候補領域抽出部12によって抽出された残滓候補領域の情報とが、境界候補領域検出部13に入力され、境界候補領域検出部13は、これらの情報に基づいて境界候補領域を検出する(S16)。具体的には、境界候補領域検出部13は、上述したように空気領域と残滓候補領域とをそれぞれ膨張させ、その膨張後の空気領域と残滓候補領域とで共通する領域を境界候補領域として検出する。
 図3は、膨張後の空気領域の一例を示すものであり、図3に示す斜線の領域が空気領域を膨張させた領域である。また、図4は、膨張後の残滓候補領域の一例を示すものであり、図4に示す斜線の領域が残滓候補領域を膨張させた領域である。なお、ここでは空気領域や残滓候補領域などを見易くするために3次元画像ではなくスライス画像を示している。
 図4に示すように、残滓候補領域には、大腸内の残滓領域だけでなく、大腸周辺の骨の領域も含まれている。図5は、図3に示す空気領域を膨張させた領域と、図4に示す残滓候補領域を膨張させた領域との共通領域である境界候補領域(図5の斜線領域)を示すものである。図5に示すように、境界候補領域には、大腸内の残滓領域と空気領域との境界領域だけでなく、大腸周辺の骨の領域と空気領域と境界領域も含まれている。
 そして、境界候補領域検出部13によって検出された境界候補領域の情報は、代表方向成分取得部14に出力される。代表方向成分取得部14は、境界領域候補の各ボクセル(画素)の方向成分を算出し、その方向成分を極座標変換した値の投票を行う(S18)。具体的には、代表方向成分取得部14は、図6に示すようなソーベルフィルタを用いて境界領域候補内の画像の濃度勾配を算出し、その濃度勾配に基づいて各ボクセルの法線方向を算出する。そして、代表方向成分取得部14は、各ボクセルの法線方向を極座標変換し、その極座標変換した各値の投票を行う。
 図7は、極座標変換した各値を投票した結果の一例を示すものである。図7においては投票数が多いほど白く示されている。空気領域と残滓領域との境界領域のボクセルは、全て同じ方向の法線方向となるので、残滓領域が存在する場合には、図7に示すように1点で大きなピークが出現することになる。
 そして、代表方向成分取得部14は、まず、極座標空間における最大ピークが予め設定された閾値以上であるか否かを確認する(S20)。そして、極座標空間における最大ピークが閾値以上である場合には(S20,YES)、残滓領域が存在するものと判断し、その最大ピークとなる法線方向成分を代表方向成分として取得する(S22)。そして、その代表方向成分の情報を境界領域検出部15に出力する。
 境界領域検出部15は、代表方向成分に基づいて、図5に示す境界候補領域の中から、空気領域と残滓領域との境界を含む境界領域を検出する(S24)。具体的には、境界領域検出部15は、残滓候補領域内におけるボクセルの中から、上述した代表方向成分を有するボクセルを特定し、その特定したボクセル群を境界領域として検出する。
 図8および図9は、境界候補領域における各ボクセルの法線方向成分の一例を示すものである。図8における法線方向成分V1,V2は、代表方向成分と一致するものであるため、この法線方向成分V1,V2を有するボクセル群は境界領域として検出される。一方、図8における法線方向成分V3,V4は、代表方向成分と一致しないため、この法線方向成分V3,V4を有するボクセル群は境界領域として検出されない。したがって、境界候補領域の中から骨の領域の境界を含む境界候補領域を除外することができる。
 また、図9における法線方向成分V5,V6は、代表方向成分と一致するものであるため、この法線方向成分V5,V6を有するボクセル群は境界領域として検出される。一方、図9における法線方向成分V7は、代表方向成分と一致しないため、この法線方向成分V7を有するボクセル群は境界領域として検出されない。したがって、大腸同士が接触している境界を含む境界候補領域を境界領域として誤検出してしまうのを回避することができる。
 そして、残滓領域抽出部16は、上述したようにして境界領域検出部15において検出された境界領域を含む残滓候補領域を残滓領域として抽出する(S26)。
 残滓領域除去部17は、残滓領域抽出部16において抽出された残滓領域の情報に基づいて、3次元画像5から残滓領域のボクセルを除外し、これによりデジタルクレンジング処理の施された3次元画像5を取得する(S28)。
 残滓領域除去部17においてデジタルクレンジング処理の施された3次元画像5は、仮想内視鏡画像生成部18に出力され、仮想内視鏡画像生成部18、デジタルクレンジング処理の施された3次元画像5を用いて仮想内視鏡画像を生成する(S30)。
 仮想内視鏡画像生成部18において生成された仮想内視鏡画像は、表示制御部19に出力され、表示制御部19は、入力された仮想内視鏡画像をディスプレイ3に表示させる(S28)。
 上記実施形態の医用画像診断支援システムによれば、境界候補領域内の画像における方向成分の投票を行い、その投票の結果に基づいて、境界候補領域の中から気体領域と残滓の領域との境界を含む境界領域を検出し、その境界領域を含む残滓候補領域を残滓の領域として抽出するようにしたので、上述したように骨や造影血管などを除く残滓領域のみを高精度に抽出することができ、さらに大腸同士が接触している境界を含む境界候補領域を境界領域として誤検出してしまうのを回避することができる。
 なお、S20において、境界領域検出部15によって、極座標空間における最大ピークが閾値未満であることが確認された場合には(S20,NO)、残滓領域が存在しないものとして判断し、上述した境界領域の検出処理と残滓領域の抽出処理と残滓領域の除外処理は行われない。すなわち、3次元画像取得部10によって取得された3次元画像5がそのまま仮想内視鏡画像生成部18に出力され、その3次元画像5を用いて仮想内視鏡画像が生成される。
 このように残滓領域が存在しない場合には、境界領域の検出処理~残滓領域の除外処理までを行わないようにすることによって、仮想内視鏡画像を表示するまでの処理時間を短縮することができる。
 また、上記実施形態において、最大ピークの法線方向成分を有するボクセル群を80%未満しか含まない境界候補領域は、境界領域として検出しないようにすることが望ましい。これにより、最大ピークの法線方向成分を有するボクセルをごく僅かだけ含むような境界領域候補を境界領域としてご検出することを回避することができる。また、上述したような方法に限らず、たとえば、各境界領域候補に含まれる最大ピークの法線方向成分を有するボクセル群の分布状態からその面方向を算出し、その面方向と上記法線方向成分が直交するか否かを判定し、直交すると判定された境界領域候補を境界領域として検出するようにしてもよい。
 また、上記実施形態においては、各画素の法線方向成分に対して1票を割り当てて投票処理を行うようにしたが、重み付き投票処理を行うようにしてもよい。たとえば、各画素の体軸からの距離を取得し、その距離が遠いほど重み付けを小さくして重み付き投票処理を行うようにしてもよい。
 また、上記実施形態においては、投票処理によって代表方向成分を取得するようにしたが、これに限らず、たとえば各画素の法線方向成分のベクトルを重み付け加算して代表方向成分のベクトルを算出したり、各画素の法線方向成分のベクトルの平均ベクトルを算出してこれを代表方向成分のベクトルとしたりしてもよい。なお、上記重み付け加算の重み付けの方法としては、上述した重み付き投票処理と同様である。

Claims (13)

  1.  管腔臓器を含む管腔画像から気体領域を抽出する気体領域抽出部と、
     前記管腔臓器内における残滓の領域の候補を前記管腔画像から残滓候補領域として抽出する残滓候補領域抽出部と、
     前記気体領域と前記残滓候補領域との境界を含む境界候補領域を検出する境界候補領域検出部と、
     前記境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得する代表方向成分取得部と、
     前記代表方向成分に基づいて、前記境界候補領域の中から前記気体領域と前記残滓の領域との境界を含む境界領域を検出する境界領域検出部と、
     前記境界領域を含む前記残滓候補領域を前記残滓の領域として抽出する残滓領域抽出部とを備えたことを特徴とする領域抽出処理装置。
  2.  前記境界候補領域検出部が、前記気体領域と前記残滓候補領域とをそれぞれ膨張させ、該膨張後の前記気体領域と前記残滓候補領域とで共通する領域を前記境界候補領域として検出するものであることを特徴とする請求項1記載の領域抽出処理装置。
  3.  前記代表方向成分取得部が、前記複数の方向成分の投票処理を行って代表方向成分を取得するものであることを特徴とする請求項1または2記載の領域抽出処理装置。
  4.  前記代表方向成分取得部が、前記方向成分を極座標変換した値の投票を行い、前記極座標空間において最大ピークの方向成分を前記代表方向成分として取得するものであり、
     前記境界領域検出部が、前記代表方向成分を含む境界候補領域を前記境界領域として検出するものであることを特徴とする請求項3記載の領域抽出処理装置。
  5.  前記投票の結果、前記最大ピークが予め設定された閾値未満である場合には、前記境界領域検出部における前記境界領域の検出と前記残滓領域抽出部における前記残滓の領域の抽出とを行わないことを特徴とする請求項4記載の領域抽出処理装置。
  6.  前記代表方向成分取得部が、前記境界候補領域における各画素の法線方向成分を算出し、該法線方向成分に基づいて前記代表方向成分を取得するものであることを特徴とする請求項1から4いずれか1項記載の領域抽出処理装置。
  7.  前記代表方向成分取得部が、前記境界候補領域における濃度勾配に基づいて前記各画素の法線方向成分を算出するものであることを特徴とする請求項6記載の領域抽出処理装置。
  8.  前記代表方向成分取得部が、ソーベルフィルタを用いて前記濃度勾配を算出するものであることを特徴とする請求項7記載の領域抽出処理装置。
  9.  前記残滓候補領域抽出部が、前記残滓候補領域として、前記残滓の領域とともに骨または造影血管の領域を抽出するものであることを特徴とする請求項1から9いずれか1項記載の領域抽出処理装置。
  10.  前記管腔臓器が、大腸であることを特徴とする請求項1から9いずれか1項記載の領域抽出装置。
  11.  前記管腔画像が、3次元画像であることを特徴とする請求項1から10いずれか1項記載の領域抽出装置。
  12.  管腔臓器を含む管腔画像から気体領域を抽出し、
     前記管腔臓器内における残滓を表す領域の候補を前記管腔画像から残滓候補領域として抽出し、
     前記気体領域と前記残滓候補領域との境界を含む境界候補領域を検出し、
     前記境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得し、前記代表方向成分に基づいて、前記境界候補領域の中から前記気体領域と前記残滓の領域との境界を含む境界領域を検出し、
     前記境界領域を含む前記残滓候補領域を前記残滓の領域として抽出することを特徴とする領域抽出処理方法。
  13.  コンピュータを、
     管腔臓器を含む管腔画像から気体領域を抽出する気体領域抽出部と、
     前記管腔臓器内における残滓を表す領域の候補を前記管腔画像から残滓候補領域として抽出する残滓候補領域抽出部と、
     前記気体領域と前記残滓候補領域との境界を含む境界候補領域を検出する境界候補領域検出部と、
     前記境界候補領域内の画像における複数の方向成分を代表する代表方向成分を取得する代表方向成分取得部と、
     前記代表方向成分に基づいて、前記境界候補領域の中から前記気体領域と前記残滓の領域との境界を含む境界領域を検出する境界領域検出部と、
     前記境界領域を含む前記残滓候補領域を前記残滓の領域として抽出する残滓領域抽出部として機能させることを特徴とする領域抽出処理プログラム。
PCT/JP2014/001802 2013-03-29 2014-03-27 領域抽出装置および方法並びにプログラム WO2014156176A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/867,210 US9754368B2 (en) 2013-03-29 2015-09-28 Region extraction apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013073886A JP5957409B2 (ja) 2013-03-29 2013-03-29 領域抽出装置および方法並びにプログラム
JP2013-073886 2013-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/867,210 Continuation US9754368B2 (en) 2013-03-29 2015-09-28 Region extraction apparatus, method, and program

Publications (1)

Publication Number Publication Date
WO2014156176A1 true WO2014156176A1 (ja) 2014-10-02

Family

ID=51623188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/001802 WO2014156176A1 (ja) 2013-03-29 2014-03-27 領域抽出装置および方法並びにプログラム

Country Status (3)

Country Link
US (1) US9754368B2 (ja)
JP (1) JP5957409B2 (ja)
WO (1) WO2014156176A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6279307B2 (ja) * 2013-12-19 2018-02-14 矢崎総業株式会社 バッテリー端子ストッパ、及び、バッテリー端子ユニット
WO2018123197A1 (ja) * 2016-12-27 2018-07-05 コニカミノルタ株式会社 ガス検知用画像処理装置、ガス検知用画像処理方法及びガス検知用画像処理プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198059A (ja) * 2005-01-19 2006-08-03 Ziosoft Inc 識別方法
CN101295404A (zh) * 2008-06-18 2008-10-29 陕西高科医疗信息股份有限公司 虚拟结肠镜的混合组织图像全自动分割方法
JP2009511216A (ja) * 2005-10-17 2009-03-19 ザ ジェネラル ホスピタル コーポレイション コンピュータトモグラフィーコロノグラフィー画像のデジタルデジタル洗浄用の構造解析システム、方法、ソフトウェア構成及びコンピュータがアクセス可能な媒体
EP2068281A1 (en) * 2007-11-28 2009-06-10 Dublin City University A method for detecting flat polyps in the colon
WO2009144290A1 (en) * 2008-05-28 2009-12-03 Dublin City University Electronic cleansing of digital data sets
JP2011135936A (ja) * 2009-12-25 2011-07-14 Toshiba Corp 画像処理装置、医用画像診断装置および画像処理プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3134009B2 (ja) * 1990-11-21 2001-02-13 アーチ・デベロップメント・コーポレーション 画像処理方法及び装置
US5661818A (en) * 1995-01-27 1997-08-26 Eastman Kodak Company Method and system for detecting grids in a digital image
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US5960371A (en) * 1997-09-04 1999-09-28 Schlumberger Technology Corporation Method of determining dips and azimuths of fractures from borehole images
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
EP1402478A4 (en) * 2000-10-02 2006-11-02 Univ New York State Res Found IMPROVED VIRTUAL NAVIGATION AND INVESTIGATION
US7596256B1 (en) * 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
US7418123B2 (en) * 2002-07-12 2008-08-26 University Of Chicago Automated method and system for computerized image analysis for prognosis
US7616818B2 (en) * 2003-02-19 2009-11-10 Agfa Healthcare Method of determining the orientation of an image
DE102005046385B4 (de) * 2005-09-28 2012-03-22 Siemens Ag Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie
US8023703B2 (en) * 2006-07-06 2011-09-20 The United States of America as represented by the Secretary of the Department of Health and Human Services, National Institues of Health Hybrid segmentation of anatomical structure
US20080027315A1 (en) * 2006-07-31 2008-01-31 Icad, Inc. Processing and presentation of electronic subtraction for tagged colonic fluid and rectal tube in computed colonography
WO2008089492A2 (en) * 2007-01-19 2008-07-24 Mayo Foundation For Medical Education And Research Electronic stool subtraction using quadratic regression and intelligent morphology
DE102009033452B4 (de) * 2009-07-16 2011-06-30 Siemens Aktiengesellschaft, 80333 Verfahren zur Bereitstellung eines segmentierten Volumendatensatzes für eine virtuelle Koloskopie sowie zugehörige Gegenstände
WO2012090197A1 (en) * 2010-12-30 2012-07-05 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
EP2500864B1 (en) * 2011-03-15 2020-05-06 Agfa Nv Irradiation field recognition
WO2013008526A1 (ja) * 2011-07-12 2013-01-17 オリンパスメディカルシステムズ株式会社 画像処理装置
US9460505B2 (en) * 2013-08-22 2016-10-04 Digimarc Corporation Detection of weak specks from imagery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198059A (ja) * 2005-01-19 2006-08-03 Ziosoft Inc 識別方法
JP2009511216A (ja) * 2005-10-17 2009-03-19 ザ ジェネラル ホスピタル コーポレイション コンピュータトモグラフィーコロノグラフィー画像のデジタルデジタル洗浄用の構造解析システム、方法、ソフトウェア構成及びコンピュータがアクセス可能な媒体
EP2068281A1 (en) * 2007-11-28 2009-06-10 Dublin City University A method for detecting flat polyps in the colon
WO2009144290A1 (en) * 2008-05-28 2009-12-03 Dublin City University Electronic cleansing of digital data sets
CN101295404A (zh) * 2008-06-18 2008-10-29 陕西高科医疗信息股份有限公司 虚拟结肠镜的混合组织图像全自动分割方法
JP2011135936A (ja) * 2009-12-25 2011-07-14 Toshiba Corp 画像処理装置、医用画像診断装置および画像処理プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IWO SERLIE: "Computed Cleansing for Virtual Colonoscopy Using a Three-Material Transition Model, Medical Image Computing and Computer- Assisted Intervention", LECTURE NOTES IN COMPUTER SCIENCE, vol. 2879, 2003, pages 175 - 183 *
TAKASHI ADACHI ET AL.: "CT colonography using the stool tagging method", IEICE TECHNICAL REPORT., vol. 105, no. 579, 20 January 2006 (2006-01-20), MI, IYO GAZO, pages 53 - 56 *
YASUNORI WAKAMATSU ET AL.: "Extraction Method of Intestinal Wall Using Gradient of CT Value for Virtual Colonoscopy", IEICE TECHNICAL REPORT., vol. 109, no. 407, 21 January 2010 (2010-01-21), MI, IYO GAZO, pages 447 - 451 *

Also Published As

Publication number Publication date
US9754368B2 (en) 2017-09-05
JP5957409B2 (ja) 2016-07-27
JP2014198068A (ja) 2014-10-23
US20160019694A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
CN106659453B (zh) 用于分割肺部的系统和方法
US9495725B2 (en) Method and apparatus for medical image registration
CN108876794B (zh) 体积图像数据中的动脉瘤与载瘤血管的隔离
US11501439B2 (en) Diagnosis support apparatus and X-ray CT apparatus
US20130190602A1 (en) 2d3d registration for mr-x ray fusion utilizing one acquisition of mr data
US20150097833A1 (en) Apparatus for, and method of, processing volumetric medical image data
JP2007135858A (ja) 画像処理装置
JP2007044508A (ja) 医用画像データにおける注目点の自動検出装置
CN107106110B (zh) 图像处理装置以及图像处理方法
US20130057569A1 (en) 2d-2d fusion for interventional guidance in trans-catheter aortic valve implantation
US10398286B2 (en) Medical image display control apparatus, method, and program
JP5957409B2 (ja) 領域抽出装置および方法並びにプログラム
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP2011024913A (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP7490045B2 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
US20150178989A1 (en) Medical image display apparatus, method, and program
KR20230050253A (ko) 흉막 삼출의 검출 방법 및 이를 위한 장치
US9542772B2 (en) Virtual endoscope image-generating device, method, and program
JP5918734B2 (ja) 医用画像処理装置およびその作動方法並びに医用画像処理プログラム
JP2010063514A (ja) 医用画像診断支援装置、医用画像診断支援方法及びプログラム
JP2015136480A (ja) 3次元医用画像表示制御装置およびその作動方法並びに3次元医用画像表示制御プログラム
JP2011182946A (ja) 医用画像表示装置及び医用画像表示方法
US20190251691A1 (en) Information processing apparatus and information processing method
WO2019150717A1 (ja) 葉間膜表示装置、方法およびプログラム
EP4102461A2 (en) Medical image registration method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14776004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14776004

Country of ref document: EP

Kind code of ref document: A1