JP4964171B2 - Target region extraction method, apparatus, and program - Google Patents
Target region extraction method, apparatus, and program Download PDFInfo
- Publication number
- JP4964171B2 JP4964171B2 JP2008050615A JP2008050615A JP4964171B2 JP 4964171 B2 JP4964171 B2 JP 4964171B2 JP 2008050615 A JP2008050615 A JP 2008050615A JP 2008050615 A JP2008050615 A JP 2008050615A JP 4964171 B2 JP4964171 B2 JP 4964171B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- pixel
- point
- contour
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 32
- 238000010801 machine learning Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 8
- 210000004185 liver Anatomy 0.000 description 59
- 238000011156 evaluation Methods 0.000 description 13
- 210000000056 organ Anatomy 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000000709 aorta Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Description
本発明は、入力画像から対象領域を抽出する方法および装置ならびにプログラムに関するものである。 The present invention relates to a method, apparatus, and program for extracting a target area from an input image.
従来、医療分野においては、高い診断性能を有する画像を提供するために、医用画像中の病変領域、臓器領域等の所定の対象領域を抽出して表示する処理が行われている。 Conventionally, in the medical field, in order to provide an image having high diagnostic performance, processing for extracting and displaying a predetermined target region such as a lesion region or an organ region in a medical image has been performed.
入力画像中の対象領域を抽出する方法としては、たとえば特許文献1に示されているように、ユーザーにより指定された対象領域中の点および背景領域中の点の情報に基づいて、入力画像中の各画素が対象領域を示す画素である確からしさを算出するとともに、画像の局所的な明暗差(エッジ情報)に基づいて隣接する画素が同一領域内の画素である確からしさを算出し、算出した両方の確からしさを用いて入力画像中の対象領域を背景領域と区別して抽出する方法が知られている。 As a method for extracting a target area in an input image, for example, as disclosed in Patent Document 1, based on information on a point in a target area and a point in a background area specified by a user, The probability that each pixel of the pixel is a pixel indicating the target area is calculated, and the probability that the adjacent pixel is a pixel in the same area is calculated based on the local brightness difference (edge information) of the image. There is known a method of extracting a target area in an input image by distinguishing it from a background area using both the certainty factors.
また、特許文献2では、対象領域を含む複数のサンプル画像を用意し、サンプル画像中の、輪郭を表す画素であるか否かが既知である画素の近傍領域の画素値情報を予め機械学習することにより、入力画像中の各画素の輪郭らしさをその画素の近傍領域の画素値情報を用いて算出し、算出した輪郭らしさを用いて入力画像中の対象領域を背景領域と区別して抽出することにより、対象領域の抽出精度を向上させる方法が提案されている。
しかしながら、上記従来技術では、入力画像中の各画素の輪郭らしさをその画素の近傍領域の画素値情報を用いて算出するなど、画像の局所的な画素値分布に基づいて対象領域を抽出するようにしているので、対象領域の内部または外部に輪郭のような画素値分布が存在する場合には、対象領域が正しく抽出できない場合が生じるという問題がある。 However, in the above prior art, the target region is extracted based on the local pixel value distribution of the image, such as calculating the contour likeness of each pixel in the input image using the pixel value information of the neighboring region of the pixel. Therefore, when a pixel value distribution such as a contour exists inside or outside the target area, there is a problem that the target area may not be extracted correctly.
たとえば、医用画像から特定の臓器領域を抽出する際、その臓器領域内に腫瘍が存在したり、医用画像中にノイズが存在するなど、臓器領域の内部または外部にその臓器領域の輪郭のような画素値分布が存在する場合、そのような腫瘍やノイズによる画素値分布が臓器領域の輪郭として誤って認識され、臓器領域の輪郭を正しく抽出できない場合が生じる。 For example, when extracting a specific organ region from a medical image, there is a tumor in the organ region, noise is present in the medical image, etc. When the pixel value distribution exists, the pixel value distribution due to such tumor or noise is erroneously recognized as the contour of the organ region, and the contour of the organ region may not be extracted correctly.
本発明は、上記事情に鑑み、対象領域の抽出性能をより向上させることが可能な対象領域抽出方法および装置ならびにプログラムを提供することを目的とするものである。 In view of the above circumstances, an object of the present invention is to provide a target area extraction method, apparatus, and program capable of further improving the extraction performance of a target area.
本発明の対象領域抽出方法は、入力画像から対象領域を抽出する方法であって、その対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて入力画像中の基準点を検出する検出工程と、入力画像中の対象領域内に任意の点を設定する点設定工程と、入力画像中に、対象領域の全体を含むと思われる判別領域を設定する領域設定工程と、設定された判別領域内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出する算出工程と、設定された任意の点、検出された基準点、および算出された各画素の輪郭らしさに基づいて、設定された判別領域から基準点を通る輪郭を有し、かつ任意の点を含む対象領域を抽出する抽出工程とを備えたことを特徴とするものである。 The target region extraction method of the present invention is a method for extracting a target region from an input image, and is present on the contour of the target region of the same type as the target region and can be specified based on the pixel value distribution of the neighboring region. Based on the result of the machine learning, the pixel value distribution of the neighboring region is pre-machine-learned for each of the pixels representing the reference point and the pixels representing the points other than the reference point in the plurality of sample images whose reference points are known. A detection step for detecting a reference point in the input image, a point setting step for setting an arbitrary point in the target region in the input image, and a discrimination region that is supposed to include the entire target region in the input image. A region setting step to be set, a calculation step of calculating the contour likeness of each pixel in the set discrimination region based on pixel value information of neighboring pixels of the pixel, an arbitrary set point, and a detected reference Points, and calculated Based on the contour likelihood of each pixel has a contour that passes through the reference point from the set determination area, and is characterized in that it comprises an extraction step of extracting a region of interest including the arbitrary point.
上記方法においては、算出工程が、対象領域の輪郭が既知である複数のサンプル画像中の、輪郭上の点を表す画素および輪郭以外の点を表す画素のそれぞれについて、近傍画素の画素値情報を予め機械学習し、その機械学習の結果に基づいて各画素の輪郭らしさを算出するものであってもよい。 In the above method, the calculation step calculates pixel value information of neighboring pixels for each of a pixel representing a point on the contour and a pixel representing a point other than the contour in a plurality of sample images whose contours of the target region are known. Machine learning may be performed in advance, and the contour-likeness of each pixel may be calculated based on the result of the machine learning.
本発明の対象領域抽出装置は、入力画像から対象領域を抽出する装置であって、その対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて入力画像中の基準点を検出する検出手段と、入力画像中の対象領域内に任意の点を設定する点設定手段と、入力画像中に、対象領域の全体を含むと思われる判別領域を設定する領域設定手段と、設定された判別領域内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出する算出手段と、設定された任意の点、検出された基準点、および算出された各画素の輪郭らしさに基づいて、設定された判別領域から基準点を通る輪郭を有し、かつ任意の点を含む対象領域を抽出する領域抽出手段とを備えたことを特徴とするものである。 The target region extraction device of the present invention is a device that extracts a target region from an input image, and is present on the contour of the same target region as the target region and can be specified based on the pixel value distribution of the neighboring region. Based on the result of the machine learning, the pixel value distribution of the neighboring region is pre-machine-learned for each of the pixels representing the reference point and the pixels representing the points other than the reference point in the plurality of sample images whose reference points are known. Detection means for detecting a reference point in the input image, point setting means for setting an arbitrary point in the target area in the input image, and a discrimination area that is supposed to include the entire target area in the input image. Area setting means for setting, calculation means for calculating the contour likeness of each pixel in the set discrimination area based on pixel value information of neighboring pixels of the pixel, an arbitrary set point, and a detected reference Points, and calculated And an area extracting unit that extracts a target area having an outline passing through a reference point from a set discrimination area and including an arbitrary point, based on the contour likeness of each pixel. .
上記装置においては、算出手段が、対象領域の輪郭が既知である複数のサンプル画像中の、輪郭上の点を表す画素および輪郭以外の点を表す画素のそれぞれについて、近傍画素の画素値情報を予め機械学習し、その機械学習の結果に基づいて各画素の輪郭らしさを算出するものであってもよい。 In the above apparatus, the calculation means obtains pixel value information of neighboring pixels for each of a pixel representing a point on the contour and a pixel representing a point other than the contour in a plurality of sample images whose contours of the target region are known. Machine learning may be performed in advance, and the contour-likeness of each pixel may be calculated based on the result of the machine learning.
本発明の対象領域抽出プログラムは、入力画像から対象領域を抽出するためのプログラムであって、コンピュータに、その対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて入力画像中の基準点を検出する検出手段と、入力画像中の対象領域内に任意の点を設定する点設定手段と、入力画像中に、対象領域の全体を含むと思われる判別領域を設定する領域設定手段と、設定された判別領域内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出する算出手段と、設定された任意の点、検出された基準点、および算出された各画素の輪郭らしさに基づいて、設定された判別領域から基準点を通る輪郭を有し、かつ任意の点を含む対象領域を抽出する領域抽出手段として機能させることを特徴とするものである。 The target area extraction program of the present invention is a program for extracting a target area from an input image, and is present on the contour of a target area of the same type as the target area in the computer and has a pixel value distribution in a neighboring area. Machine learning is performed in advance on the pixel value distribution of the neighboring region for each of the pixel representing the reference point and the pixel representing the point other than the reference point in a plurality of sample images whose reference points that can be specified based on the machine are known. A detection unit that detects a reference point in the input image based on a learning result, a point setting unit that sets an arbitrary point in the target region in the input image, and the entire target region in the input image An area setting means for setting a possible discrimination area; a calculation means for calculating the contour likeness of each pixel in the set discrimination area based on pixel value information of neighboring pixels of the pixel; and an arbitrary set point Based on the detected reference point and the calculated contour outline of each pixel, it functions as an area extracting means for extracting a target area having an outline passing through the reference point from a set discrimination area and including an arbitrary point It is characterized by making it.
本発明の対象領域抽出方法および装置ならびにプログラムによれば、入力画像中の対象領域内に任意の点を設定し、入力画像中に、対象領域の全体を含むと思われる判別領域を設定し、設定された判別領域内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出し、設定された任意の点および算出された各画素の輪郭らしさに基づいて、入力画像から対象領域を抽出する際に、その対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて入力画像中の基準点を検出し、その検出結果にさらに基づいて対象領域の抽出を行うようにしているので、対象領域の内部または外部に輪郭のような画素値分布が存在する場合であっても、対象領域の正しい輪郭上に存在する点として検出した基準点を確実に通るように、対象領域の輪郭を決定することができ、対象領域の抽出性能をより向上させることができる。 According to the target area extraction method, apparatus, and program of the present invention, an arbitrary point is set in the target area in the input image, and a determination area that is supposed to include the entire target area is set in the input image. The contour likeness of each pixel in the set discrimination region is calculated based on the pixel value information of the neighboring pixels of the pixel, and the input image is calculated based on the set arbitrary point and the calculated contour likeness of each pixel. When extracting a target region from a plurality of sample images that exist on the same type of target region contour as the target region and have known reference points that can be identified based on the pixel value distribution of the neighboring region, For each of the pixel representing the reference point and the pixel representing the point other than the reference point, the pixel value distribution in the vicinity region is previously machine-learned, and the reference point in the input image is detected based on the result of the machine learning, and the detection is performed. In the result Since the target area is extracted based on the target area, even if there is a pixel value distribution such as a contour inside or outside the target area, it is detected as a point that exists on the correct contour of the target area. The contour of the target area can be determined so as to pass through the reference point reliably, and the extraction performance of the target area can be further improved.
以下、図面を参照して本発明の対象領域抽出装置を医用画像から肝臓領域を抽出するものに適用した実施の形態について説明する。なお、図1のような対象領域抽出装置1の構成は、補助記憶装置に読み込まれた対象領域抽出装置プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。このとき、この対象領域抽出プログラムは、CD‐ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。 Hereinafter, an embodiment in which a target region extraction apparatus of the present invention is applied to one that extracts a liver region from a medical image will be described with reference to the drawings. The configuration of the target area extracting apparatus 1 as shown in FIG. 1 is realized by executing a target area extracting apparatus program read into the auxiliary storage device on a computer (for example, a personal computer). At this time, the target area extraction program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.
図1に示すように、対象領域抽出装置1は、CT装置等により取得された医用画像Pから肝臓領域を抽出するものであって、基準点検出部10、点設定部20、領域設定部30、輪郭らしさ算出部40、領域抽出部50などを備えている。
As shown in FIG. 1, the target region extraction device 1 extracts a liver region from a medical image P acquired by a CT device or the like, and includes a reference
基準点検出部10は、肝臓領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて医用画像P中の基準点を検出するものであって、識別器取得部11と、検出部12とを有する。
The reference
ここで、基準点は、入力画像から抽出したい対象領域の種類に応じて定められるものであり、その数に制限はない。本実施の形態では、たとえば、図2に示すように、全体的になめらかな曲線からなる肝臓領域の輪郭における、角ばった箇所に存在する点Aおよび点Bのいずれかまたは両方を基準点として用いる。 Here, the reference points are determined according to the type of the target area to be extracted from the input image, and the number thereof is not limited. In the present embodiment, for example, as shown in FIG. 2, either or both of point A and point B existing at an angular position in the outline of the liver region consisting of a generally smooth curve is used as a reference point. .
また、医用画像から被検体の心臓が撮影された心臓領域を抽出する場合には、心臓領域の輪郭上に存在する点のうち、たとえば心臓が大動脈に分枝する境界部に存在する点、または心臓の下部にある最も尖がっている点を基準点として用いることができる。 In addition, when extracting the heart region where the subject's heart is imaged from the medical image, among the points existing on the outline of the heart region, for example, the point existing at the boundary where the heart branches to the aorta, or The sharpest point at the bottom of the heart can be used as the reference point.
識別器取得部11は、たとえば特開2006−139369号公報に記載されているように、肝臓領域を含む複数のサンプル画像を用意し、サンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習することにより、サンプル画像中の各画素が基準点を示す画素であるか否かをその画素の近傍領域の画素値分布に基づいて識別する識別器Dを取得するものである。これにより取得した識別器Dは、任意の医用画像中の各画素が基準点を示す画素であるかどうかを識別する場合に適用することができる。なお、2以上の基準点(たとえば基準点A、B)を用いて肝臓領域を抽出する場合には、それぞれの基準点について識別器Dを取得する。
The
ここで、各画素の近傍領域は、その近傍領域の内の各画素における画素値が変化する方向、その変化の大きさなどの、近傍領域の画素値分布に基づいてその画素が基準点であるか否かを識別できる程度の大きさの領域であることが望ましい。また、この近傍領域は、その画素を中心とした領域であってもよいし、その画素を中心から外れた位置に有する領域であってもよい。 Here, the neighboring area of each pixel is the reference point based on the pixel value distribution of the neighboring area such as the direction in which the pixel value changes in each pixel in the neighboring area and the magnitude of the change. It is desirable that the area has a size that can be identified. In addition, this neighborhood region may be a region centered on the pixel, or a region having the pixel at a position off the center.
なお、図2に、基準点A、Bの近傍領域RA,RBの一例を示す。ここでは、近傍領域が矩形の領域である場合について例示しているが、近傍領域は円形、楕円形等、種々の形状の領域であってもよい。また、その近傍領域内の一部の画素の画素値分布のみを上記機械学習に用いるようにしてもよい。 FIG. 2 shows an example of the vicinity regions R A and R B of the reference points A and B. Here, the case where the vicinity area is a rectangular area is illustrated, but the vicinity area may be an area having various shapes such as a circle and an ellipse. Further, only the pixel value distribution of some pixels in the vicinity region may be used for the machine learning.
また、この識別器Dを取得する処理には、アダブースティングアルゴリズム(Adaboosting Algorithm)、ニューラルネットワーク(Neural Network)、SVM(Support Vector Machine)等を用いることができる。 In addition, for the process of obtaining the discriminator D, an adaboosting algorithm, a neural network, a support vector machine (SVM), or the like can be used.
検出部12は、医用画像P上に識別器取得部11において取得した識別器Dを走査させることにより、医用画像P中の基準点A、Bを検出するものである。なお、この検出部21による基準点の検出より先に、後述する領域設定部30において対象領域の全体を含むと思われる判別領域Tが設定されている場合には、医用画像P全体のうち、設定された判別領域Tあるいはその判別領域Tを含む一部の領域上にのみ識別器Dを走査させることにより、医用画像P中の基準点を検出するようにしてもよい。
The
点設定部20は、医用画像P中の肝臓領域内に任意の点C(シード点)を設定するものであって、たとえば、対象領域抽出装置1に備えるキーボードやポインティングデバイス等による、操作者の入力に基づいて指定された医用画像P上の位置をその任意の点として設定するものであってもよいし、従来の対象領域検出方法により自動検出された肝臓領域内の各点に一定の質量が与えられているとし、その領域の重心位置をその任意の点として設定するものであってもよい。
The
また、この点設定部20による任意の点Cの設定より先に、基準点検出部10において基準点A、Bが検出されている場合には、肝臓領域と基準点A、Bの解剖学的な位置関係により、下記の式(1)により、基準点A(xA、yA)と基準点B(xB、yB)を用いて任意の点C(xC、yC)を設定するようにしてもよい。
なお、この任意の点Cは、肝臓領域のおおまかな中心に設定されたものであってもよいし、肝臓領域の中心から外れた位置に設定されたものであってもよい。 The arbitrary point C may be set at the approximate center of the liver region or may be set at a position deviated from the center of the liver region.
領域決定部30は、医用画像P中に、肝臓領域の全体を含むと思われる判別領域Tを設定するものであって、たとえば、対象領域抽出装置1に備えるキーボードやポインティングデバイス等による、操作者の入力に基づいて指定された医用画像P上の領域をその判別領域Tとして設定するものであってもよいし、点設定部20において設定された点Cを中心とした、肝臓領域のありうる大きさ以上の大きさの領域を判別領域Tとして自動的に設定するものであってもよい。これにより、全体の医用画像Pから注目する領域の範囲を限定でき、以降の処理を高速化することができる。
The
なお、判別領域Tは、その周縁形状として矩形、円形、楕円形等、種々の形状を採用することができる。 The discrimination region T can adopt various shapes such as a rectangle, a circle, and an ellipse as the peripheral shape.
輪郭らしさ算出部40は、領域設定部30において設定された判別領域T内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出するものであって、評価関数取得部41と、算出部42とを有する。
The contour
評価関数取得部41は、肝臓領域を含む複数のサンプル画像を用意し、サンプル画像中の、輪郭上の点を表す画素および前記輪郭以外の点を表す画素のそれぞれについて、近傍画素の画素値情報をその画素における特徴量として予め機械学習することにより、サンプル画像中の各画素が輪郭を示す画素であるかどうかをその特徴量に基づいて評価する評価関数Fを取得するものである。
The evaluation
具体的には、たとえば特開2007−307358号公報に記載されているように、各画素の近傍画素の画素値情報、たとえば、その画素を中心とする水平方向5画素×垂直方向5画素の領域内のそれぞれ異なる複数の画素の画素値値の組み合わせを用いて、その画素が輪郭を示す画素であるか否かの判別を行う複数の弱判別器を、その弱判別器全てを組み合わせた評価関数Fがサンプル画像中の各画素が輪郭を示す画素であるかどうかを所望の性能で評価できるようになるまで逐次生成する。 Specifically, as described in, for example, Japanese Patent Laid-Open No. 2007-307358, pixel value information of neighboring pixels of each pixel, for example, an area of 5 pixels in the horizontal direction × 5 pixels in the vertical direction centering on the pixel An evaluation function combining a plurality of weak discriminators for determining whether or not the pixel is a pixel indicating an outline using a combination of pixel value values of a plurality of different pixels in the combination of all the weak discriminators F is sequentially generated until it can be evaluated with a desired performance whether each pixel in the sample image is a pixel indicating an outline.
これにより取得した評価関数Fは、任意の医用画像中の各画素が肝臓領域の輪郭を示す画素であるかどうかを評価する場合に適用することができる。 The evaluation function F acquired in this way can be applied when evaluating whether each pixel in an arbitrary medical image is a pixel indicating the outline of the liver region.
また、この評価関数Fを取得する処理にも、アダブースティングアルゴリズム(Adaboosting Algorithm)、ニューラルネットワーク(Neural Network)、SVM(Support Vector Machine)等の機械学習の手法を用いることができる。 Also, a machine learning technique such as an adaboosting algorithm, a neural network, or a support vector machine (SVM) can be used for the process of obtaining the evaluation function F.
算出部42は、判別領域T内の各画素の特徴量に基づいて、各画素の輪郭らしさ、つまりその画素が輪郭を示す画素であるかどうかの評価値を、評価関数Fを用いて算出するものである。
Based on the feature amount of each pixel in the discrimination region T, the
領域抽出部50は、任意の点C、基準点S、および各画素の輪郭らしさを用いて判別領域Tから肝臓領域を抽出するものであって、たとえば、Yuri Y. Boykov, Marie-Pierre Jolly, “Interactive Graph Cuts for Optimal Boundary and Region Segmentation of Objects in N-D images”, Proceedings of “International Conference on Computer Vision”, Vancouver, Canada, July 2001 vol.I, p.105-112.や、米国特許第6973212号明細書等に記載されているグラフカット法(Graph Cuts)により判別領域Tを肝臓領域と背景領域とに分割する際、肝臓領域と背景領域の境界が肝臓領域の輪郭上に存在する点である基準点A、Bを必ず通るようにして、判別領域Tから肝臓領域を抽出する。
The
具体的には、まず、図3に示すように、判別領域T中の各画素を表すノードNij(i=1,2,…、j=1,2,…)と各画素が取り得るラベル(本実施の形態では、肝臓領域または背景領域)をそれぞれ表すノードS、Tと、隣接する画素のノード同士をつなぐリンクn-linkと、各画素を表すノードNijと肝臓領域を表すノードSをつなぐリンクs-linkと、各画素を表すノードNijと背景領域を表すノードTをつなぐリンクt-linkとから構成されるグラフを作成する。 Specifically, first, as shown in FIG. 3, a node N ij (i = 1, 2,..., J = 1, 2,...) Representing each pixel in the discrimination region T and labels that each pixel can take. (In this embodiment, nodes S and T representing liver regions or background regions), a link n-link connecting nodes of adjacent pixels, a node N ij representing each pixel, and a node S representing a liver region A graph composed of a link s-link that connects, a node N ij that represents each pixel, and a link t-link that connects a node T that represents the background region is created.
ここで、n-linkには、判別領域中の各画素を表すノードNij毎にそのノードから四方の隣接するノードへ向かう4本のリンクが存在し、各隣接するノード間には互いのノードに向かう2本のリンクが存在する。ここで、各ノードNijから四方の隣接するノードへ向かう4本のリンクは、そのノードが示す画素が四方の隣接する画素と同一領域内の画素である確からしさを表すものであり、その確からしさはその画素の輪郭らしさに基づいて求められる。具体的には、そのノードNijが示す画素の輪郭らしさが設定しきい値以下である場合には、それらの各リンクに確からしさの所定の最大値が設定され、輪郭らしさが設定しきい値以上である場合は、その輪郭らしさが大きいほど、小さい値の確からしさが各リンクに設定される。たとえば、確からしさの最大値を1000とした場合、ノードNijが示す画素の輪郭らしさが設定しきい値(ゼロ)以下である場合には、そのノードから四方の隣接するノードへ向かう4本のリンクに1000という値が設定され、輪郭らしさが設定しきい値(ゼロ)以上である場合は、次式(1000−(輪郭らしさ/輪郭らしさの最大値)×1000)により算出された値をそれらの各リンクに設定することができる。ここで、輪郭らしさの最大値は、算出部42により判別領域T内の各画素において算出した全ての輪郭らしさのうち最大の値を意味する。
Here, in the n-link, there are four links from each node to four adjacent nodes for each node N ij representing each pixel in the determination region, and each adjacent node has a mutual node. There are two links going to. Here, the four links from each node N ij to the four adjacent nodes represent the probability that the pixel indicated by the node is a pixel in the same region as the four adjacent pixels. The likelihood is obtained based on the contour likeness of the pixel. Specifically, when the contour likelihood of the pixel indicated by the node N ij is less than or equal to the set threshold value, a predetermined maximum value of the probability is set for each of those links, and the contour likelihood is set to the threshold value. In the case described above, the probability of a smaller value is set for each link as the contour likelihood increases. For example, when the maximum value of the probability is set to 1000, when the likelihood of the contour of the pixel indicated by the node N ij is equal to or less than the set threshold value (zero), four lines from the node to four adjacent nodes are displayed. If a value of 1000 is set for the link and the contour likelihood is greater than or equal to the set threshold (zero), the value calculated by the following formula (1000-(the contour likelihood / maximum value of the contour likelihood) x 1000) is used. Can be set for each link. Here, the maximum value of the contour likelihood means the maximum value of all the contour likelihoods calculated for each pixel in the discrimination region T by the
また、各画素を表すノードNijと肝臓領域を表すノードSをつなぐs-linkは、各画素が肝臓領域に含まれる画素である確からしさを表すものであり、各画素を表すノードNijと背景領域を表すノードTをつなぐt-linkは、各画素が背景領域に含まれる画素である確からしさを表すものであり、それらの確からしさは、その画素が肝臓領域又は背景領域のいずれかを示す画素であるかの情報がすでに与えられている場合、その与えられた情報に従って設定される。 Further, the s-link connecting the node N ij representing each pixel and the node S representing the liver region represents the probability that each pixel is a pixel included in the liver region, and the node N ij representing each pixel The t-link connecting the nodes T representing the background area represents the likelihood that each pixel is a pixel included in the background area, and the certainty indicates whether the pixel is either the liver area or the background area. When information indicating whether the pixel is a pixel to be shown has already been given, the information is set according to the given information.
具体的には、任意の点Cは肝臓領域内に設定された画素であるので、図10に示すように、その点Cを示すノードN33と肝臓領域を表すノードSとをつなぐs-linkに大きい値の確からしさを設定する。また、肝臓領域内に設定された任意の点を基準として、その肝臓領域を含むように設定した判別領域Tは、通常、肝臓領域及びその肝臓領域の周囲に存在する背景領域を含むようになっていることから、判別領域TT2の周縁の各画素を、背景領域を示す画素であろうと想定し、それらのその各画素を示すノードN11、N12、…、N15、N21、N25、N31、、と背景領域を表すノードTとをつなぐt-linkに大きい値の確からしさを設定する。 Specifically, since an arbitrary point C is a pixel set in the liver region, as shown in FIG. 10, an s-link that connects a node N 33 indicating the point C and a node S indicating the liver region. Set the probability of a large value to. In addition, the discrimination region T set to include the liver region on the basis of an arbitrary point set in the liver region usually includes the liver region and a background region existing around the liver region. Therefore, it is assumed that each pixel on the periphery of the discrimination region TT2 is a pixel indicating the background region, and nodes N 11 , N 12 ,..., N 15 , N 21 , N 25 indicating those pixels are indicated. , N 31 , and a node T representing the background area are set to a probability of a large value.
また、図4に示すように、点設定部20において設定された点Cから基準点A、Bをそれぞれ通る方向に延びた各線分全体のうち、基準点Aと点Cとの間、基準点Bと点Cとの間の部分に位置する各画素は肝臓領域の内部に存在する画素であると判断することができるので、それらの各画素を示すノードと肝臓領域を表すノードSとをつなぐs-linkに大きい値の確からしさを設定し、基準点Aから点Cとは反対側に延びた部分、および基準点Bから点Cとは反対側に延びた部分に位置する各画素は肝臓領域の外部に存在する画素であると判断することができるので、それらの各画素を示すノードと肝臓領域を表すノードTとをつなぐt-linkに大きい値の確からしさを設定する。
Further, as shown in FIG. 4, the reference point between the reference point A and the point C among the entire line segments extending in the direction passing through the reference points A and B from the point C set in the
そして、肝臓領域と背景領域は互いに排他的な領域であるので、たとえば図5に点線で示すように、全てのn-link、s-link、およびt-linkのうち適当なリンクを切断してノードSをノードTから切り離すことにより、判別領域Tを肝臓領域と背景領域に分割して、肝臓領域を抽出する。ここで、切断する全てのn-link、s-link、およびt-linkにおける確からしさの合計が最も小さくなるような切断を行うことにより、最適な領域分割をすることができる。 Since the liver region and the background region are mutually exclusive regions, for example, as shown by dotted lines in FIG. 5, all the n-links, s-links, and t-links are cut off. By separating the node S from the node T, the discrimination region T is divided into a liver region and a background region, and the liver region is extracted. Here, optimal region division can be performed by performing cutting so that the total probability of all n-links, s-links, and t-links to be cut is minimized.
なお、ここでは、グラフカット法(Graph Cuts)を用いて肝臓領域を抽出する場合について例示しているが、それに代えて、たとえば特開2007−307358号公報に記載されているような動的計画法を用いて肝臓領域の輪郭を決定する等他の手法を用いて肝臓領域を抽出してもよい。 In this example, the case of extracting the liver region using the graph cut method (Graph Cuts) is illustrated, but instead, for example, dynamic planning as described in JP 2007-307358 A The liver region may be extracted using other methods such as determining the contour of the liver region using a method.
次いで、上記の構成により、医用画像Pから肝臓領域を抽出する際に行われる処理の一例について説明する。 Next, an example of processing performed when a liver region is extracted from the medical image P with the above configuration will be described.
まず、検出部12が、識別器取得部11により予め取得した、任意の医用画像中の各画素が基準点A、Bのいずれかを示す画素であるかどうかを識別できる識別器DA、BBを用いて、医用画像P中の基準点A、Bを検出する。次に、点設定部20が、上記の式(1)により、基準点A(xA、yA)と基準点B(xB、yB)を用いて、医用画像P中の対象領域内に任意の点C(xC、yC)(シード点)を設定する。次に、領域設定部30が、医用画像P中に、対象領域の全体を含むと思われる判別領域Tを設定する。次に、算出部42が、評価関数取得部41により予め取得した、任意の医用画像中の各画素が肝臓領域の輪郭を示す画素であるかどうかを評価できる評価関数Fを用いて、判別領域T内の各画素の輪郭らしさを算出する。最後に、領域抽出部50が、たとえばグラフカット法(Graph Cuts)により、設定された任意の点Cおよび算出された各画素の輪郭らしさに基づいて、かつ、肝臓領域の輪郭が基準点A、Bを必ず通るようにして、判別領域Tから対象領域を抽出し、処理を終了する。
First, the discriminators D A and B that can identify whether or not each pixel in an arbitrary medical image acquired in advance by the
上記実施の形態によれば、入力画像中の対象領域内に任意の点を設定し、入力画像中に、対象領域の全体を含むと思われる判別領域を設定し、設定された判別領域内の各画素の輪郭らしさを、その画素の近傍画素の画素値情報に基づいて算出し、設定された任意の点および算出された各画素の輪郭らしさに基づいて、入力画像から対象領域を抽出する際に、その対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、基準点を表す画素および基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、その機械学習の結果に基づいて入力画像中の基準点を検出し、その検出結果にさらに基づいて対象領域の抽出を行うようにしているので、対象領域の内部または外部に輪郭のような画素値分布が存在する場合であっても、対象領域の正しい輪郭上に存在する点として検出した基準点を確実に通るように、対象領域の輪郭を決定することができ、対象領域の抽出性能をより向上させることができる。 According to the above embodiment, an arbitrary point is set in the target area in the input image, a determination area that is supposed to include the entire target area is set in the input image, When calculating the contour likeness of each pixel based on pixel value information of neighboring pixels of that pixel and extracting the target area from the input image based on the set arbitrary point and the calculated contour likeness of each pixel In addition, a pixel that represents a reference point and a reference in a plurality of sample images that exist on the contour of the target region of the same type as the target region and have known reference points that can be identified based on the pixel value distribution of the neighboring region For each pixel representing a point other than a point, the pixel value distribution in the neighboring area is machine-learned in advance, the reference point in the input image is detected based on the machine learning result, and the target area is further based on the detection result To do the extraction Therefore, even if there is a pixel value distribution such as a contour inside or outside the target area, the target must be surely passed through the reference point detected as a point existing on the correct contour of the target area. The contour of the region can be determined, and the extraction performance of the target region can be further improved.
なお、上記実施の形態においては、本発明の対象領域抽出装置1を2次元の入力画像から対象領域を抽出するものに適用した場合について説明したが、3次元の入力画像から対象領域を抽出するものに適用することもできる。 In the above-described embodiment, the case where the target region extraction apparatus 1 of the present invention is applied to the one that extracts the target region from the two-dimensional input image has been described. However, the target region is extracted from the three-dimensional input image. It can also be applied to things.
たとえば、3次元の医用画像中の肝臓領域の輪郭を決定する場合、2次元の医用画像から肝臓領域を抽出するときと同様に、全体的になめらかな曲面からなる肝臓領域の輪郭の角ばった箇所に存在する点を基準点として用いる。 For example, when determining the contour of a liver region in a three-dimensional medical image, the same as when extracting a liver region from a two-dimensional medical image, the corner of the contour of the liver region consisting of a smooth surface as a whole A point existing in is used as a reference point.
識別器取得部11が、肝臓領域を含む複数の3次元のサンプル画像を用意し、それらのサンプル画像中の、基準点を表すボクセルおよび基準点以外の点を表すボクセルのそれぞれについて、近傍領域の画素値分布を予め機械学習することにより、サンプル画像中の各ボクセルが基準点を示すボクセルであるか否かをそのボクセルの近傍領域の画素値分布に基づいて識別する識別器を取得する。ここで、各ボクセルの近傍領域は、その近傍領域の内の各ボクセルにおける画素値が変化する方向、その変化の大きさなどの、近傍領域の画素値分布に基づいてそのボクセルが基準点であるか否かを識別できる程度の大きさの3次元領域であることが望ましい。検出部12が、3次元の医用画像上に識別器取得部11において取得した識別器を走査させることにより、その医用画像中の基準点を検出する。
The
また、点設定部20が、3次元の医用画像の肝臓領域内に、3次元座標系での任意の点Cを設定し、領域決定部30が、その3次元の医用画像中に、肝臓領域の全体を含むと思われる3次元の存在範囲を設定する。ここで、存在範囲は、その周縁形状として六面体、球体等、種々の形状を採用することができる。
Further, the
また、評価関数取得部41が、肝臓領域を含む複数の3次元のサンプル画像を用意し、それらのサンプル画像中の、輪郭上の点を表すボクセルおよび輪郭以外の点を表すボクセルのそれぞれについて、近傍ボクセルの画素値情報を予め機械学習することにより、任意の3次元の医用画像中の各ボクセルが肝臓領域の輪郭を示すボクセルであるかどうかを評価できる評価関数Fを取得する。ここで、近傍ボクセルの画素値情報としては、例えば、そのボクセルを中心とするX軸方向5ボクセル×Y軸方向5ボクセル×Z軸方向5ボクセルの立方体の領域内の異なる複数個のボクセルにおける画素値の組み合わせを用いることができる。次に、算出部42が、判別領域T内の各ボクセルの特徴量に基づいて、各ボクセルの輪郭らしさ、つまりそのボクセルが輪郭を示すボクセルであるかどうかの評価値を、評価関数Fを用いて算出する。
In addition, the evaluation
領域抽出部50が、たとえば米国特許第6973212号明細書等に記載されている3次元のグラフカット法(Graph Cuts)により、3次元の判別領域Tを肝臓領域と背景領域とに分割する際、肝臓領域と背景領域の境界が、検出部12において検出された基準点を必ず通るようにして、判別領域Tから肝臓領域を抽出し、処理を終了する。
When the
なお、上記実施の形態では、本発明の対象領域抽出装置1を、医用画像から肝臓領域を抽出するものに適用した場合について説明したが、それに限らず、種々の入力画像から抽出したい領域、たとえば、医用画像中の各種臓器領域又は病変領域などの対象領域を抽出する場合に適用することができる。 In the above embodiment, the case where the target region extraction apparatus 1 of the present invention is applied to one that extracts a liver region from a medical image has been described. However, the present invention is not limited to this, and regions to be extracted from various input images, for example, The present invention can be applied when extracting target regions such as various organ regions or lesion regions in a medical image.
なお、上述したように、抽出したい対象領域の種類に応じて、その対象領域の抽出に用いられる基準点の数およびその各基準点の特徴が異なるので、2以上の対象領域を選択的に抽出する場合には、対象領域抽出装置1に備える記録手段に、対象領域の種類毎にその対象領域の抽出に用いられる基準点を予め対応付けて記録しておき、対象領域抽出装置1により対象領域を抽出する際に、ユーザーにより抽出したい対象領域を選択させ、その対象領域の抽出に適した基準点の設定を自動で行うようにしてもよい。 As described above, since the number of reference points used for extracting the target area and the characteristics of each reference point differ depending on the type of target area to be extracted, two or more target areas are selectively extracted. In this case, the recording means included in the target area extraction apparatus 1 records in advance a reference point used for extraction of the target area for each type of target area, and the target area extraction apparatus 1 uses the target area. When extracting the target area, the user may select a target area to be extracted and automatically set a reference point suitable for the extraction of the target area.
また、医用画像中の肝臓領域の輪郭を決定する場合における上述した種々の対応についても、種々の入力画像からその領域を抽出する場合に適用することができる。 Further, the various correspondences described above when determining the contour of the liver region in the medical image can also be applied when extracting the region from various input images.
1 対象領域抽出装置
10 基準点検出部
20 点設定部
30 領域設定部
40 輪郭らしさ算出部
50 領域抽出部
A、B 基準点
P 医用画像
C 肝臓領域内の任意の点
T 判別領域
DESCRIPTION OF SYMBOLS 1 Target area |
Claims (5)
前記対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、前記基準点を表す画素および前記基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、該機械学習の結果に基づいて前記入力画像中の基準点を検出する検出工程と、
前記入力画像中の前記対象領域内に任意の点を設定する点設定工程と、
前記入力画像中に、前記対象領域の全体を含むと思われる判別領域を設定する領域設定工程と、
前記設定された判別領域内の各画素の輪郭らしさを、該画素の近傍画素の画素値情報に基づいて算出する算出工程と、
前記設定された任意の点、前記検出された基準点、および前記算出された各画素の輪郭らしさに基づいて、前記設定された判別領域から前記基準点を通る輪郭を有し、かつ前記任意の点を含む前記対象領域を抽出する抽出工程と
を備えたことを特徴とする対象領域抽出方法。 A method of extracting a target area from an input image,
A pixel representing the reference point and a reference in a plurality of sample images that exist on the outline of the target region of the same type as the target region and whose reference points that can be specified based on the pixel value distribution in the neighboring region are known For each pixel representing a point other than a point, a detection step of previously learning a pixel value distribution of a neighboring region and detecting a reference point in the input image based on the result of the machine learning;
A point setting step for setting an arbitrary point in the target area in the input image;
In the input image, an area setting step for setting a discrimination area that is supposed to include the entire target area;
A calculation step of calculating the contour likeness of each pixel in the set discrimination region based on pixel value information of neighboring pixels of the pixel;
Based on the set arbitrary point, the detected reference point, and the calculated contour likeness of each pixel, the contour has a contour that passes through the reference point from the set discrimination region, and the arbitrary An extraction process for extracting the target area including a point.
前記対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、前記基準点を表す画素および前記基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、該機械学習の結果に基づいて前記入力画像中の基準点を検出する検出手段と、
前記入力画像中の対象領域内に任意の点を設定する点設定手段と、
前記入力画像中に、前記対象領域の全体を含むと思われる判別領域を設定する領域設定手段と、
前記設定された判別領域内の各画素の輪郭らしさを、該画素の近傍画素の画素値情報に基づいて算出する算出手段と、
前記設定された任意の点、前記検出された基準点、および前記算出された各画素の輪郭らしさに基づいて、前記設定された判別領域から前記基準点を通る輪郭を有し、かつ前記任意の点を含む前記対象領域を抽出する領域抽出手段と
を備えたことを特徴とする対象領域抽出装置。 An apparatus for extracting a target area from an input image,
A pixel representing the reference point and a reference in a plurality of sample images that exist on the outline of the target region of the same type as the target region and whose reference points that can be specified based on the pixel value distribution in the neighboring region are known For each pixel representing a point other than a point, a detection unit that performs machine learning in advance on a pixel value distribution in a neighboring region and detects a reference point in the input image based on the result of the machine learning;
Point setting means for setting an arbitrary point in a target area in the input image;
In the input image, an area setting means for setting a discrimination area that is supposed to include the entire target area;
Calculating means for calculating the contour likeness of each pixel in the set discrimination region based on pixel value information of neighboring pixels of the pixel;
Based on the set arbitrary point, the detected reference point, and the calculated contour likeness of each pixel, the contour has a contour that passes through the reference point from the set discrimination region, and the arbitrary A target region extracting apparatus comprising: a region extracting unit that extracts the target region including a point.
コンピュータに、
前記対象領域と同種の対象領域の輪郭上に存在し、かつ近傍領域の画素値分布に基づいて特定可能な基準点が既知である複数のサンプル画像中の、前記基準点を表す画素および前記基準点以外の点を表す画素のそれぞれについて、近傍領域の画素値分布を予め機械学習し、該機械学習の結果に基づいて前記入力画像中の基準点を検出する検出手段と、
前記入力画像中の対象領域内に任意の点を設定する点設定手段と、
前記入力画像中に、前記対象領域の全体を含むと思われる判別領域を設定する領域設定手段と、
前記設定された判別領域内の各画素の輪郭らしさを、該画素の近傍画素の画素値情報に基づいて算出する算出手段と、
前記設定された任意の点、前記検出された基準点、および前記算出された各画素の輪郭らしさに基づいて、前記設定された判別領域から前記基準点を通る輪郭を有し、かつ前記任意の点を含む前記対象領域を抽出する領域抽出手段として機能させることを特徴とする対象領域抽出プログラム。 A program for extracting a target area from an input image,
On the computer,
A pixel representing the reference point and a reference in a plurality of sample images that exist on the outline of the target region of the same type as the target region and whose reference points that can be specified based on the pixel value distribution in the neighboring region are known For each pixel representing a point other than a point, a detection unit that performs machine learning in advance on a pixel value distribution in a neighboring region and detects a reference point in the input image based on the result of the machine learning;
Point setting means for setting an arbitrary point in a target area in the input image;
In the input image, an area setting means for setting a discrimination area that is supposed to include the entire target area;
Calculating means for calculating the contour likeness of each pixel in the set discrimination region based on pixel value information of neighboring pixels of the pixel;
Based on the set arbitrary point, the detected reference point, and the calculated contour likeness of each pixel, the contour has a contour that passes through the reference point from the set discrimination region, and the arbitrary A target region extraction program that functions as region extraction means for extracting the target region including a point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050615A JP4964171B2 (en) | 2008-02-29 | 2008-02-29 | Target region extraction method, apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050615A JP4964171B2 (en) | 2008-02-29 | 2008-02-29 | Target region extraction method, apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009211138A JP2009211138A (en) | 2009-09-17 |
JP4964171B2 true JP4964171B2 (en) | 2012-06-27 |
Family
ID=41184271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008050615A Active JP4964171B2 (en) | 2008-02-29 | 2008-02-29 | Target region extraction method, apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4964171B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5551957B2 (en) | 2010-03-31 | 2014-07-16 | 富士フイルム株式会社 | Projection image generation apparatus, operation method thereof, and projection image generation program |
JP5837604B2 (en) * | 2010-11-02 | 2015-12-24 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. | Geometric feature automatic calculation method, non-transitory computer-readable medium, and image interpretation system |
WO2012119188A1 (en) * | 2011-03-04 | 2012-09-13 | Lbt Innovations Limited | Method for improving classification results of a classifier |
JP5701138B2 (en) | 2011-04-19 | 2015-04-15 | 富士フイルム株式会社 | Medical image processing apparatus and method, and program |
JP5962491B2 (en) * | 2012-12-19 | 2016-08-03 | カシオ計算機株式会社 | Angle of view adjustment apparatus, method, and program |
JP5881625B2 (en) | 2013-01-17 | 2016-03-09 | 富士フイルム株式会社 | Region dividing apparatus, program, and method |
JP6955303B2 (en) * | 2017-04-12 | 2021-10-27 | 富士フイルム株式会社 | Medical image processing equipment and methods and programs |
JP7009864B2 (en) * | 2017-09-20 | 2022-01-26 | カシオ計算機株式会社 | Contour detection device and contour detection method |
KR101955919B1 (en) * | 2017-09-21 | 2019-03-08 | 재단법인 아산사회복지재단 | Method and program for providing tht region-of-interest in image by deep-learing algorithm |
JP6716765B1 (en) * | 2018-12-28 | 2020-07-01 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973212B2 (en) * | 2000-09-01 | 2005-12-06 | Siemens Corporate Research, Inc. | Graph cuts for binary segmentation of n-dimensional images from object and background seeds |
JP4999163B2 (en) * | 2006-04-17 | 2012-08-15 | 富士フイルム株式会社 | Image processing method, apparatus, and program |
-
2008
- 2008-02-29 JP JP2008050615A patent/JP4964171B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009211138A (en) | 2009-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4964171B2 (en) | Target region extraction method, apparatus, and program | |
JP4999163B2 (en) | Image processing method, apparatus, and program | |
US20210191524A1 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
US8693753B2 (en) | Medical image processing device, method and program | |
JP5016603B2 (en) | Method and apparatus for automatic and dynamic vessel detection | |
JP4717935B2 (en) | Image processing apparatus and method, and program | |
US7574031B2 (en) | Nodule boundary detection | |
US8787642B2 (en) | Method, device and computer-readable recording medium containing program for extracting object region of interest | |
US7127107B2 (en) | Land partition data generating method and apparatus | |
JP5263995B2 (en) | Network construction apparatus and method, and program | |
WO2010100858A1 (en) | Image processing device and method, and program | |
US20130231559A1 (en) | System and method for providing 2-dimensional computerized- tomography image corresponding to 2-dimensional ultrasound image | |
US8019139B2 (en) | Method and system for processing an image of body tissues | |
KR20160020918A (en) | Apparatus and Method for adaptive computer aided diagnosis | |
Cheng et al. | Building boundary extraction from high resolution imagery and lidar data | |
US8306354B2 (en) | Image processing apparatus, method, and program | |
US8891879B2 (en) | Image processing apparatus, image processing method, and program | |
US9311732B2 (en) | Image processing apparatus, image processing program, and operation method of image processing apparatus | |
US8774496B2 (en) | Compound object separation | |
JP2013080389A (en) | Vanishing point estimation method, vanishing point estimation device, and computer program | |
Santamaria-Pang et al. | Cell segmentation and classification via unsupervised shape ranking | |
KR101749029B1 (en) | Apparatus and Method of Body Part Detection in Image | |
KR101494975B1 (en) | Nipple automatic detection system and the method in 3D automated breast ultrasound images | |
Chen et al. | Robust segmentation of corneal fibers from noisy images | |
Hu et al. | Accurate vessel segmentation with optimal combination of features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4964171 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150406 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |