JP2012045256A - Region dividing result correcting device, method and program - Google Patents

Region dividing result correcting device, method and program Download PDF

Info

Publication number
JP2012045256A
JP2012045256A JP2010191786A JP2010191786A JP2012045256A JP 2012045256 A JP2012045256 A JP 2012045256A JP 2010191786 A JP2010191786 A JP 2010191786A JP 2010191786 A JP2010191786 A JP 2010191786A JP 2012045256 A JP2012045256 A JP 2012045256A
Authority
JP
Japan
Prior art keywords
boundary
image
vicinity
boundary surface
division result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010191786A
Other languages
Japanese (ja)
Other versions
JP5492024B2 (en
Inventor
Tsutomu Inoue
努 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010191786A priority Critical patent/JP5492024B2/en
Publication of JP2012045256A publication Critical patent/JP2012045256A/en
Application granted granted Critical
Publication of JP5492024B2 publication Critical patent/JP5492024B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply correct region dividing in three-dimensional data.SOLUTION: An image input means 11 inputs three-dimensional image data. A region dividing means 12 divides a region and generates segmentation data showing the result. A boundary neighborhood visualizing means 13 generates a boundary neighborhood image when the boundary neighborhood is viewed from an optional observing point in the optional visual axial direction based on the three dimensional image data of a voxel position of the boundary neighborhood between two or more regions adjacent to each other in the three-dimensional image data. A boundary correcting means 14 receives the correcting operation for the boundary surface on the boundary neighborhood image and corrects the segmentation data according to user's operation.

Description

本発明は、領域分割結果修正装置、方法、及びプログラムに関し、更に詳しくは、複数の領域に分割されたデータの隣接する領域の境界部分を修正する領域分割結果修正装置、方法、及びプログラムに関する。   The present invention relates to an area division result correction apparatus, method, and program, and more particularly to an area division result correction apparatus, method, and program for correcting a boundary portion of adjacent areas of data divided into a plurality of areas.

近年、認識技術の発展に伴い、CT(Computed Tomography)やMRI(magnetic resonance imaging)などの画像内に存在する様々な臓器のセグメンテーションが行われるようになってきている。セグメンテーションにおいては、例えばCT画像から肺領域を抽出し、抽出した肺領域から上・中・下の各肺葉領域を抽出する。CTデータなどの三次元データをコンピュータに入力し、コンピュータが三次元データを解析することでセグメンテーションを自動的に行うことができる。あるいはセグメンテーションは、人間が手動で行ってもよい。   In recent years, with the development of recognition technology, segmentation of various organs existing in images such as CT (Computed Tomography) and MRI (magnetic resonance imaging) has been performed. In the segmentation, for example, lung regions are extracted from CT images, and upper, middle, and lower lung lobe regions are extracted from the extracted lung regions. Segmentation can be automatically performed by inputting three-dimensional data such as CT data into a computer and analyzing the three-dimensional data by the computer. Alternatively, the segmentation may be performed manually by a human.

セグメンテーションに関連して、特許文献1には、CT装置などにより得られる医用画像から臓器や腫瘍などを特定して切り出し、関心領域(ROI:Region Of Interest)として設定することが記載されている。特許文献1は、関心領域の形状を修正する方法を提供する。特許文献1においては、関心領域の形状は、画像上に設定された一群の連続する多節線分又は点列で規定されている。特許文献1では、多節線分又は点列のうちの1つを選択してドラッグし、選択された多節線分又は点列に隣接する他の多節線分又は点列の1つ又は複数を、所定の張力に応じて追随して移動させる。特許文献1では、このようにすることで、関心領域の形状修正の際にユーザが行わなければならない操作の数を減少させることができ、形状修正を短時間で容易に実施できるとしている。   In relation to segmentation, Patent Document 1 describes that an organ, a tumor, or the like is specified and cut out from a medical image obtained by a CT apparatus or the like and set as a region of interest (ROI). Patent Document 1 provides a method of correcting the shape of a region of interest. In Patent Document 1, the shape of the region of interest is defined by a group of continuous multi-node line segments or point sequences set on an image. In Patent Literature 1, one of a multi-node line segment or a point sequence is selected and dragged, and one of other multi-nodal line segments or point sequences adjacent to the selected multi-nodal line segment or point sequence or The plurality are moved following the predetermined tension. According to Patent Document 1, it is possible to reduce the number of operations that the user has to perform when correcting the shape of the region of interest, and to easily perform the shape correction in a short time.

特開2000−308619号公報JP 2000-308619 A

ここで、CTデータは、例えば複数の断面データを体軸方向に重ねた三次元データである。特許文献1に記載の方法を、CTデータなどの三次元データに適用し、三次元データ上で関心領域の形状を修正しようとすると、多節線分や点の数が増加することで表示が見にくくなり、修正作業が困難になるという問題が生じる。その上、三次元データにおいて複数の領域が隣接するなど領域の分割が複雑になると、画面表示は更に煩雑になり、修正作業はより困難になる。   Here, the CT data is, for example, three-dimensional data obtained by superimposing a plurality of cross-sectional data in the body axis direction. When the method described in Patent Document 1 is applied to three-dimensional data such as CT data and the shape of the region of interest is to be corrected on the three-dimensional data, the display is increased due to an increase in the number of multi-segment lines and points. It becomes difficult to see and the problem that correction work becomes difficult arises. In addition, when the division of the regions becomes complicated, such as when a plurality of regions are adjacent to each other in the three-dimensional data, the screen display becomes more complicated and the correction work becomes more difficult.

本発明は、上記に鑑み、三次元データにおける領域分割の修正を簡易に行うことができる領域分割結果修正装置、方法、及びプログラムを提供することを目的とする。   In view of the above, an object of the present invention is to provide an area division result correction apparatus, method, and program capable of easily correcting area division in three-dimensional data.

上記目的を達成するために、本発明は、三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成する境界付近可視化手段と、前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正する境界修正手段とを備えたことを特徴とする領域分割結果修正装置を提供する。   To achieve the above object, the present invention provides a three-dimensional data storage unit for storing three-dimensional image data, and a segmentation data storage for storing segmentation data indicating a division result obtained by dividing the three-dimensional image data into a plurality of regions. And the vicinity of the boundary surface from an arbitrary viewpoint position to an arbitrary line-of-sight direction based on the three-dimensional image data of the voxel position near the boundary surface of two or more adjacent regions of the three-dimensional image data A boundary vicinity visualizing means for generating an image of the vicinity of the boundary when the boundary is viewed, and a correction operation of the boundary surface on the boundary vicinity image is received, and the segmentation data stored in the segmentation data storage unit is corrected according to a user operation An area division result correction apparatus characterized by comprising boundary correction means is provided.

前記境界修正手段は、前記三次元画像データにおける前記境界面の位置を移動させることで前記セグメンテーションデータを修正してもよい。   The boundary correction unit may correct the segmentation data by moving a position of the boundary surface in the three-dimensional image data.

前記境界修正手段が、前記境界面付近のボクセル位置に応じて移動量に対する重み付けを行った上で前記境界面を移動させる構成を採用することができる。   A configuration may be employed in which the boundary correction unit moves the boundary surface after weighting the moving amount according to a voxel position near the boundary surface.

前記境界修正手段は、前記境界面において前記三次元画像データの特徴分析を行い、分析された特徴の特徴量に応じて前記重み付けの重みを決定してもよい。   The boundary correction unit may perform feature analysis of the three-dimensional image data on the boundary surface and determine the weighting weight according to the feature amount of the analyzed feature.

前記境界修正手段は、前記特徴分析により三次元画像データのボクセル値の不連続点を特徴点として抽出し、特徴点のボクセル位置における前記境界面の移動量が、特徴点以外のボクセル位置における前記境界面の移動量よりも少なくなるように前記重み付けを行ってもよい。   The boundary correction means extracts a discontinuous point of the voxel value of the three-dimensional image data as a feature point by the feature analysis, and the amount of movement of the boundary surface at the voxel position of the feature point is a value at the voxel position other than the feature point. The weighting may be performed so as to be smaller than the moving amount of the boundary surface.

前記境界修正手段は、前記三次元データにおける前記境界面の位置を平行移動させてもよい。   The boundary correction means may translate the position of the boundary surface in the three-dimensional data.

前記境界修正手段が、前記境界付近画像を生成する際の視点位置と視線方向とに応じて、修正対象の境界面を決定する構成としてもよい。   The boundary correcting unit may determine a boundary surface to be corrected according to a viewpoint position and a line-of-sight direction when the boundary vicinity image is generated.

前記境界付近可視化手段は、三次元画像を前記境界付近画像として生成することができる。例えば前記境界付近可視化手段は、ボリュームレンダリング法により前記境界付近画像を生成してもよい。   The boundary vicinity visualization means can generate a three-dimensional image as the boundary vicinity image. For example, the boundary vicinity visualization means may generate the boundary vicinity image by a volume rendering method.

前記境界付近可視化手段は、前記境界面で隣接する少なくとも2つの領域のうち、前記境界付近画像を生成する際の視点位置に対して視線方向の手前側に存在する領域の透明度を、視線方向の奥に存在する領域の透明度よりも高く設定して前記境界付近画像を生成してもよい。   The near-boundary visualization unit is configured to determine the transparency of a region existing on the near side of the line-of-sight direction with respect to the viewpoint position when generating the near-boundary image among at least two regions adjacent to each other on the boundary surface. The boundary vicinity image may be generated by setting it higher than the transparency of the region existing in the back.

前記境界付近可視化手段が、最大値投影法又は最小値投影法により前記三次元画像データから前記境界付近画像を生成する構成としてもよい。   The boundary vicinity visualizing means may generate the boundary vicinity image from the three-dimensional image data by a maximum value projection method or a minimum value projection method.

前記境界付近可視化手段は、前記三次元画像データから前記境界面付近にある所定の構造物を抽出し、該抽出した構造物を前記境界付近画像中に強調して表示してもよい。   The boundary vicinity visualizing means may extract a predetermined structure near the boundary surface from the three-dimensional image data, and display the extracted structure in the boundary vicinity image in an emphasized manner.

本発明の領域分割結果修正装置は、前記三次元画像データに基づいて、該三次元画像データを複数の領域に分割し、分割結果をセグメンテーションデータ記憶部に格納する領域分割手段を更に備える構成としてもよい。   The region division result correcting apparatus according to the present invention further includes region dividing means for dividing the 3D image data into a plurality of regions based on the 3D image data and storing the division result in a segmentation data storage unit. Also good.

本発明は、また、コンピュータが、三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成するステップと、コンピュータが、前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正するステップとを有することを特徴とする領域分割結果修正方法を提供する。   The present invention also includes a three-dimensional data storage unit in which a computer stores three-dimensional image data, and a segmentation data storage unit that stores segmentation data indicating a division result obtained by dividing the three-dimensional image data into a plurality of regions. Referring to the three-dimensional image data, the vicinity of the boundary surface is viewed from an arbitrary viewpoint position in an arbitrary line-of-sight direction based on the three-dimensional image data of the voxel position in the vicinity of the boundary surface of two or more adjacent regions. A step of generating an image near the boundary; and a step of accepting a correction operation on the boundary surface on the image near the boundary and correcting the segmentation data stored in the segmentation data storage unit according to a user operation. An area division result correction method characterized by comprising:

更に本発明は、コンピュータに、三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成する手順と、前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正する手順とを実行させるためのプログラムを提供する。   Furthermore, the present invention refers to a three-dimensional data storage unit for storing three-dimensional image data in a computer and a segmentation data storage unit for storing segmentation data indicating a division result obtained by dividing the three-dimensional image data into a plurality of regions. And a boundary in which the vicinity of the boundary surface is viewed from an arbitrary viewpoint position in an arbitrary line of sight based on the three-dimensional image data of a voxel position in the vicinity of the boundary surface of two or more adjacent regions in the three-dimensional image data A procedure for generating a neighborhood image and a procedure for accepting a correction operation of the boundary surface on the boundary neighborhood image and correcting the segmentation data stored in the segmentation data storage unit in response to a user operation Provide a program.

本発明の領域分割結果修正装置、方法、及びプログラムは、境界面の修正に際して、三次元画像データの境界面付近を任意の視点位置から任意の視線方向から見た境界付近画像で可視化し、その境界付近画像上で境界面の修正を受け付け、ユーザ操作にしたがってセグメンテーションデータの修正を行う。境界付近画像は、2以上の領域の境界の近傍を可視化した画像であるため、境界を多節線分や点列で表わして表示する場合に比して、画面表示を見やすくすることができ、その結果、ユーザは、三次元データを対象とした境界面の修正を、簡易に行うことができる。   The area division result correction apparatus, method, and program according to the present invention visualizes the vicinity of the boundary surface of the three-dimensional image data as an image near the boundary viewed from an arbitrary viewpoint position from an arbitrary line-of-sight direction when correcting the boundary surface. The correction of the boundary surface is received on the image near the boundary, and the segmentation data is corrected according to the user operation. Since the boundary vicinity image is an image in which the vicinity of the boundary of two or more regions is visualized, it is possible to make the screen display easier to see than when the boundary is represented by a multiline segment or a point sequence. As a result, the user can easily modify the boundary surface for the three-dimensional data.

本発明の一実施形態の領域分割結果修正装置を示すブロック図。The block diagram which shows the area division result correction apparatus of one Embodiment of this invention. (a)は上葉部分を示す断面図で、(b)は上葉部分を示す三次元画像。(A) is sectional drawing which shows an upper leaf part, (b) is a three-dimensional image which shows an upper leaf part. (a)は中葉部分を示す断面図で、(b)は中葉部分を示す三次元画像。(A) is sectional drawing which shows a middle leaf part, (b) is a three-dimensional image which shows a middle leaf part. (a)は下葉部分を示す断面図で、(b)は下葉部分を示す三次元画像。(A) is sectional drawing which shows a lower leaf part, (b) is a three-dimensional image which shows a lower leaf part. 上葉・中葉・下葉の境界を示す断面図。Sectional drawing which shows the boundary of an upper leaf, a middle leaf, and a lower leaf. 境界付近画像を例示する三次元画像。A three-dimensional image illustrating a boundary vicinity image. 境界面の移動を例示する図。The figure which illustrates the movement of a boundary surface. 動作手順を示すフローチャート。The flowchart which shows an operation | movement procedure.

以下、図面を参照し、本発明の実施の形態を詳細に説明する。図1は、本発明の一実施形態の領域分割結果修正装置を示す。領域分割結果修正装置10は、画像入力手段11、領域分割手段12、境界付近可視化手段13、及び境界修正手段14を有する。領域分割結果修正装置10内の各部の機能は、例えばコンピュータが所定のプログラムに従って処理を実行することで実現することができる。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an area division result correction apparatus according to an embodiment of the present invention. The region division result correction device 10 includes an image input unit 11, a region division unit 12, a boundary vicinity visualization unit 13, and a boundary correction unit 14. The function of each unit in the area division result correction apparatus 10 can be realized by, for example, a computer executing processing according to a predetermined program.

画像入力手段11は、処理対象の三次元画像データ(以下、単に三次元データとも呼ぶ)を入力する。画像入力手段11は、例えば被検体をマルチスライスCT装置で撮影したCTデータを三次元データとして入力する。三次元データの入力元の装置は特に限定されず、マルチスライスCT装置以外であってもよい。画像入力手段11は、入力された三次元データを、三次元データ記憶部21に格納する。   The image input means 11 inputs 3D image data to be processed (hereinafter also simply referred to as 3D data). The image input unit 11 inputs, for example, CT data obtained by imaging a subject with a multi-slice CT apparatus as three-dimensional data. The input source device of the three-dimensional data is not particularly limited, and may be other than a multi-slice CT device. The image input means 11 stores the input 3D data in the 3D data storage unit 21.

領域分割手段12は、三次元データに対してセグメンテーションを行い、三次元データを複数の領域に分割する。領域分割手段12は、例えば被検体内の生体組織を、所定の属性ごとに複数の領域に分割する。領域分割手段12は、被検体から臓器を抽出し、抽出した臓器ごとに領域を分割してもよい。また領域分割手段12は、抽出した臓器を更に複数の領域に分割してもよい。領域分割手段12は、領域分割結果を示すセグメンテーションデータを、セグメンテーションデータ記憶部22に格納する。   The area dividing unit 12 performs segmentation on the three-dimensional data and divides the three-dimensional data into a plurality of areas. The area dividing unit 12 divides, for example, the living tissue in the subject into a plurality of areas for each predetermined attribute. The region dividing unit 12 may extract an organ from the subject and divide the region for each extracted organ. The region dividing unit 12 may further divide the extracted organ into a plurality of regions. The area dividing unit 12 stores the segmentation data indicating the area division result in the segmentation data storage unit 22.

境界付近可視化手段13は、三次元データ記憶部21とセグメンテーションデータ記憶部22とを参照し、三次元データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元データに基づいて、任意の視点位置から任意の視線方向に境界面付近を見た境界付近画像を生成する。境界付近可視化手段13は、例えば境界面付近の三次元画像を境界付近画像として生成する。ここでの三次元画像とは、二次元平面上に三次元空間を再現した画像を指す。   The boundary vicinity visualizing means 13 refers to the three-dimensional data storage unit 21 and the segmentation data storage unit 22, and based on the three-dimensional data of the voxel position near the boundary surface of two or more adjacent regions in the three-dimensional data. Then, a near-boundary image is generated in which the vicinity of the boundary surface is viewed in an arbitrary line-of-sight direction from any viewpoint position. The boundary vicinity visualization means 13 generates, for example, a three-dimensional image near the boundary surface as a boundary vicinity image. The three-dimensional image here refers to an image in which a three-dimensional space is reproduced on a two-dimensional plane.

境界修正手段14は、セグメンテーションデータの修正を行う。境界修正手段14は、境界付近画像上で、隣接する2以上の領域の境界面の修正操作を受け付ける。境界修正手段14は、ユーザ操作に応じて境界面の位置や形状を修正し、その修正結果を反映したセグメンテーションデータをセグメンテーションデータ記憶部22に格納する。境界修正手段14は、例えば三次元データにおける境界面の位置を移動させることでセグメンテーションデータを修正する。境界面の移動は、例えば境界面を挟んで対向する2つの領域のうちの一方を拡大又は縮小すると共に、それに合わせて他方を縮小又は拡大することで実施可能である。   The boundary correction unit 14 corrects the segmentation data. The boundary correction unit 14 receives a correction operation for the boundary surfaces of two or more adjacent areas on the boundary vicinity image. The boundary correction unit 14 corrects the position and shape of the boundary surface according to the user operation, and stores the segmentation data reflecting the correction result in the segmentation data storage unit 22. The boundary correction unit 14 corrects the segmentation data by moving the position of the boundary surface in the three-dimensional data, for example. The movement of the boundary surface can be performed by, for example, enlarging or reducing one of the two regions facing each other with the boundary surface interposed therebetween, and reducing or enlarging the other in accordance therewith.

以下では、主に肺葉のセグメンテーションを例に説明を行う。セグメンテーションの対象は肺葉には限定されず、肝臓や心臓などの他の臓器でも構わない。領域分割手段12は、例えば三次元データから肺葉を抽出し、抽出した肺葉を上葉・中葉・下葉の3つの領域に分割する。図2〜図4は、肺葉の分割結果を例示する。図2(a)は上葉部分を断面図で示し、(b)は上葉部分を三次元画像で示している。図3(a)は中葉部分を断面図で示し、(b)は中葉部分を三次元画像で示している。図4(a)は下葉部分を断面図で示し、(b)は下葉部分を三次元画像で示している。肺葉の各領域への分割には所望のアルゴリズムを用いることができる。   In the following description, segmentation of lung lobes will be mainly used as an example. The target of segmentation is not limited to the lung lobe, and other organs such as the liver and heart may be used. For example, the region dividing unit 12 extracts a lung lobe from three-dimensional data, and divides the extracted lung lobe into three regions of an upper lobe, a middle lobe, and a lower lobe. 2 to 4 illustrate lung lobe segmentation results. FIG. 2A shows the upper leaf portion in a sectional view, and FIG. 2B shows the upper leaf portion in a three-dimensional image. FIG. 3A shows the middle leaf portion in a sectional view, and FIG. 3B shows the middle leaf portion in a three-dimensional image. FIG. 4A shows the lower leaf portion in a sectional view, and FIG. 4B shows the lower leaf portion in a three-dimensional image. A desired algorithm can be used for dividing the lung lobe into each region.

図5は、上葉・中葉・下葉の境界を断面図で示す。肺葉が図2〜図4に示すように各領域に分割されている場合、各領域の境界は図5に示すようになる。図6は、境界付近画像を例示する。境界付近可視化手段13は、図5に示される境界の位置に対応する三次元データのボクセル位置から所定距離以内のボクセル位置のデータを読み出して境界付近画像(図6)を生成する。あるいは境界付近可視化手段13は、三次元データ全体に対してボリュームレンダリング法により三次元画像を生成しておき、境界面付近のみが表示画面上に現れるように表示条件を調整してもよい。   FIG. 5 is a cross-sectional view showing the boundary between the upper leaf, the middle leaf, and the lower leaf. When the lung lobe is divided into regions as shown in FIGS. 2 to 4, the boundaries of the regions are as shown in FIG. FIG. 6 illustrates the boundary vicinity image. The boundary vicinity visualizing means 13 reads out data of a voxel position within a predetermined distance from the voxel position of the three-dimensional data corresponding to the position of the boundary shown in FIG. 5, and generates a boundary vicinity image (FIG. 6). Alternatively, the boundary vicinity visualizing means 13 may generate a three-dimensional image by volume rendering for the entire three-dimensional data, and adjust the display conditions so that only the vicinity of the boundary surface appears on the display screen.

境界付近可視化手段13は、修正対象の境界面が与えられている場合には、その修正対象の境界面から所定距離以内を境界付近画像で可視化すればよい。例えば修正対象として上葉の領域と下葉の猟奇との境界面が選ばれているとき、境界付近可視化手段13は上葉の領域と下葉の領域との境界面付近の境界付近画像を生成すればよく、上葉の領域と中葉の領域との境界面、及び中葉の領域と下葉の領域との境界面付近については境界付近画像を生成する必要がない。境界付近可視化手段13は、全ての境界面付近の境界付近画像を生成した後にユーザが修正対象の境界面を指定したときは、指定された境界面以外の境界面付近を境界付近画像から削除してもよい。   When the boundary surface to be corrected is given, the boundary vicinity visualizing means 13 may visualize within a predetermined distance from the boundary surface to be corrected with a boundary vicinity image. For example, when the boundary surface between the upper leaf region and the lower leaf hunter is selected as the correction target, the near-boundary visualization means 13 generates a near-boundary image near the boundary surface between the upper leaf region and the lower leaf region. There is no need to generate near-boundary images for the boundary surface between the upper leaf region and the middle leaf region and for the vicinity of the boundary surface between the middle leaf region and the lower leaf region. The boundary vicinity visualizing means 13 deletes the vicinity of the boundary surface other than the specified boundary surface from the boundary vicinity image when the user specifies the boundary surface to be corrected after generating the boundary vicinity images near all the boundary surfaces. May be.

境界付近可視化手段は、境界面で隣接する2以上の領域のうち、境界付近画像のカメラ位置に対して視線方向の手前側に存在する領域の透明度を上げ、境界付近画像においてその領域を半透明又は透明にしてもよい。そのようにすることで、境界面の形状を見やすくすることができる。ユーザは、視線方向手前側の領域の透明度を任意に変更できるものとする。また、ユーザは、境界面付近を定める上記の所定距離を任意に変更することができ、境界付近可視化手段13が可視化する範囲は容易に変更可能であるものとする。ユーザは、例えば境界面から何mmの範囲で境界付近画像を生成するかを指定できる。   Near-boundary visualization means increases the transparency of an area existing on the near side of the line-of-sight direction with respect to the camera position of the near-boundary image among two or more areas adjacent to each other on the boundary surface, and translucent the area in the near-boundary image Or it may be transparent. By doing so, the shape of the boundary surface can be easily seen. It is assumed that the user can arbitrarily change the transparency of the area on the near side in the line-of-sight direction. In addition, the user can arbitrarily change the predetermined distance that defines the vicinity of the boundary surface, and the range visualized by the vicinity vicinity visualization means 13 can be easily changed. The user can specify, for example, how many mm from the boundary surface the boundary vicinity image is generated.

境界付近可視化手段13は、三次元データから境界面付近に存在する所定の構造物を抽出し、抽出した構造物を境界付近画像中に強調して表示してもよい。所定の構造物としては、例えば画像が肺葉部分であれば気管支や血管などが考えられる。境界付近可視化手段13は、例えば抽出した気管支部分のボリュームレンダリング画像を、境界付近画像に含める。このように所定の構造物を境界付近画像に明示することで、後に行う境界面の修正において、特定構造物を手掛かりに境界面の修正を行うことができる。   The boundary vicinity visualizing means 13 may extract a predetermined structure existing in the vicinity of the boundary surface from the three-dimensional data, and display the extracted structure highlighted in the boundary vicinity image. As the predetermined structure, for example, if the image is a pulmonary lobe, a bronchus or a blood vessel can be considered. The near-boundary visualization means 13 includes, for example, the extracted volume rendering image of the bronchial portion in the near-boundary image. In this way, by clearly indicating the predetermined structure in the boundary vicinity image, the boundary surface can be corrected using the specific structure as a clue in the correction of the boundary surface to be performed later.

境界修正手段14は、境界付近画像を図示しない表示モニタなどに表示し、ユーザからの境界の修正操作を受け付ける。ユーザは、マウスの操作やキーボードの操作により、境界付近画像を生成する際の視点位置及び視線方向を任意に変更することができるものとする。ユーザは、境界付近画像を見ながら、修正対象の境界部分を指定する。例えばユーザは、図6に示す上葉と中葉、上葉と下葉、中葉と下葉の3つの境界部分の中から、修正対象の境界部分を指定する。ユーザは、例えば上葉とその他の部分との境界を、修正対象の境界部分として指定することもできるものとする。   The boundary correction unit 14 displays an image near the boundary on a display monitor (not shown) and receives a boundary correction operation from the user. It is assumed that the user can arbitrarily change the viewpoint position and the line-of-sight direction when generating the near-boundary image by operating the mouse or the keyboard. The user designates the boundary portion to be corrected while looking at the image near the boundary. For example, the user designates the boundary portion to be corrected from the three boundary portions of the upper leaf and middle leaf, the upper leaf and lower leaf, and the middle leaf and lower leaf shown in FIG. For example, it is assumed that the user can designate the boundary between the upper leaf and the other part as the boundary part to be corrected.

ユーザが行う直接の指定に代えて、境界修正手段14が、境界付近画像を生成する際の視点位置及び視線方法に基づいて、境界付近画像で可視化される境界面の中から修正対象の境界部分を選択してもよい。境界修正手段14は、例えば境界付近画像を生成する際の視点位置から視線方向にレイを飛ばして領域が切り替わる部分を探す。境界修正手段14は、見つかった領域が切り替わる部分の境界面を修正対象の境界部分として選択してもよい。例えば図6において、視線方向に飛ばしたレイが上葉の領域と下葉の領域とを突き抜けるとき、上葉と下葉の境界面を修正対象の境界部分として選択してもよい。   Instead of direct designation performed by the user, the boundary correction unit 14 determines the boundary portion to be corrected from the boundary surface visualized in the near-boundary image based on the viewpoint position and the line-of-sight method when generating the near-boundary image. May be selected. For example, the boundary correction unit 14 searches for a portion where the region is switched by skipping the ray in the line-of-sight direction from the viewpoint position when generating the near-boundary image. The boundary correction unit 14 may select a boundary surface where the found area is switched as a boundary part to be corrected. For example, in FIG. 6, when a ray flew in the line-of-sight direction passes through the upper leaf region and the lower leaf region, the boundary surface between the upper leaf and the lower leaf may be selected as the boundary portion to be corrected.

ユーザは、例えば境界付近画像上でマウスをドラッグし、修正対象の境界面の位置を移動させる。境界面をどの方向に移動させるかは、境界付近画像を生成する際の視点位置と視線方向とに基づいて決めてもよく、或いはマウスのドラッグの方向に応じて決めてもよい。図7は境界面の移動を例示する。境界修正手段14は、修正前の境界面の位置から、境界面を一律に平行移動させる。境界修正手段14は、境界面の移動に伴い、例えば上葉の領域を修正前に比して下葉側に拡大すると共に、その分だけ下葉の領域を縮小する。   For example, the user drags the mouse on an image near the boundary to move the position of the boundary surface to be corrected. The direction in which the boundary surface is moved may be determined based on the viewpoint position and the line-of-sight direction when the near-boundary image is generated, or may be determined according to the drag direction of the mouse. FIG. 7 illustrates the movement of the boundary surface. The boundary correction means 14 uniformly translates the boundary surface from the position of the boundary surface before correction. As the boundary surface moves, the boundary correcting unit 14 enlarges the upper leaf area to the lower leaf side, for example, before the correction, and reduces the lower leaf area by that amount.

境界面の移動は、平行移動には限られない。境界修正手段14は、例えば境界面付近のボクセル位置に応じて移動量に対する重み付けを行った上で境界面を移動させてもよい。重み付けを行うことで、ある位置と別の位置とで、境界面の移動量に差を付けることができる。具体的には、ある位置における重みを「1」とし、別のある位置における重みを「0.5」としたとき、ある位置における境界面の移動量を「10」とし、別のある位置における境界面の移動量を「5」とすることができる。   The movement of the boundary surface is not limited to parallel movement. For example, the boundary correction unit 14 may move the boundary surface after weighting the moving amount according to the voxel position near the boundary surface. By performing weighting, it is possible to make a difference in the amount of movement of the boundary surface between a certain position and another position. Specifically, when the weight at a certain position is “1” and the weight at another certain position is “0.5”, the movement amount of the boundary surface at a certain position is “10” and the weight at another certain position is The amount of movement of the boundary surface can be set to “5”.

境界修正手段14は、例えばマウスのドラッグを開始した位置の重みを最大とし、その位置からは離れるほど重みを減少させて、特定部分の境界面の移動量が、他の部分の境界面の移動量よりも多くなるようにしてもよい。あるいは、境界面の修正に先立ってユーザが移動量を多くしたい位置(地点)を設定し、その設定された位置の移動量が多くなるように重みを設定してもよい。また、境界付近画像を生成する際の視点位置と視線方向とに基づいて重みを決定してもよい。例えば、視点位置から視線方向に飛ばしたレイが通過する部分(位置)の移動量が多くなるように重みを設定してもよい。   For example, the boundary correction unit 14 maximizes the weight of the position where the mouse drag is started, decreases the weight as the distance from the position increases, and the amount of movement of the boundary surface of the specific part becomes the movement of the boundary surface of the other part. It may be made larger than the amount. Alternatively, the user may set a position (point) where the user wants to increase the movement amount prior to the correction of the boundary surface, and set the weight so that the movement amount of the set position increases. Further, the weight may be determined based on the viewpoint position and the line-of-sight direction when the near-boundary image is generated. For example, the weight may be set so that the amount of movement of the portion (position) through which the ray flew in the line-of-sight direction from the viewpoint position increases.

更に、境界修正手段14が、境界面において三次元データの特徴分析を行い、分析された特徴量に応じて重み付けの重みを決定することもできる。例えば境界修正手段14は、特徴分析を行うことで、三次元データのボクセル値の不連続点を特徴点として抽出する。この場合、似たようなボクセル値が続く箇所では特徴量が低く、周囲とは異なるボクセル値が現れる箇所では特徴量が高くなる。境界修正手段14は、特徴量に応じて、特徴量が高いほど移動量が少なくなるように重みを設定する。このような重み設定を行うことで、特徴点のボクセル位置における境界面の移動量を、特徴点以外のボクセル位置における境界面の移動量よりも少なくできる。   Further, the boundary correction unit 14 can perform a feature analysis of the three-dimensional data on the boundary surface and determine a weighting weight according to the analyzed feature amount. For example, the boundary correction unit 14 performs feature analysis to extract discontinuous points of voxel values of the three-dimensional data as feature points. In this case, the feature amount is low at a portion where a similar voxel value continues, and the feature amount is high at a portion where a voxel value different from the surroundings appears. The boundary correction unit 14 sets the weight according to the feature amount so that the movement amount decreases as the feature amount increases. By performing such weight setting, the amount of movement of the boundary surface at the voxel position of the feature point can be made smaller than the amount of movement of the boundary surface at the voxel position other than the feature point.

図8は、動作手順を示している。画像入力手段11は、例えばCT装置やMR装置で撮影された三次元データを入力する(ステップS1)。画像入力手段11は、CT装置やMR装置などから三次元データを直接受け取ってもよく、或いは記憶済みの三次元データを記憶装置から読み出してもよい。画像入力手段11は、入力した三次元データを三次元データ記憶部21に格納する。   FIG. 8 shows an operation procedure. The image input means 11 inputs 3D data photographed by, for example, a CT apparatus or an MR apparatus (step S1). The image input unit 11 may directly receive three-dimensional data from a CT device, an MR device, or the like, or may read stored three-dimensional data from the storage device. The image input unit 11 stores the input 3D data in the 3D data storage unit 21.

領域分割手段12は、三次元画像データのセグメンテーションを行い、三次元データを複数の領域に分割する(ステップS2)。領域分割手段12は、分割結果を示すセグメンテーションデータをセグメンテーションデータ記憶部22に格納する。領域分割は、領域分割手段12が三次元データを解析することで自動的に行ってもよい、或いは人間が手動で行ってもよい。また、領域分割は領域分割結果修正装置10で行う必要はない。画像入力手段11が、外部にて行われた領域分割結果(セグメンテーションデータ)を、三次元データと共に入力してもよい。   The area dividing unit 12 segments the 3D image data, and divides the 3D data into a plurality of areas (step S2). The area dividing unit 12 stores the segmentation data indicating the division result in the segmentation data storage unit 22. The area division may be automatically performed by the area dividing means 12 analyzing the three-dimensional data, or may be manually performed by a human. Further, the area division need not be performed by the area division result correction apparatus 10. The image input unit 11 may input the result of segmentation (segmentation data) performed outside together with the three-dimensional data.

境界付近可視化手段13は、三次元データとセグメンテーションデータとを参照して、境界付近画像を生成する(ステップS3)。境界付近可視化手段13は、例えば領域の境界面の位置から所定距離以内のボクセル位置の三次元データを対象に、境界付近画像を生成する。境界付近可視化手段13は、例えばボリュームレンダリング法により境界付近画像を生成する。境界付近画像は、表示モニタなどに表示される。   The near boundary visualization means 13 refers to the three-dimensional data and the segmentation data to generate a near boundary image (step S3). The boundary vicinity visualizing means 13 generates a boundary vicinity image for, for example, three-dimensional data of voxel positions within a predetermined distance from the position of the boundary surface of the region. The boundary vicinity visualizing means 13 generates a boundary vicinity image by, for example, a volume rendering method. The image near the boundary is displayed on a display monitor or the like.

境界修正手段14は、境界付近画像上で境界面の修正操作を受け付ける(ステップS4)。ユーザは、境界付近画像において修正したい境界面が見やすい位置に来るように、境界付近画像を生成する際の視点位置を任意に動かすことができる。ユーザは、修正対象の境界面を指定する(ステップS5)。ユーザは、境界付近画像で表示されている境界面の中から修正対象の境界面を指定する。これに代えて、境界修正手段14が、境界付近画像を生成する際の視点位置から視線方向に飛ばしたレイ上に存在する境界面を、修正対象の境界面としてもよい。   The boundary correction unit 14 receives a boundary surface correction operation on the boundary vicinity image (step S4). The user can arbitrarily move the viewpoint position when generating the near-boundary image so that the boundary surface to be corrected in the near-boundary image is at an easily viewable position. The user designates the boundary surface to be corrected (step S5). The user designates the boundary surface to be corrected from the boundary surfaces displayed in the near-boundary image. Instead, the boundary correction unit 14 may use a boundary surface that exists on a ray that has been skipped in the line-of-sight direction from the viewpoint position when the near-boundary image is generated as the boundary surface to be corrected.

ユーザは、例えばマウスで画像中の所望の位置をドラッグすることで境界面の位置を移動させ、境界面を修正する(ステップS6)。境界修正手段14は、例えばマウスのドラッグ方向に応じて境界面を平行移動させる。あるいは表示画面上に8方向に対応したボタンを用意しておき、ユーザが8方向のうちから何れかの方向を選択したときに、その方向に境界面を移動してもよい。また、ユーザは、タッチパネルを操作して境界面の修正を行ってもよい。   The user moves the position of the boundary surface by dragging a desired position in the image with a mouse, for example, and corrects the boundary surface (step S6). The boundary correction unit 14 translates the boundary surface according to the drag direction of the mouse, for example. Alternatively, buttons corresponding to eight directions may be prepared on the display screen, and when the user selects one of the eight directions, the boundary surface may be moved in that direction. Further, the user may correct the boundary surface by operating the touch panel.

境界修正手段14は、修正終了か否かを判断する(ステップS7)。修正終了でない場合はステップS4に戻り、境界面の修正を継続する。境界面の修正では、ステップS6で境界面の位置が移動するたびに境界付近画像を生成し、ユーザが修正結果を確認できるようにしておくとよい。境界修正手段14は、ユーザが修正終了を入力すると、ユーザの修正に応じたセグメンテーションデータを生成し、セグメンテーションデータ記憶部22に格納する(ステップS8)。   The boundary correcting unit 14 determines whether or not the correction is finished (step S7). If the correction is not completed, the process returns to step S4, and the correction of the boundary surface is continued. In the modification of the boundary surface, it is preferable that an image near the boundary is generated every time the position of the boundary surface is moved in step S6 so that the user can confirm the correction result. When the user inputs the end of correction, the boundary correction unit 14 generates segmentation data corresponding to the user correction, and stores it in the segmentation data storage unit 22 (step S8).

本実施形態では、領域分割結果修正装置10は、境界面の修正に際して、三次元データの境界面付近を任意の視点位置から任意の視線方向から見た境界付近画像で可視化しており、その境界付近画像上で境界面の修正を受け付ける。境界付近画像は、2以上の領域の境界の近傍を可視化した画像であるため、境界を多節線分や点列で表わして表示する場合に比して、画面表示を見やすくすることができる。このため、ユーザは、三次元データを対象とした境界面の修正を、簡易に行うことができる。   In the present embodiment, the region division result correction apparatus 10 visualizes the vicinity of the boundary surface of the three-dimensional data with an image near the boundary viewed from an arbitrary viewpoint position from an arbitrary line of sight when correcting the boundary surface. Accepts correction of boundary surface on nearby image. Since the vicinity image of the boundary is an image in which the vicinity of the boundary of two or more regions is visualized, the screen display can be made easier to see than when the boundary is represented by a multi-segment line or a point sequence. For this reason, the user can easily modify the boundary surface for the three-dimensional data.

なお、上記実施形態では画像データとして三次元画像データを想定したが、三次元画像データに時刻の次元を加えた四次元データに対して処理を行うことも可能である。その場合、領域分割結果修正装置10は、任意の時刻の三次元データから境界付近画像を生成し、境界面の修正を受け付ければよい。データが四次元データである場合も、境界面の修正を境界付近画像上で受け付けることで、境界面から離れた位置の構造物が表示画面上には現れず、余計な構造物の動きに惑わされずに、境界面を修正することができる。   In the above embodiment, three-dimensional image data is assumed as image data, but it is also possible to perform processing on four-dimensional data obtained by adding a time dimension to three-dimensional image data. In that case, the region division result correction device 10 may generate a boundary vicinity image from three-dimensional data at an arbitrary time and accept correction of the boundary surface. Even when the data is four-dimensional data, accepting the modification of the boundary surface on the image near the boundary, the structure at a position away from the boundary surface does not appear on the display screen, and the movement of the extra structure is confused. Instead, the boundary surface can be corrected.

上記実施形態では、ボリュームレンダリング法により境界付近画像を生成する例を説明したが、これには限定されない。境界付近画像は、何らかの投影手法を用いて投影面に三次元データを投影した画像であればよく、ボリュームレンダリング画像には限定されない。例えば、境界付近可視化手段13が、最大値投影法又は最小値投影法により三次元画像データから境界付近画像を生成してもよい。その場合、境界付近可視化手段13は、境界面から所定の距離以内のボクセルを対象に、最大値又は最小値を取るボクセルを投影面に投影することで境界付近画像を生成すればよい。   In the above-described embodiment, the example of generating the near-boundary image by the volume rendering method has been described, but the present invention is not limited to this. The boundary vicinity image only needs to be an image obtained by projecting three-dimensional data onto the projection surface using any projection method, and is not limited to the volume rendering image. For example, the boundary vicinity visualization means 13 may generate a boundary vicinity image from the three-dimensional image data by the maximum value projection method or the minimum value projection method. In this case, the boundary vicinity visualizing means 13 may generate a boundary vicinity image by projecting voxels having a maximum value or a minimum value onto a projection plane for a voxel within a predetermined distance from the boundary surface.

以上、本発明をその好適な実施形態に基づいて説明したが、本発明の領域分割結果修正装置、方法、及びプログラムは、上記実施形態にのみ限定されるものではなく、上記実施形態の構成から種々の修正及び変更を施したものも、本発明の範囲に含まれる。   Although the present invention has been described based on the preferred embodiment, the region division result correction apparatus, method, and program of the present invention are not limited to the above embodiment, and the configuration of the above embodiment. Various modifications and changes are also included in the scope of the present invention.

10:領域分割結果修正装置
11:画像入力手段
12:領域分割手段
13:境界付近可視化手段
14:境界修正手段
21:三次元データ記憶部
22:セグメンテーションデータ記憶部
10: area division result correction device 11: image input means 12: area division means 13: boundary vicinity visualization means 14: boundary correction means 21: three-dimensional data storage section 22: segmentation data storage section

Claims (15)

三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成する境界付近可視化手段と、
前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正する境界修正手段とを備えたことを特徴とする領域分割結果修正装置。
Referring to a 3D data storage unit that stores 3D image data, and a segmentation data storage unit that stores segmentation data indicating a division result obtained by dividing the 3D image data into a plurality of regions. Visualization of the vicinity of the boundary that generates an image of the vicinity of the boundary viewed from the arbitrary viewpoint position in the direction of the line of sight based on the three-dimensional image data of the voxel position near the boundary surface of two or more adjacent areas Means,
A region division result comprising: boundary correction means for receiving a correction operation of the boundary surface on the boundary vicinity image, and correcting segmentation data stored in the segmentation data storage unit according to a user operation Correction device.
前記境界修正手段が、前記三次元画像データにおける前記境界面の位置を移動させることで前記セグメンテーションデータを修正するものであることを特徴とする請求項1に記載の領域分割結果修正装置。   The region division result correction device according to claim 1, wherein the boundary correction unit corrects the segmentation data by moving a position of the boundary surface in the three-dimensional image data. 前記境界修正手段が、前記境界面付近のボクセル位置に応じて移動量に対する重み付けを行った上で前記境界面を移動させるものであることを特徴とする請求項2に記載の領域分割結果修正装置。   3. The region division result correction device according to claim 2, wherein the boundary correction unit moves the boundary surface after weighting a moving amount according to a voxel position near the boundary surface. . 前記境界修正手段が、前記境界面において前記三次元画像データの特徴分析を行い、分析された特徴の特徴量に応じて前記重み付けの重みを決定するものである請求項3に記載の領域分割結果修正装置。   The region division result according to claim 3, wherein the boundary correction unit performs feature analysis of the three-dimensional image data on the boundary surface and determines the weighting weight according to the feature amount of the analyzed feature. Correction device. 前記境界修正手段が、前記特徴分析により三次元画像データのボクセル値の不連続点を特徴点として抽出し、特徴点のボクセル位置における前記境界面の移動量が、特徴点以外のボクセル位置における前記境界面の移動量よりも少なくなるように前記重み付けを行うものであることを特徴とする請求項4に記載の領域分割結果修正装置。   The boundary correction means extracts a discontinuous point of the voxel value of the three-dimensional image data as the feature point by the feature analysis, and the amount of movement of the boundary surface at the voxel position of the feature point is the amount of movement at the voxel position other than the feature point. 5. The area division result correcting device according to claim 4, wherein the weighting is performed so that the amount of movement of the boundary surface is smaller than the moving amount. 前記境界修正手段が、前記三次元データにおける前記境界面の位置を平行移動させるものであることを特徴とする請求項2に記載の領域分割結果修正装置。   The region division result correction apparatus according to claim 2, wherein the boundary correction unit is configured to translate the position of the boundary surface in the three-dimensional data. 前記境界修正手段が、前記境界付近画像を生成する際の視点位置と視線方向とに応じて、修正対象の境界面を決定するものであることを特徴とする請求項1から6何れかに記載の領域分割結果修正装置。   The boundary correction unit determines a boundary surface to be corrected according to a viewpoint position and a line-of-sight direction when generating the near-boundary image. Area division result correction device. 前記境界付近可視化手段が、三次元画像を前記境界付近画像として生成するものであることを特徴とする請求項1から7何れかに記載の領域分割結果修正装置。   8. The region division result correcting apparatus according to claim 1, wherein the boundary vicinity visualizing means generates a three-dimensional image as the boundary vicinity image. 前記境界付近可視化手段が、ボリュームレンダリング法により前記境界付近画像を生成するものであることを特徴とする請求項1から8何れかに記載の領域分割結果修正装置。   9. The region division result correction apparatus according to claim 1, wherein the boundary vicinity visualization means generates the boundary vicinity image by a volume rendering method. 前記境界付近可視化手段が、前記境界面で隣接する少なくとも2つの領域のうち、前記境界付近画像を生成する際の視点位置に対して視線方向の手前側に存在する領域の透明度を、視線方向の奥に存在する領域の透明度よりも高く設定して前記境界付近画像を生成するものであることを特徴とする請求項9に記載の領域分割結果修正装置。   The near-boundary visualization means sets the transparency of the region existing on the near side of the viewing direction with respect to the viewpoint position when generating the near-boundary image among at least two regions adjacent to each other on the boundary surface in the viewing direction. The region division result correcting device according to claim 9, wherein the boundary vicinity image is generated by setting higher than the transparency of a region existing in the back. 前記境界付近可視化手段が、最大値投影法又は最小値投影法により前記三次元画像データから前記境界付近画像を生成するものであることを特徴とする請求項1から7何れかに記載の領域分割結果修正装置。   The region division according to any one of claims 1 to 7, wherein the boundary vicinity visualization means generates the boundary vicinity image from the three-dimensional image data by a maximum value projection method or a minimum value projection method. Result correction device. 前記境界付近可視化手段が、前記三次元画像データから前記境界面付近にある所定の構造物を抽出し、該抽出した構造物を前記境界付近画像中に強調して表示するものであることを特徴とする請求項1から11何れかに記載の領域分割結果修正装置。   The boundary vicinity visualizing means extracts a predetermined structure near the boundary surface from the three-dimensional image data, and highlights and displays the extracted structure in the boundary vicinity image. The region division result correction device according to claim 1. 前記三次元画像データに基づいて、該三次元画像データを複数の領域に分割し、分割結果をセグメンテーションデータ記憶部に格納する領域分割手段を更に備えることを特徴とする請求項1から12何れかに記載の領域分割結果修正装置。   13. The image processing apparatus according to claim 1, further comprising an area dividing unit that divides the 3D image data into a plurality of areas based on the 3D image data and stores a division result in a segmentation data storage unit. The area division result correction device described in 1. コンピュータが、三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成するステップと、
コンピュータが、前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正するステップとを有することを特徴とする領域分割結果修正方法。
The computer refers to a three-dimensional data storage unit that stores three-dimensional image data, and a segmentation data storage unit that stores segmentation data indicating a division result obtained by dividing the three-dimensional image data into a plurality of regions. Based on the three-dimensional image data of the voxel position in the vicinity of the boundary surface of two or more adjacent regions in the image data, a near-boundary image in which the vicinity of the boundary surface is viewed in an arbitrary viewing direction from an arbitrary viewpoint position is generated. Steps,
A region division result, comprising: a step of accepting an operation for correcting the boundary surface on the image near the boundary, and correcting segmentation data stored in the segmentation data storage unit according to a user operation. How to fix.
コンピュータに、
三次元画像データを記憶する三次元データ記憶部と、前記三次元画像データを複数の領域に分割した分割結果を示すセグメンテーションデータを記憶するセグメンテーションデータ記憶部とを参照し、前記三次元画像データのうちで隣接する2以上の領域の境界面付近のボクセル位置の三次元画像データに基づいて、任意の視点位置から任意の視線方向に前記境界面付近を見た境界付近画像を生成する手順と、
前記境界付近画像上で前記境界面の修正操作を受け付け、ユーザ操作に応じて、前記セグメンテーションデータ記憶部に記憶されるセグメンテーションデータを修正する手順とを実行させるためのプログラム。
On the computer,
Referring to a 3D data storage unit that stores 3D image data, and a segmentation data storage unit that stores segmentation data indicating a division result obtained by dividing the 3D image data into a plurality of regions. A procedure for generating a near-boundary image in which the vicinity of the boundary surface is viewed from an arbitrary viewpoint position in an arbitrary line-of-sight direction based on the three-dimensional image data of the voxel position near the boundary surface of two or more adjacent regions;
A program for receiving a correction operation for the boundary surface on the boundary vicinity image and executing a procedure for correcting the segmentation data stored in the segmentation data storage unit according to a user operation.
JP2010191786A 2010-08-30 2010-08-30 Region division result correction apparatus, method, and program Active JP5492024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191786A JP5492024B2 (en) 2010-08-30 2010-08-30 Region division result correction apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191786A JP5492024B2 (en) 2010-08-30 2010-08-30 Region division result correction apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2012045256A true JP2012045256A (en) 2012-03-08
JP5492024B2 JP5492024B2 (en) 2014-05-14

Family

ID=45900841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191786A Active JP5492024B2 (en) 2010-08-30 2010-08-30 Region division result correction apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5492024B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014073355A (en) * 2012-09-14 2014-04-24 Fujifilm Corp Region extraction apparatus, region extraction method, and region extraction program
WO2014199624A1 (en) * 2013-06-11 2014-12-18 富士フイルム株式会社 Contour correction device, method, and program
JP2015116488A (en) * 2013-12-18 2015-06-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Dynamic feature rich anatomical reconstruction from point cloud
CN109658425A (en) * 2018-12-12 2019-04-19 上海联影医疗科技有限公司 A kind of lobe of the lung dividing method, device, computer equipment and storage medium
JP2019139306A (en) * 2018-02-06 2019-08-22 富士ゼロックス株式会社 Information processing device and program
JP2021021600A (en) * 2019-07-25 2021-02-18 株式会社島津製作所 X-ray imaging device and X-ray imaging method
US10991102B2 (en) 2016-08-12 2021-04-27 Canon Medical Systems Corporation Image processing apparatus and image processing method
JPWO2020110774A1 (en) * 2018-11-30 2021-10-14 富士フイルム株式会社 Image processing equipment, image processing methods, and programs
JP7331524B2 (en) 2019-07-24 2023-08-23 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728976A (en) * 1993-07-07 1995-01-31 Toshiba Corp Picture display device
JP2003091735A (en) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd Image processor
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2008142481A (en) * 2006-12-13 2008-06-26 Med Solution Kk Apparatus and program for carrying out segmentation of lungs to units of pulmonary segment automatically
JP2008526270A (en) * 2004-11-22 2008-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Improved data representation for RTP

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728976A (en) * 1993-07-07 1995-01-31 Toshiba Corp Picture display device
JP2003091735A (en) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd Image processor
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2008526270A (en) * 2004-11-22 2008-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Improved data representation for RTP
JP2008142481A (en) * 2006-12-13 2008-06-26 Med Solution Kk Apparatus and program for carrying out segmentation of lungs to units of pulmonary segment automatically

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014073355A (en) * 2012-09-14 2014-04-24 Fujifilm Corp Region extraction apparatus, region extraction method, and region extraction program
US9142029B2 (en) 2012-09-14 2015-09-22 Fujifilm Corporation Region extraction apparatus, method and program
WO2014199624A1 (en) * 2013-06-11 2014-12-18 富士フイルム株式会社 Contour correction device, method, and program
JP2014241000A (en) * 2013-06-11 2014-12-25 富士フイルム株式会社 Outline modification device, outline modification method, and outline modification program
US9449247B2 (en) 2013-06-11 2016-09-20 Fujifilm Corporation Contour correction device, method, and program
JP2015116488A (en) * 2013-12-18 2015-06-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Dynamic feature rich anatomical reconstruction from point cloud
US10991102B2 (en) 2016-08-12 2021-04-27 Canon Medical Systems Corporation Image processing apparatus and image processing method
JP2019139306A (en) * 2018-02-06 2019-08-22 富士ゼロックス株式会社 Information processing device and program
JPWO2020110774A1 (en) * 2018-11-30 2021-10-14 富士フイルム株式会社 Image processing equipment, image processing methods, and programs
JP7101809B2 (en) 2018-11-30 2022-07-15 富士フイルム株式会社 Image processing equipment, image processing methods, and programs
CN109658425A (en) * 2018-12-12 2019-04-19 上海联影医疗科技有限公司 A kind of lobe of the lung dividing method, device, computer equipment and storage medium
CN109658425B (en) * 2018-12-12 2021-12-28 上海联影医疗科技股份有限公司 Lung lobe segmentation method and device, computer equipment and storage medium
JP7331524B2 (en) 2019-07-24 2023-08-23 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP2021021600A (en) * 2019-07-25 2021-02-18 株式会社島津製作所 X-ray imaging device and X-ray imaging method
JP7180566B2 (en) 2019-07-25 2022-11-30 株式会社島津製作所 X-ray imaging device and X-ray imaging method

Also Published As

Publication number Publication date
JP5492024B2 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
JP5492024B2 (en) Region division result correction apparatus, method, and program
JP5224451B2 (en) Projection image creation apparatus, method and program
US7796835B2 (en) Computer readable medium for image processing and image processing method
US9053565B2 (en) Interactive selection of a region of interest in an image
US9892566B2 (en) Image processing apparatus, method and program
JP5551955B2 (en) Projection image generation apparatus, method, and program
US10319119B2 (en) Methods and systems for accelerated reading of a 3D medical volume
JP6353827B2 (en) Image processing device
JP6040193B2 (en) Three-dimensional direction setting device, method and program
JP2013192940A (en) Medical imag processing apparatus and medical imag processing method
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
JP2010528750A (en) Inspection of tubular structures
JPWO2007094412A1 (en) Image display apparatus and program
US20080084415A1 (en) Orientation of 3-dimensional displays as a function of the regions to be examined
JP5980776B2 (en) Medical image display apparatus and medical image display method
US20140267269A1 (en) Image processing apparatus, method and program
JP5380231B2 (en) Medical image display apparatus and method, and program
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP5595207B2 (en) Medical image display device
JP5624336B2 (en) Medical image processing apparatus and medical image processing program
JP6533687B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
JP6085435B2 (en) Image processing apparatus and region of interest setting method
JP2008067915A (en) Medical picture display
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP2019217264A (en) Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140228

R150 Certificate of patent or registration of utility model

Ref document number: 5492024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250