JP2007175271A - Medical image processor - Google Patents

Medical image processor Download PDF

Info

Publication number
JP2007175271A
JP2007175271A JP2005377099A JP2005377099A JP2007175271A JP 2007175271 A JP2007175271 A JP 2007175271A JP 2005377099 A JP2005377099 A JP 2005377099A JP 2005377099 A JP2005377099 A JP 2005377099A JP 2007175271 A JP2007175271 A JP 2007175271A
Authority
JP
Japan
Prior art keywords
projection
processing
image
region
lumen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005377099A
Other languages
Japanese (ja)
Other versions
JP4901212B2 (en
Inventor
Shigeharu Oyu
重治 大湯
Tadashi Ishikawa
直史 石川
Masayuki Nishiki
雅行 西木
Atsuko Sugiyama
敦子 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2005377099A priority Critical patent/JP4901212B2/en
Publication of JP2007175271A publication Critical patent/JP2007175271A/en
Application granted granted Critical
Publication of JP4901212B2 publication Critical patent/JP4901212B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display an image of lumen structure such as the stomach and the intestines without any overlapping of front/rear walls in the projection display. <P>SOLUTION: This image processor is provided with a storage section 1 storing three-dimensional image data related to a portion including the lumen, an extraction section 2 extracting the lumen region including the lumen from the three-dimensional image data, and a projection image creation section 3 creating a plurality of partial projection images on a plurality of partial areas constituting the extracted lumen region from the three-dimensional image data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、胃や腸などの管腔構造物の画像を処理する医用画像処理装置に関する。   The present invention relates to a medical image processing apparatus that processes an image of a luminal structure such as a stomach or intestine.

X線診断装置による胃二重造影検査は、バリウムなどの造影剤と発泡剤を服用しX線画像を撮影する。この方法により胃壁の細かい凹凸を観察できるようになる。しかし、造影剤が胃壁のX線管側(前面)と検出器側(後面)との両方に付着するため、得られた画像から凹凸が胃壁の前面に存在するものか後面に存在するものか判断することが難しい。   In gastric double contrast examination using an X-ray diagnostic apparatus, a contrast agent such as barium and a foaming agent are taken and an X-ray image is taken. This method makes it possible to observe fine irregularities in the stomach wall. However, since the contrast agent adheres to both the X-ray tube side (front side) and the detector side (rear side) of the stomach wall, whether the unevenness is present on the front side or the rear side of the stomach wall from the obtained image. It is difficult to judge.

特許文献1には、血管を内側から見た表面を陰影づけした展開図で表示する例が記載されている。画像データとしてはCTなどで撮影した3次元画像が想定されており、画像の生成方法はサーフェイス法、ボリュームレンダリング法、デプス法いずれかと記載されている。   Patent Document 1 describes an example in which a surface of a blood vessel viewed from the inside is displayed in a developed view in which the surface is shaded. As the image data, a three-dimensional image taken by CT or the like is assumed, and an image generation method is described as one of a surface method, a volume rendering method, and a depth method.

しかし、特許文献1の方法では、管腔構造の中心線をトレースする作業が必要であり、表示させるための操作に手間がかかる、サーフェイス法、ボリュームレンダリング法、デプス法は適切な画像を生成するために画像の生成条件を選ぶことが必要になり、この点でも操作に手間がかかる、という問題があった。   However, in the method of Patent Document 1, it is necessary to trace the center line of the luminal structure, and it takes time and effort to display. The surface method, volume rendering method, and depth method generate appropriate images. For this reason, it is necessary to select image generation conditions, and there is a problem that it takes time and effort to operate.

特許文献2には、大腸の展開図を表示することが記載されている。画像の詳細な生成方法は記載されていなが、上の文献1と同様の方法が想定されていると考えら得れ、同じ問題点がある。   Patent Document 2 describes that a developed view of the large intestine is displayed. Although a detailed method for generating an image is not described, it can be considered that a method similar to that in Document 1 above is assumed and has the same problem.

冠動脈の表示方法として、特許文献3には、造影したCT画像から冠動脈のMIP画像を作成するために、冠動脈の近くの大きな構造である心腔(ここも造影されてしまう)を除去して、冠動脈画像を生成する方法が記載されている。
特開平11−318884号公報 米国特許第5,891,030号公報 特開平11−242739号公報
As a method for displaying coronary arteries, in Patent Document 3, in order to create a MIP image of a coronary artery from a contrasted CT image, a heart chamber (which is also contrasted) which is a large structure near the coronary artery is removed, A method for generating a coronary image is described.
Japanese Patent Laid-Open No. 11-318884 US Patent No. 5,891,030 JP 11-242739 A

本発明の目的は、胃や腸などの管腔構造物の画像を投影表示における前後壁の重なりを無く表示することにある。   An object of the present invention is to display an image of a luminal structure such as the stomach or intestine without overlapping front and rear walls in projection display.

本発明の第1局面において、医用画像処理装置は、管腔を含む部位に関する3次元画像データを記憶する記憶部と、前記管腔を含む管腔領域を前記3次元画像データから抽出する抽出処理部と、前記抽出した管腔領域を構成する複数の部分領域に関する複数の部分投影画像を前記3次元画像データから生成する投影画像生成部とを具備する。
本発明の第2局面において、医用画像処理装置は、管腔を含む部位に関する3次元画像データを記憶する記憶部と、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域を投影探索点が最初に抜け出ることを投影停止条件として、前記3次元画像データを複数方向から投影処理をして複数の部分投影画像を生成する投影画像生成部とを具備する。
本発明の第3局面において、医用画像処理装置は、管腔を含む部位に関する3次元画像データを記憶する記憶部と、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域の内縁深度に投影探索点が到達することを投影停止条件として、前記3次元画像データを複数方向から投影処理をして複数の部分投影画像を生成する投影画像生成部とを具備する。
本発明の第4局面において、医用画像処理装置は、管腔を含む部位に関する3次元画像データを記憶する記憶部と、前記管腔を含む管腔領域の略中心軸から半径方向に沿って行った投影処理の値を、前記略中心軸の回りの円周方向の角度を縦軸として前記略中心軸上の位置を横軸として分布した展開画像を記3次元画像データから生成する展開画像生成部とを具備し、前記展開画像生成部は、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域を投影探索点が最初に抜け出ることを投影停止条件として前記投影処理をすることを特徴とする。
本発明の第5局面において、医用画像処理装置は、管腔を含む部位に関する3次元画像データを記憶する記憶部と、前記管腔を含む管腔領域の略中心軸から半径方向に沿って行った投影処理の値を、前記略中心軸の回りの円周方向の角度を縦軸として前記略中心軸上の位置を横軸として分布した展開画像を記3次元画像データから生成する展開画像生成部とを具備し、前記展開画像生成部は、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域の内縁深度に投影探索点が到達することを投影停止条件として前記投影処理をすることを特徴とする。
In the first aspect of the present invention, the medical image processing apparatus stores a three-dimensional image data related to a part including a lumen, and an extraction process for extracting a lumen region including the lumen from the three-dimensional image data. And a projection image generation unit that generates a plurality of partial projection images related to a plurality of partial regions constituting the extracted lumen region from the three-dimensional image data.
In the second aspect of the present invention, the medical image processing apparatus extracts a storage unit that stores three-dimensional image data relating to a part including a lumen, and extracts a wall region of the lumen from the three-dimensional image data by threshold processing. A projection processing unit that performs projection processing on the three-dimensional image data from a plurality of directions, with a projection stop condition that a projection search point first exits the wall region that has undergone expansion processing; a processing unit; an expansion processing unit that performs expansion processing on the wall region; And a projection image generation unit that generates a plurality of partial projection images.
In the third aspect of the present invention, the medical image processing apparatus stores a three-dimensional image data relating to a part including a lumen, and extracts a wall region of the lumen by threshold processing from the three-dimensional image data. Projecting the three-dimensional image data from a plurality of directions using a processing unit, an expansion processing unit for expanding the wall region, and a projection stop point that the projection search point reaches the inner edge depth of the wall region subjected to the expansion processing A projection image generation unit that performs processing to generate a plurality of partial projection images.
In the fourth aspect of the present invention, the medical image processing apparatus performs a storage unit that stores three-dimensional image data related to a part including a lumen, and a radial direction from a substantially central axis of the lumen region including the lumen. The developed image is generated from the three-dimensional image data in which the developed image is distributed from the three-dimensional image data in which the projection processing value is distributed with the angle in the circumferential direction around the approximate central axis as the vertical axis and the position on the approximate central axis as the horizontal axis. The developed image generation unit includes an extraction processing unit that extracts a wall region of the lumen from the three-dimensional image data by threshold processing, an expansion processing unit that performs expansion processing on the wall region, and the expansion The projection process is characterized in that the projection stop point is that the projection search point first exits the processed wall area.
In the fifth aspect of the present invention, the medical image processing apparatus performs a storage unit that stores three-dimensional image data regarding a part including a lumen, and a radial direction from a substantially central axis of the lumen region including the lumen. The developed image is generated from the three-dimensional image data in which the developed image is distributed from the three-dimensional image data in which the projection processing value is distributed with the angle in the circumferential direction around the approximate central axis as the vertical axis and the position on the approximate central axis as the horizontal axis. The developed image generation unit includes an extraction processing unit that extracts a wall region of the lumen from the three-dimensional image data by threshold processing, an expansion processing unit that performs expansion processing on the wall region, and the expansion The projection processing is characterized in that the projection search point is that the projection search point reaches the inner edge depth of the processed wall region.

本発明によれば、胃や腸などの管腔構造物の画像を投影表示における前後壁の重なりを無く表示することができる。   According to the present invention, it is possible to display an image of a luminal structure such as the stomach or intestine without overlapping front and rear walls in projection display.

以下図面を参照して本発明の実施形態を説明する。
図1には本実施形態に係る医用画像処理装置の構成が示されている。3次元画像記憶部1は、胃や腸等の管腔を含む部位に関する3次元画像データを記憶する。3次元画像データは、例えばX線コンピュータ断層撮影装置(CT)、磁気共鳴映像装置(MRI)、ディジタルX線断層撮影装置等の画像発生装置を使って発生される。図2にはディジタルX線断層撮影装置の概略構成の一例が示されている。図2のディジタルX線断層撮影装置は、X線管装置50と、X線管装置50に対して被検体Pを挟んで対向配置されるX線検出器装置60とを有する。X線管装置50は、キャスター52の付いたスタンド51により可搬性を有している。スタンド51には、X線管53を収容する筐体54が搭載される。X線管53は、X線中心軸XCが撮影中心軸SCに対して傾斜する状態で撮影中心軸SCを中心として回転可能に図示しないX線管回転機構部に支持される。X線検出器装置60はキャスター62の付いたスタンド61により可搬性を有している。スタンド61には、X線検出器63を収容する筐体64が搭載される。X線検出器63には、2次元状に配列された複数の固体検出素子を有するフラットパネルデテクタが採用される。X線検出器63は、撮影中心軸SCを中心として回転可能に図示しない検出器回転機構部に支持される。X線管53とX線検出器63とが回転しながらX線撮影が繰り返される。それにより複数の方向から撮影されたディジタルX線画像から断層画像がマルチスライスで再構成される。この場合、マルチスライスを構成する複数の断層画像のセットが3次元画像データ(ボリュームデータ)と称される。なお、ディジタルX線断層撮影装置にて胃部画像を撮影する際は、胃二重造影法が用いられる。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows the configuration of a medical image processing apparatus according to this embodiment. The three-dimensional image storage unit 1 stores three-dimensional image data relating to a part including a lumen such as the stomach or intestine. The three-dimensional image data is generated using an image generating apparatus such as an X-ray computed tomography apparatus (CT), a magnetic resonance imaging apparatus (MRI), or a digital X-ray tomography apparatus. FIG. 2 shows an example of a schematic configuration of a digital X-ray tomography apparatus. The digital X-ray tomography apparatus of FIG. 2 includes an X-ray tube device 50 and an X-ray detector device 60 that is disposed opposite to the X-ray tube device 50 with the subject P interposed therebetween. The X-ray tube device 50 is portable due to a stand 51 with casters 52 attached thereto. The stand 51 is mounted with a housing 54 that houses the X-ray tube 53. The X-ray tube 53 is supported by an X-ray tube rotation mechanism (not shown) so as to be rotatable about the imaging center axis SC with the X-ray center axis XC inclined with respect to the imaging center axis SC. The X-ray detector device 60 is portable by a stand 61 with a caster 62. The stand 61 is mounted with a housing 64 that houses the X-ray detector 63. As the X-ray detector 63, a flat panel detector having a plurality of solid-state detection elements arranged in a two-dimensional shape is employed. The X-ray detector 63 is supported by a detector rotation mechanism (not shown) so as to be rotatable about the imaging center axis SC. X-ray imaging is repeated while the X-ray tube 53 and the X-ray detector 63 rotate. Thereby, a tomographic image is reconstructed in multi slices from digital X-ray images taken from a plurality of directions. In this case, a set of a plurality of tomographic images constituting a multi-slice is referred to as three-dimensional image data (volume data). In addition, when a stomach part image is image | photographed with a digital X-ray tomography apparatus, a gastric double contrast method is used.

領域抽出部2は、3次元画像データから、管腔を含む管腔領域、具体的には管腔の壁を十分な余裕をもって包含する領域を抽出する処理部であり、詳細は後述するが、フィルタ処理部21、閾値決定処理部22、閾値処理部23、形態演算処理部24、連結領域選択処理部25を有する。投影画像生成部3は、領域抽出部2で抽出した管腔領域を構成する複数の部分領域に関する複数の部分投影画像を3次元画像データから生成する処理部であり、詳細は後述するが、生成する画像の種類の応じて、前後壁面分割投影画像生成処理部31、平面分割投影画像生成処理部32、曲面分割投影画像生成処理部33、壁面自動分割投影画像生成処理部34、展開投影画像生成処理部35を有する。   The region extraction unit 2 is a processing unit that extracts a lumen region including a lumen, specifically a region including a lumen wall with a sufficient margin, from the three-dimensional image data. It has a filter processing unit 21, a threshold value determination processing unit 22, a threshold value processing unit 23, a form calculation processing unit 24, and a connected region selection processing unit 25. The projection image generation unit 3 is a processing unit that generates a plurality of partial projection images related to a plurality of partial regions constituting the lumen region extracted by the region extraction unit 2 from three-dimensional image data. Depending on the type of image to be performed, the front and rear wall surface divided projection image generation processing unit 31, the plane surface division projection image generation processing unit 32, the curved surface division projection image generation processing unit 33, the wall surface automatic division projection image generation processing unit 34, and the unfolded projection image generation A processing unit 35 is included.

図3には本実施形態による画像処理手順の概要を示している。なお説明の便宜上、対象を胃として、その胃2重造影による3次元画像データを扱うものとして説明する。ディジタルX線断層撮影装置で取得された3次元画像データが本実施形態に係る医用画像処理装置の3次元画像記憶部1に記憶される。次に、領域抽出部2による画像処理ステップでは、記憶された3次元画像に対して、後段の投影処理ステップのための前処理としての画像処理を行う。この画像処理では、管腔壁を含む領域を抽出する。投影画像生成部3による投影画像生成ステップでは、抽出された管腔壁を含む領域を利用して、最大値投影法(MIP)、平均値投影法などの投影処理を行い、複数の部分投影画像及び展開像を生成する。複数の部分投影画像や展開像は後述するように部分領域に関する分割方法の選択肢、部分投影画像の生成に関する投影方法の選択肢、投影の視線方向の設定欄、画像処理パラメータの調節項目設定欄とともに画像表示処理部4で一画面に構成され、画像表示部5に表示される(図15参照)。   FIG. 3 shows an outline of an image processing procedure according to this embodiment. For convenience of explanation, it is assumed that the target is a stomach and three-dimensional image data obtained by double contrast of the stomach is handled. Three-dimensional image data acquired by the digital X-ray tomography apparatus is stored in the three-dimensional image storage unit 1 of the medical image processing apparatus according to this embodiment. Next, in the image processing step by the region extraction unit 2, image processing as preprocessing for the subsequent projection processing step is performed on the stored three-dimensional image. In this image processing, a region including the lumen wall is extracted. In the projection image generation step by the projection image generation unit 3, a projection process such as a maximum value projection method (MIP) or an average value projection method is performed using the extracted region including the lumen wall, and a plurality of partial projection images And a developed image is generated. As described later, a plurality of partial projection images and developed images are images together with division method options for partial areas, projection method options for generation of partial projection images, projection line-of-sight direction setting fields, and image processing parameter adjustment item setting fields. The display processing unit 4 configures a single screen and displays it on the image display unit 5 (see FIG. 15).

図4には図3の画像処理ステップの詳細な手順が示されている。まず、フィルタ処理部21によるフィルタ処理ステップにおいては、3次元画像データに対して高域強調などの前処理が実施される。2重造影画像以外の場合は、この処理により、詳細な凹凸構造が強調され、以降のステップで胃壁を抽出しやすくなる。以降、この画像は3次元管腔画像と称する。   FIG. 4 shows a detailed procedure of the image processing step of FIG. First, in the filter processing step by the filter processing unit 21, preprocessing such as high-frequency emphasis is performed on the three-dimensional image data. In cases other than double-contrast images, the detailed concavo-convex structure is emphasized by this processing, and the stomach wall can be easily extracted in subsequent steps. Hereinafter, this image is referred to as a three-dimensional lumen image.

次に、閾値決定処理部22による閾値決定処理ステップの前段において、フィルタ処理を受けた3次元画像データから最大値投影(MIP)などの投影処理で生成した投影画像として表示する。操作者は、図示しない操作部を操作して、表示された画像のコントラストが適切になるように、表示条件(グレイレベルGL、ウインドウ幅WW)を適当に調節する。調節されたグレイレベルGL、ウインドウ幅WWから、管腔を含む管腔領域、例えば胃壁を含む領域を抽出するための閾値を決定する。   Next, in the previous stage of the threshold determination processing step by the threshold determination processing unit 22, the projection image is displayed as a projection image generated by projection processing such as maximum value projection (MIP) from the filtered three-dimensional image data. The operator operates an operation unit (not shown) and appropriately adjusts the display conditions (gray level GL, window width WW) so that the contrast of the displayed image is appropriate. From the adjusted gray level GL and the window width WW, a threshold value for extracting a lumen region including the lumen, for example, a region including the stomach wall is determined.

次のステップでヒステリシススレッショルドを用いて画像の輝度値の高い部分と低い部分を抽出するために必要な4つの閾値を決定する。例えば、グレイレベルGL、ウインドウ幅WWの値を元に表示画像上真っ黒に表示される画素値を“0”、真っ白に表示される画素値を“1.0”としたとき、4つの閾値は、例えば、Tnu=0.05, Tnl=0.15, Tpl=0.25, Tpu=0.35に設定される。当然、これらの値は、グレイレベルGL、ウインドウ幅WWの設定によって異なる値に算出される。すなわち、グレイレベルGL、ウインドウ幅WWにより投影画像の表示条件を設定する操作により、4つの閾値は設定される。従って、閾値の設定のための追加の操作は発生しない。   The next step uses the hysteresis threshold to determine the four thresholds needed to extract the high and low luminance values of the image. For example, when the pixel value displayed in black on the display image is “0” and the pixel value displayed in white is “1.0” based on the values of the gray level GL and the window width WW, the four threshold values are For example, Tnu = 0.05, Tnl = 0.15, Tpl = 0.25, and Tpu = 0.35. Naturally, these values are calculated as different values depending on the settings of the gray level GL and the window width WW. That is, four threshold values are set by an operation of setting the display condition of the projection image by the gray level GL and the window width WW. Therefore, no additional operation for setting the threshold value occurs.

閾値が決まると、閾値処理部23による閾値処理ステップが実行される。このステップでは、閾値処理により3次元画像データを2値化する。この処理の結果、胃2重造影のデジタルトモシンセシス画像の場合は、造影剤が付着している領域(造影領域)が抽出される。閾値処理には閾値Tplでの通常の単純な閾値処理が適用されるか、あるいは、閾値Tpu, Tplを用いるヒステリシススレッショルド処理が適用される。ヒステリシススレッショルドは、閾値Tplより大きな画素値を持つ画素の連結領域のうち、Tpuより大きな画素値の画素を一つ以上含む領域を抽出する処理である(図5(a)、(b)参照)。   When the threshold is determined, a threshold processing step by the threshold processing unit 23 is executed. In this step, the three-dimensional image data is binarized by threshold processing. As a result of this processing, in the case of a digital tomosynthesis image of double stomach contrast, a region (contrast region) to which a contrast agent is attached is extracted. For the threshold processing, normal simple threshold processing with the threshold Tpl is applied, or hysteresis threshold processing using the thresholds Tpu and Tpl is applied. The hysteresis threshold is a process of extracting a region including one or more pixels having a pixel value larger than Tpu from a connected region of pixels having a pixel value larger than the threshold value Tpl (see FIGS. 5A and 5B). .

このヒステリシススレッショルドを拡張して、閾値Tplより大きな画素値を持つ画素の連結領域のうち、Tpuより大きな画素値の画素を一つ以上含む領域と、閾値Tnlより小さな画素値を持つ画素の連結領域のうち、Tnuより小さな画素値の画素を一つ以上含む領域の両方を抽出する処理を適用することも可能である。この方法は、造影剤の付着した領域のみでなく、それら隙間の領域も一部分、抽出することが出来るようになり、胃壁の抽出をより確実に行うことが出来るようになるという効果がある。   By expanding this hysteresis threshold, among the connected region of pixels having a pixel value larger than the threshold value Tpl, a region including one or more pixels having a pixel value larger than Tpu and a connected region of pixels having a pixel value smaller than the threshold value Tnl Among them, it is possible to apply a process of extracting both regions including one or more pixels having pixel values smaller than Tnu. This method has an effect that not only the region to which the contrast agent is adhered but also a part of the gap can be extracted, and the stomach wall can be extracted more reliably.

胃内部の画素値が外部に比べて低いことを利用して胃壁面を検出することもできる。上記造影領域は胃壁上の点であるが、これがある程度密に配置されていることが、以降の処理で胃壁を抽出できるための前提になっている。しかし、造影剤の付着の仕方によっては、この前提が十分に満たされない場合もある。ここでは、胃内部の画素値が外部に比べて低いことを利用して、胃壁面の点を追加するものであり、この処理を追加することにより、胃壁上の点が十分密でない場合でも、正しく胃壁を抽出することが出来るようになる。   It is also possible to detect the stomach wall surface by utilizing the fact that the pixel value inside the stomach is lower than the outside. The contrast region is a point on the stomach wall, and it is a premise that the stomach wall can be extracted in the subsequent processing by being densely arranged to some extent. However, this premise may not be fully satisfied depending on how the contrast agent is attached. Here, using the fact that the pixel value inside the stomach is low compared to the outside, the point on the stomach wall surface is added, and by adding this processing, even if the points on the stomach wall are not sufficiently dense, The stomach wall can be extracted correctly.

(1)高域強調を実施していない3次元画像S(r)に対して数種類の閾値Tiを用いて閾値処理を施す。2値化画像bi(r)は、閾値Ti未満の画素値を有する画素からなる領域(S(r) < Tiの領域)である。 (1) Threshold processing is performed on a three-dimensional image S (r) that has not been subjected to high-frequency emphasis using several types of threshold values Ti. The binarized image bi (r) is a region (S (r) <Ti region) composed of pixels having pixel values less than the threshold value Ti.

(2)閾値を選択する。上記処理で得られた造影領域と、(1)の領域との重畳領域が最も広く重なる閾値Tiを選択する。このとき、S(r) < Tiの境界はおおよそ胃壁面を表す。 (2) Select a threshold value. A threshold value Ti at which the overlapping region of the contrast region obtained by the above processing and the region (1) overlaps most widely is selected. At this time, the boundary of S (r) <Ti roughly represents the stomach wall surface.

(3)境界を平滑化する。S(r) < Tiの領域を、モーフォロジー演算(エロージョン後にダイレーション)を用いて平滑化する。最も体積の大きい連結領域以外を除去する処理を追加しても良い。 (3) Smooth the boundary. The region of S (r) <Ti is smoothed using a morphological operation (dilation after erosion). You may add the process which removes except a connection area | region with the largest volume.

(4)領域に胃壁面の点を追加する。(3)で得られた領域の境界上の点のうち、上記造影領域からある一定距離d1以上はなれた点にあり、さらにそれより大きいある一定距離d2以下の点を選び、これらの点を上記領域に追加する。距離d1は0でもよく、後述の形態演算処理のダイレーションを行うピクセル数の2倍以下とするのが良い。 (4) Add a stomach wall point to the region. Of the points on the boundary of the region obtained in (3), select points that are at a certain distance d1 or more away from the contrast region and that are larger than a certain distance d2 and then select those points above Add to the area. The distance d1 may be 0, and is preferably not more than twice the number of pixels to be dilated for the later-described morphological operation processing.

次に形態演算処理部24による形態演算処理ステップが行われる。前段の処理の結果、胃壁に散在する造影剤付着領域(S)が抽出された。それら、領域Sに対するダイレーション処理(膨脹処理)を行う(図5(c)参照)。ダイレーションするピクセル数は、例えば15mm相当のピクセル数など固定値で十分であるが、結果の良否に基づいて操作者が値を変更できるように構成しても良い。ダイレーション処理により、胃壁領域を十分に含む領域であって、投影処理の視線方向に交差する向きに関して隙間の無い連結性の高い領域が発生される。この隙間の無い領域は、後述の投影処理を当該領域の後縁で良好に停止させることを実現し得る。   Next, a morphological calculation processing step by the morphological calculation processing unit 24 is performed. As a result of the previous processing, a contrast agent adhesion region (S) scattered on the stomach wall was extracted. Dilation processing (expansion processing) is performed on the region S (see FIG. 5C). A fixed value such as the number of pixels corresponding to 15 mm is sufficient as the number of pixels to dilate, but it may be configured so that the operator can change the value based on the quality of the result. By the dilation processing, a region that sufficiently includes the stomach wall region and has no connectivity with respect to the direction intersecting the line-of-sight direction of the projection processing is generated. This area without a gap can realize that the projection processing described later is satisfactorily stopped at the trailing edge of the area.

他の方法としては距離変換を実施する方法も選択可能である。距離変換は、領域S以外の画素は領域Sまでの距離を算出する処理である(距離変換画像)。領域S内では距離変換画像の値は0となる。距離変換画像が得られれば、拡張距離(例えば15mm)を与えることで、領域Sの15mm拡張領域を求めることが、非常に小さな処理時間でできる。従って、拡張距離を変更した後の再描画が高速に行え、操作者は、表示された分離投影画像を見てちょうど良い拡張距離に修正する操作を容易に行うことが出来る。   As another method, a method for performing distance conversion can also be selected. The distance conversion is a process of calculating the distance to the region S for pixels other than the region S (distance converted image). In the area S, the value of the distance conversion image is 0. If a distance conversion image is obtained, an extended distance (for example, 15 mm) can be given to obtain a 15 mm extended area of the area S in a very short processing time. Therefore, redrawing after changing the extended distance can be performed at high speed, and the operator can easily perform an operation of looking at the displayed separated projection image and correcting it to an appropriate extended distance.

なお、形態演算 (morphological operation)は、ダイレーション、エロージョン、およびそれらを用いた論理演算の総称であり、2値画像で処理するものと、階調画像で処理するものがある。   Note that morphological operation is a general term for dilation, erosion, and logical operations using them, and there are processing that uses a binary image and processing that uses a gradation image.

このダイレーション処理の対象とする画素の数はできるだけ少ないことが処理効率上有利である。ダイレーションする目的は、胃壁付近に並ぶ画素を連結させて胃の壁面を穴のない一塊の領域で構成するためである。ダイレーションするピクセル数は、トポロジーが胃壁面と同じになる最小の値とする方法が考えられる。この方法を用いることで、ダイレーション後も胃壁に穴が残ってしまうことを回避できる。3次元図形のトポロジーは「穴の数」、「空洞の数」で表せるので、ダイレーション後の連結領域の「穴の数」、「空洞の数」を算出し、これが胃壁と同じになる最小のピクセル数だけダイレーションすればよい。   It is advantageous in terms of processing efficiency that the number of pixels to be subjected to dilation processing is as small as possible. The purpose of dilation is to connect pixels lined up in the vicinity of the stomach wall so that the stomach wall surface is formed of a lump area without a hole. The number of pixels to be dilated may be a minimum value in which the topology is the same as that of the stomach wall. By using this method, it is possible to avoid a hole remaining in the stomach wall even after dilation. Since the topology of the three-dimensional figure can be expressed by “number of holes” and “number of cavities”, calculate the “number of holes” and “number of cavities” in the connected area after dilation, and this will be the same as the stomach wall Dilation is required for the number of pixels.

胃壁面は3次元画像の境界で開口しているので、その場合、トポロジー的にはドーナツ状の形態であり、穴の数=1、空洞の数=0である。また、仮に片方の開口部を閉じたとすると穴の数=0、空洞の数=0、両方の開口部を閉じたとするとドーナツは穴の数=0、空洞の数=1であり、ダイレーションのピクセル数は、穴の数≦1、空洞の数≦1となる最小値とすれば良い。   Since the stomach wall surface is open at the boundary of the three-dimensional image, in that case, it is topologically donut-shaped, with the number of holes = 1 and the number of cavities = 0. If one of the openings is closed, the number of holes = 0, the number of cavities = 0, and if both openings are closed, the number of holes = 0 and the number of cavities = 1, The number of pixels may be a minimum value such that the number of holes ≦ 1 and the number of cavities ≦ 1.

連結領域の「穴の数」および「空洞の数」を算出する手法は公知であり、隣り合う2×2×2=8画素ごとに、1画素の配置パターンを分類し、これらを数え上げることで求められることが知られている。   The method of calculating the “number of holes” and “number of cavities” in the connected region is known, and by classifying the arrangement pattern of one pixel for every adjacent 2 × 2 × 2 = 8 pixels, and counting them up It is known to be required.

次に、連結領域の選択処理であるが、ダイレーション処理の段階で得られた拡張領域には胃壁以外の構造も含まれる。ただし、胃壁を含む領域と、それ以外の領域は必ず分離しているので、連結成分ラベリング処理(connected component labeling)や連結領域抽出処理で胃壁を含む連結領域(領域e)のみを選び出すことが出来る。連結成分ラベリング処理で分離した各連結領域について、画素数を算出し、胃壁領域として最も適切な範囲の画素数を持つ領域を一つ選ぶ。この処理の代わりとしては、初期領域成長法(seeded region growing)法を用いることも出来る。   Next, a connection area selection process, the expanded area obtained in the dilation process includes structures other than the stomach wall. However, since the area including the stomach wall and the other areas are always separated, only the connected area (area e) including the stomach wall can be selected by the connected component labeling process or the connected area extraction process. . For each connected region separated by the connected component labeling process, the number of pixels is calculated, and one region having the most suitable range of pixels as the stomach wall region is selected. As an alternative to this treatment, a seeded region growing method can be used.

連結領域の選択はオプションであり、これを用いない場合は、領域Sの拡張画像をそのまま領域eとすればよい。   The selection of the connected area is an option, and if this is not used, the extended image in the area S may be used as the area e as it is.

胃以外の領域が誤抽出された場合、連結領域を行うことで誤抽出を除去することが出来るので、連結領域の選択処理を行うことで胃壁を含む領域をより確実に抽出できるようになるという効果がある。   If a region other than the stomach is erroneously extracted, the erroneous extraction can be removed by performing the connected region, so that the region including the stomach wall can be more reliably extracted by performing the connection region selection process. effective.

なお、画像処理ステップ(胃壁の抽出)の別の方法として、グレイレベルダイレーション処理として、
1. フィルタ処理
2. グレイレベルダイレーション処理
を用いることもできる。この場合、図5(d)に例示する投影画像の生成の際の打ち切り処理(停止処理)では、閾値Tpu,Tplを使った打ち切り処理を行う。
As another method of image processing step (gastric wall extraction), as gray level dilation processing,
1. Filtering
2. Gray level dilation processing
Can also be used. In this case, in the abort process (stop process) when generating the projection image illustrated in FIG. 5D, the abort process using the threshold values Tpu and Tpl is performed.

図3における投影画像の生成処理について説明する。基本概念に基づく処理手順としては、3次元画像から、投影処理の視線方向からみて手前側の壁面に関する投影画像(部分投影画像)と、奥側の壁面に関する投影画像(部分投影画像)とを別々に生成するものである。   The projection image generation process in FIG. 3 will be described. As a processing procedure based on the basic concept, from a three-dimensional image, a projection image (partial projection image) on the near wall surface and a projection image (partial projection image) on the back wall surface as viewed from the line-of-sight direction of the projection processing are separated. Is generated.

まず、投影処理として最大値投影法を用いた手前側の壁面投影画像を生成する場合について説明する。手前側の壁面投影画像を生成するには、視線方向に沿ったレイトレーシングを行う。ここで言う視線方向は例えば図6(a)に示される全領域投影画像における視線方向である。この視線方向は図6(b)では前面側の矢印で示される。投影画像の1画素を生成する投影処理においては、この矢印の1本(投影直線)に沿って、3次元画像(ボリューム画像)の画素値を追跡し、投影直線上の画素のうち、最も画素値の高い画素の画素値を特定する処理を実行する。通常のMIP法では、3次元管腔画像の領域を出たら、1本の投影直線に沿った投影処理を打ち切るのだが(図7(a))、本実施形態では、打ち切りの判定を行うため、1本の投影直線に沿って3次元画像の最大値の検索を行いながら、領域eの2値画像(胃壁を含む領域を示す)を参照して、一旦領域eの内部に入り、その後、領域eの外に出たときに投影を打ち切る(図7(b))。   First, a case where a front-side wall projection image using the maximum value projection method as projection processing is generated will be described. In order to generate a front-side wall projection image, ray tracing is performed along the viewing direction. The line-of-sight direction referred to here is, for example, the line-of-sight direction in the entire area projection image shown in FIG. This line-of-sight direction is indicated by an arrow on the front side in FIG. In the projection processing for generating one pixel of the projection image, the pixel value of the three-dimensional image (volume image) is traced along one of the arrows (projection line), and the pixel on the projection line is the most pixel A process for specifying a pixel value of a pixel having a high value is executed. In the normal MIP method, when the region of the three-dimensional lumen image is exited, the projection processing along one projection line is terminated (FIG. 7A). In this embodiment, however, the termination is determined. While searching for the maximum value of the three-dimensional image along one projection line, referring to the binary image of region e (showing the region including the stomach wall), once inside the region e, When it goes out of the region e, the projection is terminated (FIG. 7B).

本実施形態の投影処理の停止では、投影処理として平均値投影を行った場合でも、壁前面の構造のみが投影され、白い部分と、黒い部分の位置を投影画像から把握することが出来る。しかし、図8の従来のように平均値投影を行うと、壁前面と壁背面の構造が両方とも投影されているので、投影画像からは胃壁の構造を把握することが出来ない。   When the projection processing of this embodiment is stopped, even when average value projection is performed as the projection processing, only the structure of the front surface of the wall is projected, and the positions of the white portion and the black portion can be grasped from the projection image. However, when the average value projection is performed as in the conventional case of FIG. 8, the structure of the stomach wall cannot be grasped from the projection image because both the front and rear wall structures are projected.

一方、本実施形態では、閾値処理および形態演算処理で壁面の構造を含む領域を抽出し、抽出した領域の後縁で投影処理を打ち切るので、図9(a)、図9(b)に示すように、手前又は奥の1枚の胃壁のみの構造だけが分離された投影画像を個別に生成することができるので、投影画像からは前後の胃壁の構造をそれぞれ把握することが出来る。   On the other hand, in the present embodiment, the region including the wall structure is extracted by the threshold processing and the shape calculation processing, and the projection processing is terminated at the trailing edge of the extracted region, and therefore, as shown in FIGS. 9A and 9B. As described above, since the projection images in which only the structure of only one stomach wall in the front or back is separated can be individually generated, the structures of the front and rear stomach walls can be grasped from the projection image.

上の方法を基礎に置き、さらに投影直線に沿った投影処理の際に、投影の開始点を抽出された領域eの内部に始めて入る時点とする方法も良い。この方法を用いると、胃壁より前面にある構造物の画素値が、投影画像に関与しなくなるので、胃壁部の画素値をより忠実に反映した投影画像を作成することが出来る。また、投影処理を行う領域が大幅に削減されるため、投影処理が高速に行えるようになる。   Based on the above method, it is also possible to adopt a method in which the projection start point is set as the first entry into the extracted region e during the projection process along the projection line. When this method is used, the pixel value of the structure in front of the stomach wall is not involved in the projection image, so that it is possible to create a projection image that more accurately reflects the pixel value of the stomach wall portion. In addition, since the area where the projection process is performed is greatly reduced, the projection process can be performed at high speed.

他の投影処理手順として、グレースケールダイレーションを用いてもよい。本方法の基本的な考え方を説明するため、画像生成方法として投影直線に沿って、2値画像を参照し、領域後縁で投影を打ち切る方法を説明したが、同等の画像を生成するためには、本法以外の手順もありえる。   Gray scale dilation may be used as another projection processing procedure. In order to explain the basic concept of this method, the method of generating a similar image was explained by referring to the binary image along the projection straight line and terminating the projection at the trailing edge of the region. There may be other procedures besides this Act.

まず、画像処理ステップにおいて、グレースケールダイレーションを用いた場合、2値領域画像による領域後縁の判定の変わりに、グレースケールダイレーション後の画像の画素値を、閾値Tpu, Tplと比較することにより、同様の画像を生成することが出来る。   First, when gray scale dilation is used in the image processing step, the pixel value of the image after gray scale dilation is compared with the threshold values Tpu and Tpl instead of the determination of the area trailing edge based on the binary area image. Thus, a similar image can be generated.

さらに他の投影処理手順として、図10の例示するデプスマップ(投影深度を画素値とする画像)を用いて投影停止処理を行うものでも良い。2値画像を用いる場合においても、投影直線ごとに投影処理停止条件(打ち切り条件)を判定するのではなく、一旦、領域eの後縁のデプスマップを作成し、このデプスマップを参照して、投影を打ち切る(または開始する)方法もある。このデプスマップを用いる場合でも、図10に示すように手前側の胃壁に関して不連続が生じ、画素探索範囲が奥側の胃壁に達してしまうため、手前側と奥側とで投影画像(部分投影画像)を分離できない。つまり、手前側の胃壁像と奥側の胃壁像とが単一の投影画像に重なってしまう。そこで、図11(a)に示す閾値処理で抽出した胃壁領域から、図11(b)に示すように後方(奥側)の胃壁領域を除去し、そして図11(c)に示すように形態処理としてダイレーション処理(拡大又は膨脹処理と呼ばれる)を施し、その投影探索点が膨脹領域から外れた時点で投影処理を停止させることにより、手前側と奥側とで投影画像を分離できる。実際の投影停止処理は、投影探索点の深さが図12に示す膨脹領域の後縁線に達した時点で停止される。デプスマップを用いる方法では、3次元形態演算の代わりに2次元のデプスマップの変形演算(領域分割、形態演算、加算など)を実施することになるため、画像生成の処理時間を大幅に低減でき、本発明の非常に好ましい実施形態の一つである。   Further, as another projection processing procedure, the projection stop processing may be performed using the depth map illustrated in FIG. 10 (an image having a projection depth as a pixel value). Even in the case of using a binary image, instead of determining the projection processing stop condition (censoring condition) for each projection straight line, a depth map of the trailing edge of the region e is temporarily created, and this depth map is referred to. There is also a way to abort (or start) the projection. Even when this depth map is used, discontinuity occurs in the stomach wall on the front side as shown in FIG. 10, and the pixel search range reaches the stomach wall on the back side. Image) cannot be separated. That is, the stomach wall image on the near side and the stomach wall image on the far side overlap with a single projection image. Therefore, from the stomach wall region extracted by the threshold processing shown in FIG. 11 (a), the back (back side) stomach wall region is removed as shown in FIG. 11 (b), and the form as shown in FIG. 11 (c) is obtained. By performing dilation processing (referred to as expansion or expansion processing) as processing, and stopping the projection processing when the projection search point deviates from the expansion region, it is possible to separate the projection images on the front side and the back side. The actual projection stop process is stopped when the depth of the projection search point reaches the trailing edge line of the expansion region shown in FIG. In the method using the depth map, the transformation processing (region division, morphological computation, addition, etc.) of the two-dimensional depth map is performed instead of the three-dimensional morphological computation, so that the processing time for image generation can be significantly reduced. This is one of the highly preferred embodiments of the present invention.

本実施形態の投影処理としては、最大値投影法(MIP)の他に、最小値投影法(minimum intensity projection)(図13(a)参照)、平均値投影法(average projection)(図13(b)参照)、最大値投影画像と最小値投影画像との加算画像(max+min)(図13(c)参照)が選択可能である。加算画像は最大値投影画像と最小値投影画像それぞれ単独よりもよりコントラストの大きい画像を生成することが出来る。   As projection processing of the present embodiment, in addition to maximum value projection (MIP), minimum intensity projection (see FIG. 13A), average projection (average projection) (see FIG. 13 b)), an addition image (max + min) of the maximum value projection image and the minimum value projection image (see FIG. 13C) can be selected. As the added image, an image having a larger contrast than that of each of the maximum value projection image and the minimum value projection image can be generated.

上記投影処理において、適当な前処理は対象(ここでは胃壁)の視認性向上に関して有効である。平均値投影画像は、見たい対象の前後の領域を加算してしまうので、見たい対象物のコントラストが相対的に小さくなってしまうという問題がある。また、最大値投影や最小値投影は、対象物とその背景の輝度差が小さいと前後のノイズに対象物が消されてしまい、全く対象物が見えなくなってしまうという問題がある。投影画像を作成する前に3次元画像に対して次の処理を行うと、この問題を解消することができる。   In the projection processing, an appropriate preprocessing is effective for improving the visibility of the object (here, the stomach wall). Since the average value projection image adds the areas before and after the object to be viewed, there is a problem that the contrast of the object to be viewed becomes relatively small. In addition, the maximum value projection and the minimum value projection have a problem that if the luminance difference between the object and its background is small, the object is erased by the noise before and after it, and the object cannot be seen at all. This problem can be solved by performing the following process on the three-dimensional image before creating the projection image.

(1)まず、抽出した胃壁領域(e)に対して膨脹演算または浸食演算(erosion)を施す。
(2)次に、距離変換処理を用いて、胃壁領域(e)から外方向への距離画像(深さ画像)を算出する。
(3)3次元画像の各画素ごとに重みk(r)を算出する。例えば、重みはパラメータaを用いて、
k=d/(d+a)
又は
k=exp(−(d/a)2)
を用いることが出来る。これらの重みは抽出した胃壁の上で、“1”であり、胃壁から遠ざかるに従って“0”に近い値に小さくなっていく。
(4)3次元画像に対して(3)の重みkを各画素ごとに乗じる。
(1) First, an expansion operation or an erosion operation (erosion) is performed on the extracted stomach wall region (e).
(2) Next, a distance image (depth image) outward from the stomach wall region (e) is calculated using distance conversion processing.
(3) A weight k (r) is calculated for each pixel of the three-dimensional image. For example, using the parameter a for the weight,
k = d / (d + a)
Or
k = exp (− (d / a) 2 )
Can be used. These weights are “1” on the extracted stomach wall and decrease to a value close to “0” as the distance from the stomach wall increases.
(4) Multiply the three-dimensional image by the weight k of (3) for each pixel.

これらの処理の後に、平均値投影や最大値投影処理を実施する。図14(a)、図14(b)はこの輝度変換処理により画像が改善された例である。図14(a)は輝度変換の前処理を行わない投影画像であり、胃壁に付着した造影剤による小さな輝度変化を観察できないが、図14(b)の輝度変換前処理を行った投影画像ではこれらの輝度変化が保存されている。   After these processes, an average value projection and a maximum value projection process are performed. FIG. 14A and FIG. 14B are examples in which an image is improved by this luminance conversion processing. FIG. 14A shows a projection image that is not subjected to the pre-process for luminance conversion, and a small change in luminance due to the contrast agent adhering to the stomach wall cannot be observed, but in the projection image that has been subjected to the pre-process for luminance conversion in FIG. These luminance changes are stored.

以上のように発生された投影処理の手前側の胃壁に関する部分投影画像と、奥側の胃壁に関する部分投影画像は、画像表示処理部4により図15に例示する画面に構成されて表示される。これら部分投影画像は、操作者による分割方法の選択肢と、部分投影画像の生成に関する投影方法の選択肢とともに表示される。分割方法の選択肢としては、図9の前側(手前側、腹側)/背側(奥側)の分割、後述する図17の複数平面分割、後述する図18の曲面分割、後述する図19の自動多面分割が用意されている。ここではさらに従来の部分投影(投影停止処理)の無い全域投影としての正面投影画像の表示の有無を含んでいる。また、正面投影、各部分投影(図15では背側投影、腹側投影)ごとに、投影方法として、最大値投影法(maximum)、最小値投影法(minimum)、平均値投影(average)、加算画像(max+min)を選択することができる。   The partial projection image relating to the stomach wall on the near side of the projection processing generated as described above and the partial projection image relating to the stomach wall on the back side are configured and displayed on the screen illustrated in FIG. 15 by the image display processing unit 4. These partial projection images are displayed together with options for the division method by the operator and options for the projection method related to generation of the partial projection image. Options for the division method include front side (near side, ventral side) / back side (back side) division in FIG. 9, multiple plane division in FIG. 17 described later, curved surface division in FIG. 18 described later, and FIG. Automatic multi-plane division is prepared. Here, the presence / absence of display of a front projection image as a whole area projection without a conventional partial projection (projection stop process) is also included. Further, for each of the front projection and each partial projection (in FIG. 15, the dorsal projection and the ventral projection), the maximum projection method (maximum), the minimum projection method (minimum), the average projection (average), An added image (max + min) can be selected.

さらに、画面には、視線方向の移動操作ボタン、表示対象範囲の移動操作ボタン、表示対象範囲の拡大/縮小操作ボタン、グレイレベルGLの高低操作ボタン、ウィンドウワイズWWの広狭操作ボタン、2値化する際の閾値の個数を1〜4個から選択する操作ボタン、閾値を自動決定するかどうかを選択するための連動ボタン、ダイレーション処理の拡張距離の長短操作ボタンが表示される。   Furthermore, the screen includes a line-of-sight movement operation button, a display target range movement operation button, a display target range expansion / reduction operation button, a gray level GL high / low operation button, a window width WW wide / narrow operation button, and binarization. An operation button for selecting the number of threshold values from 1 to 4 at the time of operation, an interlocking button for selecting whether or not to automatically determine the threshold value, and an operation button for increasing and decreasing the distance of dilation processing are displayed.

本実施形態の投影処理部3では、図1の前後壁面分割投影画像生成処理分31において、膨脹領域を用いて投影処理の停止条件を決め、それにより複数部分に関する複数の部分投影画像、例えば手前側の胃壁部分に関する部分投影画像と奥側の胃壁部分に関する部分投影画像とを発生する手法と、平面分割投影画像生成処理部32による3次元画像の投影対象領域を複数の部分領域に平面で分割して各部分領域を個別に投影処理をする方法(平面分割投影処理法)と、曲面分割投影画像生成処理部33による3次元画像の投影対象領域を複数の部分領域に曲面で分割して各部分領域を個別に投影処理をする方法(曲面分割投影処理法)と、壁面自動分割投影画像生成処理分34による胃壁面の重なりを自動判定して重なりがないように部分投影画像を発生する方法(自動分割法)とが操作者により選択的である。これら平面分割投影処理法、曲面分割投影処理法、自動分割法について順番に説明する。   In the projection processing unit 3 according to the present embodiment, in the front and rear wall surface divided projection image generation processing portion 31 of FIG. 1, a stop condition for the projection processing is determined using the expansion region, and thereby a plurality of partial projection images related to a plurality of portions, for example A method of generating a partial projection image related to the stomach wall portion on the side and a partial projection image related to the stomach wall portion on the back side, and a projection target region of the three-dimensional image by the plane division projection image generation processing unit 32 to be divided into a plurality of partial regions in a plane Then, each partial area is individually projected (plane division projection processing method), and the projection target area of the 3D image by the curved divided projection image generation processing unit 33 is divided into a plurality of partial areas by curved surfaces. The method of projecting partial areas individually (curved surface division projection processing method) and the overlapping of stomach wall surfaces by the automatic wall surface division projection image generation processing part 34 are automatically determined to prevent partial projection. Method of generating an image (automatic segmentation method) and is selective by the operator. These plane division projection processing method, curved surface division projection processing method, and automatic division method will be described in order.

平面分割投影処理法では、単一の分割平面で分割する場合と、複数の分割平面で分割する場合とがある。単一の分割平面で分割する場合、まず、図16(a)に示すように通常の投影画像で3点をポインティングする。通常3点だが、それより多くても少なくてもかまわない。当該3点について個々に、図1の形態演算処理部24における図12の手前側の胃壁に関する膨脹領域の後縁の深度を決定する(図16(b))。指定した3点から投影領域の分割平面を決定する。3点の場合、その3点を通る平面は唯一に決まる。1または2点の場合、ミニマムノルム法で平面を決定する。4点以上の場合、最小2乗法で平面を決定する。平面の方程式の代わりに、曲面の方程式のパラメータを決定するように構成することにより、平面でなく曲面を決定することも出来る。当該分割平面より手前の部分領域を投影処理の対象とした部分投影画像(図16(d))と、当該分割平面より奥の部分領域を投影処理の対象とした部分投影画像(図16(c))とを個々に生成する。   In the plane division projection processing method, there are a case where division is performed using a single division plane and a case where division is performed using a plurality of division planes. When dividing by a single dividing plane, first, as shown in FIG. 16A, three points are pointed by a normal projection image. Usually 3 points, but more or less. For each of the three points, the depth of the trailing edge of the inflated region with respect to the stomach wall on the near side in FIG. 12 in the morphological operation processing unit 24 in FIG. 1 is determined (FIG. 16B). The division plane of the projection area is determined from the specified three points. In the case of three points, the plane passing through the three points is uniquely determined. In the case of one or two points, the plane is determined by the minimum norm method. When there are four or more points, the plane is determined by the least square method. Instead of a plane equation, a curved surface instead of a plane can be determined by determining the parameters of the curved surface equation. A partial projection image (FIG. 16D) in which the partial area before the division plane is the target of the projection process and a partial projection image in which the partial area behind the division plane is the target of the projection processing (FIG. 16C). )) And individually.

複数の分割平面で分割する場合、図16の例と同様に一つの分割平面を決定する。分割面追加ボタンが押されると、既に表示された分割平面と平行に新たな分割平面が生成される。新たに生成された分割平面の奥行きを任意に変更する。さらに、面追加ボタンが押されたら、上記を繰り返して複数面を設定する(図17(a)、(b))。面の奥行き関係を整列(ソート)し、最も手前の面より手前の領域、隣接する面間、最も背面より奥の領域に分割された各領域の分割投影画像を生成し、表示する(図16(c))。投影停止処理や単一の分割平面での分割処理では2枚の画像が生成されるため、胃壁の正面投影画像(この場合通常、胃壁の重なる面は2枚である)の分割画像の場合に有効である。しかし、側面投影画像の場合には2枚より多い面が重なるため、投影停止処理や単一の分割平面での分割処理では全ての面を表示することが出来ない。この複数平面により分割された3以上の部分投影画像によれば、2つより多い領域に分割して表示するので、側面投影画像で重なる全ての壁面を表示することが出来、診断漏れを低減できる。   When dividing by a plurality of dividing planes, one dividing plane is determined as in the example of FIG. When the division plane addition button is pressed, a new division plane is generated in parallel with the already displayed division plane. The depth of the newly generated division plane is arbitrarily changed. Further, when the surface addition button is pressed, the above is repeated to set a plurality of surfaces (FIGS. 17A and 17B). The depth relations of the surfaces are aligned (sorted), and divided projection images of the respective regions divided into the region in front of the foremost surface, the space between adjacent surfaces, and the region in the back of the back are generated and displayed (FIG. 16). (C)). Since two images are generated in the projection stop process and the division process on a single division plane, in the case of a divided image of the front projection image of the stomach wall (in this case, usually, there are two overlapping surfaces of the stomach wall). It is valid. However, in the case of a side projection image, since more than two surfaces overlap, it is not possible to display all the surfaces by the projection stop process or the division process on a single division plane. According to the three or more partial projection images divided by the plurality of planes, since the display is divided into more than two regions, all the wall surfaces that overlap in the side projection image can be displayed, and diagnosis omission can be reduced. .

曲面分割投影画像生成処理部33による曲面分割投影画像の生成は、側面投影画像の分割表示に有効である。まず、側面からの撮影画像を取得し、正面投影画像を表示する(図18(a),(b))。曲断面変換(curved MPR)を作成する方法と同様にして、正面投影画像の上で曲線を指定する(図18(b))。この曲線を正面投影画像の奥行き方向に拡張すれば、曲面が指定されたことになる。この曲面の片方の面を表、他の面を裏と定義する。一例として、曲がり方が凸の方を表とする。   Generation of a curved surface divided projection image by the curved surface divided projection image generation processing unit 33 is effective for dividing and displaying a side projection image. First, a captured image from the side is acquired and a front projection image is displayed (FIGS. 18A and 18B). A curve is designated on the front projection image in the same manner as in the method of creating the curved section transformation (curved MPR) (FIG. 18B). If this curve is extended in the depth direction of the front projection image, a curved surface is designated. One surface of this curved surface is defined as the front surface and the other surface is defined as the back surface. As an example, the convex direction is the front.

曲面上の各点において、曲面と直交する方向を投影方向とし、曲面上から出発して、表面側および裏面側に投影処理を進めていくことで、表裏の2枚の投影画像(図18(c))を作成する。打ち切り投影画像の作成方法は図7(b)に示した通りである。そして投影画像を表示する。表示画面の例は図15に示したものを適用できる。   At each point on the curved surface, the projection direction is a direction orthogonal to the curved surface, and the projection processing is started on the front surface side and the back surface side starting from the curved surface, so that two projected images (FIG. 18 ( c)). The method of creating the censored projection image is as shown in FIG. Then, the projection image is displayed. An example of the display screen can be the one shown in FIG.

曲線のトレース方法としては、マニュアルトレースでも良いし、血管の中心線トレースなどで用いられる自動トレース方法も適用できる。   As a curve tracing method, manual tracing may be used, and an automatic tracing method used for blood vessel centerline tracing may be applied.

上の説明では、投影図上で2次元的な曲線を指定したが、この場合、視線方向を変更すると、もう、指定した曲線は利用できなくなってしまうので、再度曲線を指定しなおさなければ、分割投影画像を更新することが出来ない。しかし、3次元的な曲線を用いることにより、曲線を指定し直すことなく、変更された視線による分割投影画像を作成することが出来、いろいろな方向から見る操作を行う場合に、操作の手間を大幅に削減することが出来る。   In the above explanation, a two-dimensional curve is specified on the projection map, but in this case, if the viewing direction is changed, the specified curve can no longer be used, so if the curve is not specified again, The divided projection image cannot be updated. However, by using a three-dimensional curve, it is possible to create a divided projection image with a changed line of sight without re-specifying the curve. It can be greatly reduced.

壁面自動分割投影像生成処理部34による壁面の自動分割は、投影方向に関して胃壁の重なりを解決する壁面分割の概念
分割投影画像の視線方向を変更するたびに、例えば、正面投影画像の場合には処理部31による前後壁面分割法、側面投影画像の場合は処理部32による複数平面分割投影法というように方法を切り替えることは、操作上煩わしい。また処理部33による曲面投影法の場合はいろいろな視線方向での分割投影画像を作成することが出来るが、曲線の指定という操作が必要であり、操作が簡単であるとはいえない。
For example, in the case of a front projection image, the automatic wall surface division by the wall surface automatic division projection image generation processing unit 34 is performed every time the line-of-sight direction of the conceptual division projection image of the wall surface division that solves the overlap of the stomach wall with respect to the projection direction is changed. Switching between the front and rear wall surface division method by the processing unit 31 and the multiple plane division projection method by the processing unit 32 in the case of a side projection image is troublesome in operation. In the case of the curved surface projection method by the processing unit 33, it is possible to create divided projection images in various line-of-sight directions, but an operation of specifying a curve is necessary, and it cannot be said that the operation is simple.

本壁面自動分割投影法では、これら不具合を解消し、視線方向により異なる重なりの枚数を自動的に判定し、その枚数の分割投影画像を作成するものである。
ここでは胃壁の側面投影画像の場合を例にとって説明する。重なりのないように図19(b)に示すように、胃壁を4枚(A,B,C,D)の部分に分割することが必要である。以下に詳細に説明するが、簡易には、胃壁領域の抽出結果に基づき、抽出された連結領域eを例えば4つに分割する。それぞれ分割された領域ごとに投影処理を行い、A,B,C,Dの4つの投影画像を生成し、表示する。このように表示された投影画像は、重なりの問題が解決された投影画像であるので、診断しやすさや診断精度を向上する効果があるとともに、この方法では操作者が曲線を指定するという操作が不要であるため、分割投影画像作成のための操作を極めてすくすることが出来、診断の上で実用的な装置を提供できるという効果がある。以下、壁面の自動分割の手順について詳細に説明する。
The wall surface automatic division projection method solves these problems, automatically determines the number of overlaps that differ depending on the line-of-sight direction, and creates divided projection images of that number.
Here, a case of a side projection image of the stomach wall will be described as an example. As shown in FIG. 19 (b), it is necessary to divide the stomach wall into four (A, B, C, D) portions so as not to overlap. Although described in detail below, for simplicity, based on the extraction result of the stomach wall region, the extracted connected region e is divided into, for example, four. Projection processing is performed for each of the divided areas, and four projected images A, B, C, and D are generated and displayed. Since the projected image displayed in this way is a projected image in which the problem of overlapping has been solved, there is an effect of improving the ease of diagnosis and diagnostic accuracy, and in this method, an operation in which an operator designates a curve is performed. Since it is not necessary, the operation for creating the divided projection image can be extremely facilitated, and there is an effect that a practical device can be provided for diagnosis. Hereinafter, the procedure of automatic wall surface division will be described in detail.

領域抽出部2により連結領域eを抽出し(図20(a))、リサンプリングする。視線方向とリサンプリング後の画像データのz軸を一致させる。画素数を減らすのが良い。投影面の各点について、視線方向と平行な方向に(投影直線に沿って)に画素値を探索していく。領域eの内部に入った回数をカウントして行き、領域e(またはリサンプリングしたデータ)の各点に関連付けて記録していく(図20(b))。本来ならば、折りかえっている部分(投影直線が、胃壁の接平面上にある部分)だけ、異なる領域に分割したい。しかし、このままでは、最も左の面のように、折り返しがないにもかかわらず、2、3、4と異なるカウント値が割り当てられる場合が生じる。   The connected region e is extracted by the region extracting unit 2 (FIG. 20A) and resampled. Match the line-of-sight direction with the z-axis of the resampled image data. It is better to reduce the number of pixels. For each point on the projection plane, a pixel value is searched for in a direction parallel to the line-of-sight direction (along the projection straight line). The number of times of entering the area e is counted and recorded in association with each point of the area e (or resampled data) (FIG. 20B). Originally, we want to divide only the folded part (the part where the projected straight line is on the tangent plane of the stomach wall) into different areas. However, in this state, a count value different from 2, 3, and 4 may be assigned even though there is no aliasing as in the leftmost surface.

カウント値による連結領域のラベリングとして、この状態では、連結してないにかかわらず、同じカウント値が存在する。以降の処理では、一つ一つの連結領域を区別する必要があるため、連結領域のラベリング(番号付け)を行う。例えば、この結果a,b,c,d,e,fの6つの領域にラベリングされる。次に、ラベリングに基づいて、前の面の折り返しや端部による交差カウントの偽の境界を認識する。前の面が折りかえっていると、後ろの面は折り返しがなくても、カウント値の異なる境界が存在する。しかしそれは、前の面でカウント値が1だけ違う境界として認識できる(図21参照)。従って、カウント値が1だけ異なる境界があれば、それより後ろの全ての面で境界があるはずであり、それらの偽境界はカウント値を修正すべきであることを修正予定としてテーブルに記録する。例えば、図20(b)の領域eと領域fは偽境界である。   As a labeling of the connected area by the count value, in this state, the same count value is present regardless of being connected. In the subsequent processing, since it is necessary to distinguish each connected area, the connected areas are labeled (numbered). For example, as a result, labeling is performed on six regions a, b, c, d, e, and f. Next, based on the labeling, the false boundary of the intersection count due to the folding or end of the previous surface is recognized. If the front surface is folded, there is a boundary with different count values even if the rear surface is not folded. However, it can be recognized as a boundary where the count value differs by 1 on the previous surface (see FIG. 21). Therefore, if there is a boundary whose count value is different by 1, there should be a boundary on all the faces after it, and those false boundaries will be recorded in the table as a correction schedule that the count value should be corrected . For example, the region e and the region f in FIG. 20B are false boundaries.

前の面が単部である場合にも、後ろ側の面でカウント値の境界が存在する。端部であることは、投影直線自体は背景部が続いているが、隣接画素が一旦1以上のカウント値となり、再び隣接画素も背景に戻ることで、認識できる。このような、端部では、それより後ろの全ての面で境界があるはずであり、それらの偽境界はカウント値を修正すべきであることを修正予定としてテーブルに記録する(図22参照)。例えば、領域eとdは偽境界である。   Even when the front surface is a single part, there is a boundary of count values on the rear surface. The end portion can be recognized by the fact that the projection straight line itself continues with the background portion, but the adjacent pixel once becomes a count value of 1 or more and the adjacent pixel returns to the background again. At such an end, there should be a boundary on all the faces after that, and those false boundaries are recorded in the table as a correction schedule that the count value should be corrected (see FIG. 22). . For example, regions e and d are false boundaries.

次に、カウント値の修正が必要とされる。カウント値の偽の境界の認識の過程においては、実際にはカウント値の修正は行わず、テーブルに偽境界を記録するだけである。どの領域をどのカウント値に修正するかは、全ての偽境界の認識が終了した後で決定する。上の例では、図23に例示するように、領域eとf,領域eとdが偽境界と判定された。まず領域eと領域fのうち、カウント値の小さい領域eをカウント値の大きい方の値(カウント値4)にテーブル上で修正する。領域eと領域dについても同様に解析し、領域dのカウント値を4に(テーブル上で)修正する。テーブル上で修正されたカウント値は、実際のデータ上でも修正しても良いし、表示する際に、テーブルを参照するだけでも良い。   Next, the count value needs to be corrected. In the process of recognizing the false boundary of the count value, the count value is not actually corrected and only the false boundary is recorded in the table. Which area is to be corrected to which count value is determined after all false boundaries have been recognized. In the above example, as illustrated in FIG. 23, the regions e and f and the regions e and d are determined to be false boundaries. First, of the areas e and f, the area e having a smaller count value is corrected on the table to a value having a larger count value (count value 4). The region e and the region d are similarly analyzed, and the count value of the region d is corrected to 4 (on the table). The count value corrected on the table may be corrected on the actual data, or may be simply referred to the table when displayed.

カウント値1,2,3,4の4つの領域について、それらの部分領域だけの部分投影画像を作成し、表示する。例えば、図28に示すように、4つの側面の部分投影画像は、正面からの全域投影画像、側面からの全域投影画像、手前側の胃壁部分に関する正面からの部分投影画像、奥側の胃壁部分に関する正面からの部分投影画像と同画面に構成され表示される。   For the four areas of count values 1, 2, 3, and 4, partial projection images of only those partial areas are created and displayed. For example, as shown in FIG. 28, the partial projection images on the four side surfaces are the whole area projection image from the front, the whole area projection image from the side, the partial projection image from the front regarding the stomach wall part on the near side, the stomach wall part on the back side And is displayed on the same screen as the partial projection image from the front.

なお、投影画像生成部3は、展開投影画像生成処理部35において、展開投影画像を生成する。展開投影画像生成処理部35では管腔の3次元的な略中心線を元にした展開図生成を可能とする。展開投影画像では、1枚の画像で胃壁の全域が表示され、異常部位の検索が容易になるという効果のほか、展開投影画像を生成するにあたり投影の胃壁面での打ち切り処理が行われるため、胃壁以降の構造による投影画像の劣化が生じなくなり、胃壁だけに限定されたより診断に適する展開投影画像が生成されるという特徴がある。   The projection image generation unit 3 generates a development projection image in the development projection image generation processing unit 35. The development projection image generation processing unit 35 enables generation of a development drawing based on the three-dimensional approximate center line of the lumen. In the developed projection image, the entire stomach wall is displayed as a single image, and in addition to the effect of facilitating the search for abnormal sites, the censored processing on the stomach wall surface of the projection is performed when generating the developed projection image. The projection image is not deteriorated due to the structure after the stomach wall, and a developed projection image suitable for diagnosis is generated more than the stomach wall.

展開投影画像生成処理の手順について説明する。なお、管腔の3次元的な略中心線をマニュアルでトレースする場合と、自動トレースのどちらでも良いが、ここではマニュアルとレースの例で説明する。   A procedure of the developed projection image generation process will be described. It should be noted that either a case where the three-dimensional approximate center line of the lumen is traced manually or an automatic trace may be used.

図24(a)に示すように、正面投影画像をトレース操作のための投影画像として表示する。正面投影画像上で管腔として例えば胃の略中心線をマニュアルでトレースする。実際には、正面投影画像の上で数個の制御点を指定することで、それらを連結する曲線が自動で引かれる。続いて図24(b)に示すように、側面投影画像を表示し、この側面投影画像の上で、制御点の深さを調節し、3次元的な曲線を胃の略中心線として決定する。   As shown in FIG. 24A, the front projection image is displayed as a projection image for the trace operation. For example, a substantially center line of the stomach is manually traced as a lumen on the front projection image. Actually, by specifying several control points on the front projection image, a curve connecting them is automatically drawn. Subsequently, as shown in FIG. 24B, a side projection image is displayed, and on this side projection image, the depth of the control point is adjusted, and a three-dimensional curve is determined as the approximate center line of the stomach. .

決定した胃の略中心線を中心として図24(c)に示すように放射状に半径方向に沿って投影処理を実施して展開投影画像を生成する。投影処理に際しては、図7(b)に示したように胃壁の連結領域eの後縁において投影処理を停止(打ち切り)する。図25に示すように縦軸が中心軸周囲の円周角度とし、横軸が中心線長手方向の位置として展開図が生成される。   As shown in FIG. 24 (c), a projection process is performed radially along the radial direction around the determined approximate center line of the stomach to generate a developed projection image. In the projection process, the projection process is stopped (canceled) at the rear edge of the connection region e of the stomach wall as shown in FIG. As shown in FIG. 25, a developed view is generated with the vertical axis being the circumferential angle around the central axis and the horizontal axis being the position in the longitudinal direction of the central line.

展開図表示においては、胃壁面オリエンテーションの表示と要注意領域の重畳表示が有効である。展開投影画像生成処理部35においては、まず、胃壁面の詳細凹凸構造の解析を行い、異常である可能性が存在する領域(要注意領域)を特定する。特定された領域が、上述の部分投影画像のどの画像に重畳するかを判定する。部分投影画像と要注意領域を示すグラフィックが重畳された画像を表示する。図26に示すように、通常の投影画像(全体投影の正面投影画像と側面投影画像)と要注意領域を示すグラフィックが重畳された画像を表示する。図26に示すように、全体投影の正面投影画像と側面投影画像上にカーソルを表示する。図26に示すように、部分投影画像と展開投影画像とを同時表示し、部分投影画像と展開投影画像とで位置整合してカーソルを連動させる。一方の画像上でカーソルを移動する操作が行われると、その操作に応じて、投影表示上、分割投影画像、展開投影の上のカーソルの位置が更新される。   In the development view display, the display of the stomach wall orientation and the superimposed display of the area requiring attention are effective. In the developed projection image generation processing unit 35, first, the detailed uneven structure of the stomach wall surface is analyzed, and a region where there is a possibility of abnormality (a region requiring attention) is specified. It is determined to which image of the above-described partial projection image the specified region is to be superimposed. An image in which a partial projection image and a graphic indicating a region requiring attention are superimposed is displayed. As shown in FIG. 26, an image in which a normal projection image (a front projection image and a side projection image of the whole projection) and a graphic indicating a caution area are superimposed is displayed. As shown in FIG. 26, the cursor is displayed on the front projection image and the side projection image of the whole projection. As shown in FIG. 26, the partial projection image and the developed projection image are displayed at the same time, and the cursor is linked by aligning the position of the partial projection image and the developed projection image. When an operation of moving the cursor on one image is performed, the position of the cursor on the projection display, the divided projection image, and the unfolded projection is updated according to the operation.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の実施形態による医用画像処理装置の構成を示す図。The figure which shows the structure of the medical image processing apparatus by embodiment of this invention. 図1の3次元画像機億部の3次元画像発生装置の一例を示す図。The figure which shows an example of the three-dimensional image generator of the three-dimensional image machine billion of FIG. 本実施形態による画像処理手順の概要を示す図。The figure which shows the outline | summary of the image processing procedure by this embodiment. 図3の画像処理ステップの処理手順を示す図。The figure which shows the process sequence of the image process step of FIG. 図4の処理手順の補足説明図。FIG. 5 is a supplementary explanatory diagram of the processing procedure of FIG. 4. 図3の投影処理ステップの概要説明図。FIG. 4 is a schematic explanatory diagram of a projection processing step in FIG. 3. 図3の投影処理ステップの投影停止条件を示す図。The figure which shows the projection stop conditions of the projection process step of FIG. 図3の投影処理ステップの平均値投影を示す図。The figure which shows the average value projection of the projection process step of FIG. 図3の投影処理ステップにより生成される2つの部分投影画像を示す図。The figure which shows the two partial projection images produced | generated by the projection process step of FIG. 図3の投影処理ステップにおいて他の投影停止条件に用いるデプスマップの説明図。Explanatory drawing of the depth map used for other projection stop conditions in the projection process step of FIG. 図10のデプスマップの生成手順を示す図。The figure which shows the production | generation procedure of the depth map of FIG. 図11のデプスマップによる投影停止ラインを示す図。The figure which shows the projection stop line by the depth map of FIG. 本実施形態による各種投影画像例を示す図。The figure which shows the various projection image examples by this embodiment. 図3の投影処理ステップの前処理効果を示す図。The figure which shows the pre-processing effect of the projection process step of FIG. 本実施形態による表示画面の一例を示す図。The figure which shows an example of the display screen by this embodiment. 図1の平面分割投影画像生成処理部における1平面を使った分割投影処理の補足説明図。FIG. 3 is a supplementary explanatory diagram of division projection processing using one plane in the plane division projection image generation processing unit of FIG. 1. 図1の平面分割投影画像生成処理部における複数平面を使った分割投影処理の補足説明図。FIG. 3 is a supplementary explanatory diagram of division projection processing using a plurality of planes in the plane division projection image generation processing unit of FIG. 1. 図1の局面分割投影画像生成処理部における分割投影処理の補足説明図。FIG. 3 is a supplementary explanatory diagram of division projection processing in the aspect division projection image generation processing unit of FIG. 1. 図1の壁面自動分割投影画像生成処理部における壁面自動分割処理の補足説明図。FIG. 2 is a supplementary explanatory diagram of wall surface automatic division processing in the wall surface automatic division projection image generation processing unit of FIG. 図19の壁面自動分割処理の詳細説明図。Detailed explanatory drawing of the wall surface automatic division | segmentation process of FIG. 図19の壁面自動分割規則の説明図。Explanatory drawing of the wall surface automatic division | segmentation rule of FIG. 図19の壁面自動分割規則の説明図。Explanatory drawing of the wall surface automatic division | segmentation rule of FIG. 図19の壁面自動分割処理の修正に関する説明図。Explanatory drawing regarding correction of the wall surface automatic division | segmentation process of FIG. 図1の展開投影画像生成処理部における展開投影処理の補足説明図。FIG. 3 is a supplementary explanatory diagram of a development projection process in the development projection image generation processing unit of FIG. 図1の展開投影画像生成処理部による展開投影画像の一例を示す図。The figure which shows an example of the expansion | deployment projection image by the expansion | deployment projection image generation process part of FIG. 図1の画像表示処理部による投影画像に対するオリエンテーション表示例を示す図。The figure which shows the example of an orientation display with respect to the projection image by the image display process part of FIG. 図1の画像表示処理部による展開図に対するオリエンテーション表示例を示す図。The figure which shows the example of an orientation display with respect to the expanded view by the image display process part of FIG. 図1の画像表示処理部による正面及び側面の投影画像の同時表示画面例を示す図。The figure which shows the example of a simultaneous display screen of the projection image of the front and side by the image display process part of FIG.

符号の説明Explanation of symbols

1…3次元画像記憶部、2…領域抽出部、3…投影画像生成部、4…画像表示処理部、5…画像表示部、21…フィルタ処理部、22…閾値決定処理部、23…閾値処理部、24…形態演算処理部、25…連結領域選択処理部、31…前後壁面分割投影画像生成処理部、32…平面分割投影画像生成処理部、33…曲面分割投影画像生成処理部、34…壁面自動分割投影画像生成処理部、35…展開投影画像生成処理部。   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional image storage part, 2 ... Area extraction part, 3 ... Projection image generation part, 4 ... Image display process part, 5 ... Image display part, 21 ... Filter process part, 22 ... Threshold determination process part, 23 ... Threshold value Processing unit 24 ... Morphological calculation processing unit 25 ... Connection region selection processing unit 31 ... Front and rear wall surface division projection image generation processing unit 32 ... Planar division projection image generation processing unit 33 ... Curved surface division projection image generation processing unit 34 ... wall surface automatic division projection image generation processing part, 35 ... developed projection image generation processing part.

Claims (12)

管腔を含む部位に関する3次元画像データを記憶する記憶部と、
前記管腔を含む管腔領域を前記3次元画像データから抽出する抽出処理部と、
前記抽出した管腔領域を構成する複数の部分領域に関する複数の部分投影画像を前記3次元画像データから生成する投影画像生成部とを具備することを特徴とする医用画像処理装置。
A storage unit for storing three-dimensional image data relating to a part including a lumen;
An extraction processing unit for extracting a lumen region including the lumen from the three-dimensional image data;
A medical image processing apparatus, comprising: a projection image generation unit configured to generate a plurality of partial projection images related to a plurality of partial regions constituting the extracted lumen region from the three-dimensional image data.
前記投影画像生成部は、投影処理の視線方向において前記抽出した管腔領域が重ならない複数の部分領域に関する複数の部分投影画像を生成することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the projection image generation unit generates a plurality of partial projection images related to a plurality of partial regions in which the extracted lumen regions do not overlap in the line-of-sight direction of the projection processing. 前記投影画像生成部は、投影処理の視線方向に関して手前側の壁領域を含む部分領域に関する部分投影画像と、奥側の壁領域を含む部分領域に関する部分投影画像とを生成することを特徴とする請求項1記載の医用画像処理装置。   The projection image generation unit generates a partial projection image related to a partial region including a near-side wall region and a partial projection image related to a partial region including a back-side wall region with respect to the line-of-sight direction of the projection processing. The medical image processing apparatus according to claim 1. 前記投影画像生成部は、前記抽出した管腔領域を平面で分割して得られる複数の部分領域に関する複数の部分投影画像を生成することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the projection image generation unit generates a plurality of partial projection images related to a plurality of partial regions obtained by dividing the extracted lumen region by a plane. 前記投影画像生成部は、前記抽出した管腔領域を略中心軸に沿って曲面で分割して得られる複数の部分領域に関する複数の部分投影画像を生成することを特徴とする請求項1記載の医用画像処理装置。   The said projection image generation part produces | generates the some partial projection image regarding the some partial area | region obtained by dividing | segmenting the extracted said lumen | bore area | region into a curved surface along a substantially central axis. Medical image processing apparatus. 前記抽出処理部は、前記3次元画像データから閾値処理により領域を抽出する閾値処理部と、前記抽出した領域を膨脹処理することにより前記管腔領域を発生する膨脹演算処理部とを有することを特徴とする請求項1記載の医用画像処理装置。   The extraction processing unit includes a threshold processing unit that extracts a region from the three-dimensional image data by threshold processing, and an expansion calculation processing unit that generates the lumen region by performing expansion processing on the extracted region. The medical image processing apparatus according to claim 1. 前記投影画像生成部は、前記部分投影画像として、対応する部分領域に関する最大値投影画像と最小値投影画像との加算画像を生成することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the projection image generation unit generates an addition image of a maximum value projection image and a minimum value projection image related to a corresponding partial region as the partial projection image. 前記生成された複数の部分投影画像を、前記部分領域に関する分割方法の選択肢と前記部分投影画像の生成に関する投影方法の選択肢とともに表示する表示部をさらに備えることを特徴とする請求項1記載の医用画像処理装置。   The medical device according to claim 1, further comprising a display unit configured to display the plurality of generated partial projection images together with options of a division method related to the partial area and projection method options related to generation of the partial projection image. Image processing device. 管腔を含む部位に関する3次元画像データを記憶する記憶部と、
前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、
前記壁領域を膨脹処理する膨脹処理部と、
前記膨脹処理された壁領域を投影探索点が最初に抜け出ることを投影停止条件として、前記3次元画像データを複数方向から投影処理をして複数の部分投影画像を生成する投影画像生成部とを具備することを特徴とする医用画像処理装置。
A storage unit for storing three-dimensional image data relating to a part including a lumen;
An extraction processing unit for extracting the wall region of the lumen from the three-dimensional image data by threshold processing;
An expansion processing section for expanding the wall region;
A projection image generation unit that generates a plurality of partial projection images by projecting the three-dimensional image data from a plurality of directions, assuming that a projection search point first exits the wall region subjected to the expansion processing; A medical image processing apparatus comprising the medical image processing apparatus.
管腔を含む部位に関する3次元画像データを記憶する記憶部と、
前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、
前記壁領域を膨脹処理する膨脹処理部と、
前記膨脹処理された壁領域の内縁深度に投影探索点が到達することを投影停止条件として、前記3次元画像データを複数方向から投影処理をして複数の部分投影画像を生成する投影画像生成部とを具備することを特徴とする医用画像処理装置。
A storage unit for storing three-dimensional image data relating to a part including a lumen;
An extraction processing unit for extracting the wall region of the lumen from the three-dimensional image data by threshold processing;
An expansion processing section for expanding the wall region;
A projection image generation unit that generates a plurality of partial projection images by performing projection processing on the three-dimensional image data from a plurality of directions on the condition that a projection search point reaches the inner edge depth of the wall region subjected to the expansion processing A medical image processing apparatus.
管腔を含む部位に関する3次元画像データを記憶する記憶部と、
前記管腔を含む管腔領域の略中心軸から半径方向に沿って行った投影処理の値を、前記略中心軸の回りの円周方向の角度を縦軸として前記略中心軸上の位置を横軸として分布した展開画像を記3次元画像データから生成する展開画像生成部とを具備し、
前記展開画像生成部は、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域を投影探索点が最初に抜け出ることを投影停止条件として前記投影処理をすることを特徴とする医用画像処理装置。
A storage unit for storing three-dimensional image data relating to a part including a lumen;
The value of the projection processing performed along the radial direction from the substantially central axis of the lumen region including the lumen is the position on the substantially central axis with the circumferential angle around the approximate central axis as the vertical axis. A developed image generating unit that generates a developed image distributed as the horizontal axis from the three-dimensional image data;
The developed image generation unit includes an extraction processing unit that extracts a wall region of the lumen from the three-dimensional image data by threshold processing, an expansion processing unit that performs expansion processing on the wall region, and the wall region that has undergone expansion processing. A medical image processing apparatus, wherein the projection processing is performed under a projection stop condition that a projection search point first exits.
管腔を含む部位に関する3次元画像データを記憶する記憶部と、
前記管腔を含む管腔領域の略中心軸から半径方向に沿って行った投影処理の値を、前記略中心軸の回りの円周方向の角度を縦軸として前記略中心軸上の位置を横軸として分布した展開画像を記3次元画像データから生成する展開画像生成部とを具備し、
前記展開画像生成部は、前記管腔の壁領域を前記3次元画像データから閾値処理により抽出する抽出処理部と、前記壁領域を膨脹処理する膨脹処理部と、前記膨脹処理された壁領域の内縁深度に投影探索点が到達することを投影停止条件として前記投影処理をすることを特徴とする医用画像処理装置。
A storage unit for storing three-dimensional image data relating to a part including a lumen;
The value of the projection processing performed along the radial direction from the substantially central axis of the lumen region including the lumen is the position on the substantially central axis with the circumferential angle around the approximate central axis as the vertical axis. A developed image generating unit that generates a developed image distributed as the horizontal axis from the three-dimensional image data;
The developed image generating unit includes an extraction processing unit that extracts a wall region of the lumen from the three-dimensional image data by threshold processing, an expansion processing unit that performs expansion processing on the wall region, and an expansion processing unit that performs expansion processing on the wall region subjected to expansion processing. A medical image processing apparatus that performs the projection processing with a projection stop condition that a projection search point reaches an inner edge depth.
JP2005377099A 2005-12-28 2005-12-28 Medical image processing device Expired - Fee Related JP4901212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005377099A JP4901212B2 (en) 2005-12-28 2005-12-28 Medical image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005377099A JP4901212B2 (en) 2005-12-28 2005-12-28 Medical image processing device

Publications (2)

Publication Number Publication Date
JP2007175271A true JP2007175271A (en) 2007-07-12
JP4901212B2 JP4901212B2 (en) 2012-03-21

Family

ID=38301043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005377099A Expired - Fee Related JP4901212B2 (en) 2005-12-28 2005-12-28 Medical image processing device

Country Status (1)

Country Link
JP (1) JP4901212B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509694A (en) * 2008-11-24 2012-04-26 ブラッコ・シュイス・ソシエテ・アノニム Real-time perfusion imaging and quantification
JP2012522312A (en) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System and method for identifying biological material
JP2013013824A (en) * 2012-10-26 2013-01-24 Canon Inc Ophthalmic-image processing apparatus and method therefor
US8509505B2 (en) 2008-12-03 2013-08-13 Kabushiki Kaisha Toshiba Image display device and X-ray CT device
WO2014021301A1 (en) * 2012-08-02 2014-02-06 株式会社 日立メディコ Three-dimensional image construction device and three-dimensional image construction method
US9373172B2 (en) 2010-08-27 2016-06-21 Canon Kabushiki Kaisha Ophthalmic-image processing apparatus and method therefor
JP2016119975A (en) * 2014-12-24 2016-07-07 株式会社東芝 Medical image processor, image data display method in medical image processor, and x-ray ct apparatus
US9561007B2 (en) 2012-06-28 2017-02-07 Toshiba Medical Systems Corporation X-ray diagnostic apparatus
JP2017535344A (en) * 2014-11-20 2017-11-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. A method for generating synthetic mammograms from tomosynthesis data
JP2019042375A (en) * 2017-09-06 2019-03-22 キヤノン株式会社 Image processing apparatus, image processing method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189952A (en) * 1992-12-24 1994-07-12 Yokogawa Medical Syst Ltd I.p. image processing device
JPH11225949A (en) * 1998-02-12 1999-08-24 Toshiba Corp Picture image processing and displaying device
JPH11242739A (en) * 1997-11-10 1999-09-07 General Electric Co <Ge> Method for generating emphasized image of desired structure and device therefor
JPH11318884A (en) * 1998-03-09 1999-11-24 Hitachi Medical Corp Image display device
JP2001511031A (en) * 1997-01-24 2001-08-07 メイヨ ファンデーション フォー メディカル エデュケーション アンド リサーチ System for two- and three-dimensional imaging of tubular structures in the human body
JP3365929B2 (en) * 1996-10-07 2003-01-14 ジーイー横河メディカルシステム株式会社 Image processing method and image processing apparatus
JP2003250789A (en) * 2002-02-28 2003-09-09 Canon Inc Radiation imaging apparatus, program, and computer- readable storage medium
JP2004113537A (en) * 2002-09-27 2004-04-15 Ziosoft Inc Method, equipment and program for cpr image display processing of ramification field
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2004283373A (en) * 2003-03-20 2004-10-14 Toshiba Corp Analyzer of luminal structure

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189952A (en) * 1992-12-24 1994-07-12 Yokogawa Medical Syst Ltd I.p. image processing device
JP3365929B2 (en) * 1996-10-07 2003-01-14 ジーイー横河メディカルシステム株式会社 Image processing method and image processing apparatus
JP2001511031A (en) * 1997-01-24 2001-08-07 メイヨ ファンデーション フォー メディカル エデュケーション アンド リサーチ System for two- and three-dimensional imaging of tubular structures in the human body
JPH11242739A (en) * 1997-11-10 1999-09-07 General Electric Co <Ge> Method for generating emphasized image of desired structure and device therefor
JPH11225949A (en) * 1998-02-12 1999-08-24 Toshiba Corp Picture image processing and displaying device
JPH11318884A (en) * 1998-03-09 1999-11-24 Hitachi Medical Corp Image display device
JP2003250789A (en) * 2002-02-28 2003-09-09 Canon Inc Radiation imaging apparatus, program, and computer- readable storage medium
JP2004113537A (en) * 2002-09-27 2004-04-15 Ziosoft Inc Method, equipment and program for cpr image display processing of ramification field
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2004283373A (en) * 2003-03-20 2004-10-14 Toshiba Corp Analyzer of luminal structure

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509694A (en) * 2008-11-24 2012-04-26 ブラッコ・シュイス・ソシエテ・アノニム Real-time perfusion imaging and quantification
US8509505B2 (en) 2008-12-03 2013-08-13 Kabushiki Kaisha Toshiba Image display device and X-ray CT device
JP2012522312A (en) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System and method for identifying biological material
US9373172B2 (en) 2010-08-27 2016-06-21 Canon Kabushiki Kaisha Ophthalmic-image processing apparatus and method therefor
US9561007B2 (en) 2012-06-28 2017-02-07 Toshiba Medical Systems Corporation X-ray diagnostic apparatus
WO2014021301A1 (en) * 2012-08-02 2014-02-06 株式会社 日立メディコ Three-dimensional image construction device and three-dimensional image construction method
CN104427940A (en) * 2012-08-02 2015-03-18 株式会社日立医疗器械 Three-dimensional image construction device and three-dimensional image construction method
JPWO2014021301A1 (en) * 2012-08-02 2016-07-21 株式会社日立メディコ 3D image construction apparatus and 3D image construction method
US9750473B2 (en) 2012-08-02 2017-09-05 Hitachi, Ltd. Three-dimensional image construction apparatus and three-dimensional image construction method
JP2013013824A (en) * 2012-10-26 2013-01-24 Canon Inc Ophthalmic-image processing apparatus and method therefor
JP2017535344A (en) * 2014-11-20 2017-11-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. A method for generating synthetic mammograms from tomosynthesis data
JP2016119975A (en) * 2014-12-24 2016-07-07 株式会社東芝 Medical image processor, image data display method in medical image processor, and x-ray ct apparatus
JP2019042375A (en) * 2017-09-06 2019-03-22 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4901212B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP4901212B2 (en) Medical image processing device
EP2420188B1 (en) Diagnosis support apparatus, diagnosis support method, and storage medium storing diagnosis support program
JP4874810B2 (en) X-ray CT system
JP5221938B2 (en) Program for executing improved plaque visualization system and method (300) for color coding an image of a plaque region
Egger et al. Aorta segmentation for stent simulation
CN107194909B (en) Medical image processing apparatus and medical image processing method
US11087464B2 (en) System and method for motion-adjusted device guidance using vascular roadmaps
US9196057B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP2008521461A (en) Method for measuring tubular organs using knowledge structure mapping
EP1804658A2 (en) Apparatus and method for fusion and in-operating-room presentation of volumetric data and 3-d angiographic data
JP2006246941A (en) Image processing apparatus and vessel tracking method
US20100177945A1 (en) Image processing method, image processing apparatus, and image processing program
US20100034439A1 (en) Medical image processing apparatus and medical image processing method
JP2009018005A (en) Bull&#39;s eye map creating apparatus, bull&#39;s eye map creating method, and image processing apparatus
US20070197898A1 (en) Method for examination of vessels in a patient on the basis of image data recorded by means of a scanner within an examination area
US20080084415A1 (en) Orientation of 3-dimensional displays as a function of the regions to be examined
JP6571687B2 (en) Image processing apparatus and image processing method
EP2476102B1 (en) Improvements to curved planar reformation
US20070053564A1 (en) Image processing method and computer readable medium for image processing
GB2471173A (en) Intensity projection medical image modified by region of interest
JP4685826B2 (en) Projection image generation apparatus, method, and program
JP5380231B2 (en) Medical image display apparatus and method, and program
JP5624336B2 (en) Medical image processing apparatus and medical image processing program
JP2010284405A (en) Medical image processor, medical image diagnostic device and medical image processing program
JP2010075549A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111227

R150 Certificate of patent or registration of utility model

Ref document number: 4901212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees