JP3788847B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3788847B2
JP3788847B2 JP16583897A JP16583897A JP3788847B2 JP 3788847 B2 JP3788847 B2 JP 3788847B2 JP 16583897 A JP16583897 A JP 16583897A JP 16583897 A JP16583897 A JP 16583897A JP 3788847 B2 JP3788847 B2 JP 3788847B2
Authority
JP
Japan
Prior art keywords
cross
image
region
sectional
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16583897A
Other languages
Japanese (ja)
Other versions
JPH119590A (en
Inventor
賢太郎 古旗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP16583897A priority Critical patent/JP3788847B2/en
Publication of JPH119590A publication Critical patent/JPH119590A/en
Application granted granted Critical
Publication of JP3788847B2 publication Critical patent/JP3788847B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えばX線コンピュータ(CT)や磁気共鳴イメージング装置(MRI)などの種々の撮影装置により得られた複数の断層画像データから三次元的な関心領域を抽出する画像処理装置に関する。
【0002】
【従来の技術】
従来より、CTやMRIなどの撮影装置により得られた画像データから複数枚の断層像を再構成するとともに各々から関心領域を抽出し、この抽出領域について三次元画像を作成して表示する画像処理装置が知られている。かかる従来の画像処理装置では、患者撮影後に撮影装置側で再構成された一方向の断層画像(原画像)や、WS側で断面を切り直した一方向の断層画像といった被検体の一方向のみの断面に関する複数の断層像を用いて三次元的な関心領域の抽出を行なうものとなっているが、撮影条件や撮影方向、断面の方向などによっては関心領域と他の領域が複雑に入り組んでおり、自動または半自動的に関心領域のみを抽出する事が非常に困難であった。
【0003】
【発明が解決しようとする課題】
本発明は、かかる事情を考慮してなされたものであり、種々のモダリティによって得られた複数枚の断層画像データから正確に、且つ効率良く三次元的な関心領域を抽出し得る画像処理装置を提供することを目的とする。
【0004】
【課題を解決するための手段】
本発明の画像処理装置は、三次元ボリュームデータから関心領域を抽出し、この関心領域の三次元画像を作成して表示する画像処理装置において、前記被検体の互いに異なる第1及び第2の断面を指定する断面指定手段と、前記第1の断面に平行な複数の断面画像及び前記第2の断面に平行な複数の断面画像を前記ボリュームデータに基づいて作成する断面画像作成手段と、前記複数の第1の断面の断面画像のいずれかを切り替えて表示し、前記複数の第2の断面画像のいずれかを切り替えて表示する表示手段と、前記表示手段により表示された第1の断面の断面画像において第1の抽出領域を設定し、前記第2の断面画像において第2の抽出領域を設定する設定手段と、前記第1の断面に平行な複数の断面画像から前記第1の抽出領域を含む第1の関心領域を抽出し、前記第2の断面に平行な複数の断面画像から前記第2の抽出領域を含む第2の関心領域を抽出する抽出手段と、前記第1の関心領域から第1の三次元画像を作成し、前記第2の関心領域から第2の三次元画像を作成すると共に、前記第1及び第2の三次元画像間の論理積又は論理和を含む論理演算処理により第3の三次元画像を作成する作成手段とを具備しており、CTやMRなどの撮影装置から得られた断層画像データをボリュームデータとして取り扱い、このボリュームデータに対してMPR処理を行い、任意の方向(領域抽出のしやすい断面方向)にてボリュームデータと同じ幅分だけ断面画像を作成し、この画像に対して領域抽出処理を行う。
【0005】
このため、領域抽出の行ない易い断面画像を使用して任意の断面方向で領域抽出を行なうことができるようになる。したがって、どのような条件または方向で作成された断層画像についても、目的の関心領域を正確に、且つ効率よく抽出することができる。また、関心領域とそれ以外の領域との分割が容易に行なえるようになるため、種々の画像処理に係る操作性を大幅に向上することも可能となる。
【0006】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を説明する。
図1は本発明の一実施形態に係る画像処理装置の概略構成を示すブロック図である。1は三次元の関心領域の抽出元となる画像データ(入力データ)であって、例えば図2に示すような被検体の任意方向(斜め方向)に関する複数断面の断層像Icに基づいて事前に作成されたボリュームデータである。断層像IcはCTやMRI等の撮影装置によって得られたものを用いる。画像データ1は例えば光磁気ディスク(Mo)等に記録されており、このような記録媒体を介して本実施形態の画像処理装置に入力される。この画像データ1は、セカンドコンソール等(WS)を使用して変換、作成されたものを含む。
【0007】
そして本装置は、任意の断面位置を指定する断面位置指定手段2と、断面位置指定手段2により指定された断面位置の断面画像をボリュームデータから切り出して作成する断面画像作成手段3と、断面画像作成手段3により作成された断面画像上に関心領域を設定する関心領域設定手段5と、断面画像作成手段5により作成された断面画像に平行な複数の抽出断面画像を、対象となるボリュームデータの幅だけ作成する抽出断面自動作成手段4と、抽出断面自動作成手段4により作成された複数の抽出断面画像を順番に切り替えて表示する指定断面表示手段7と、関心領域設定手段5により設定された関心領域の二値画像を、その原画像に重畳させて表示する抽出領域表示手段6と、画面の表示領域を分割し、これにより少なくとも三つの抽出断面画像を同時に表示する領域分割表示手段8と、各断面方向にそって抽出された各々の関心領域に対し論理積又は論理和を含む論理演算処理を行う抽出領域演算手段9と、抽出された領域から三次元画像を作成して表示する三次元画像作成表示手段10と、モニター11とによって構成されている。
「断面画像と断面方向」
このような本装置においては、入力された画像データに対し被検体の撮影方向および画像方向などの情報を考慮して、いわゆる断面変換処理を行ない、これにより被検体座標系の各々の座標軸に直交する三種類の断面画像、すなわちアキシャル像、サジタル像、コロナル像を作成する。これらの画像は、例えば図3に示すように一画面上に並べて表示される。特に同図においてA面の表示エリアには上記サジタル像が表示されており、B面の表示エリアにはコロナル像が表示されており、そしてC面の表示エリアにはアキシャル像が表示されている。なお、同図A面の表示エリアにおける波線A1は、B面に表示されているコロナル像の位置を表し、波線A2は、C面に表示されているアキシャル像の位置を表す。また、同図B面の表示エリアにおける波線B1は、A面に表示されているサジタル像の位置を表し、波線B2は、C面に表示されているアキシャル像の位置を表す。そして同図C面の表示エリアにおける波線C1は、A面に表示されているサジタル像の位置を表し、波線C2はB面に表示されているコロナル像の位置を表す。
【0008】
ここで示される断面画像が領域抽出を行う際に使用される断面画像であって、これらの画像は画面上に表示されたA面、B面、C面の断面画像に対して平行に、ボリュームデータと同じ幅分作成される。例えば、C面の画像(アキシャル像)を考えた場合、図3のA面に示す線P1から線P2までの間が、抽出に使用するための断面画像の範囲である。
【0009】
図3において示したA面、B面、C面の画像は、それぞれが互いに直交する断面の画像として設定されたものである。そして、これら断面の画像を用いて領域の抽出を行なえるが、特に本実施形態においては関心領域の抽出のために斜め方向(オブリーク方向)で切り出された画像を使用することも可能となっている。例えば図4に示す様に関心領域が体軸に対して斜め方向に伸びている場合、図5のA面に示す様にC面の断面位置を示す線Aを回転移動する(線A)ことで、関心領域に沿った断面方向の画像を使用する事ができる。ちなみに線Bから線Cによって挟まれる範囲が領域抽出に使用される断面画像の範囲である。このように斜め方向で切り出された断面画像は、A〜C面のいずれかの表示エリアに表示させても良いし、新たに別の表示エリアを設けてこれに表示するようにしても良い。なお、本画像処理装置のシステムを起動したときの初期状態では、アキシャル、サジタル、コロナルを表示する。
「抽出領域の指定と表示」
本装置においては、A面及びB面及びC面のそれぞれについて、各面で独立した抽出領域を指定することができるようになっている。抽出領域の指定は例えば次に示すような種々の方法によって行われる。
(1) 原画像の濃淡値の範囲指定による抽出
この方法では、原画像の画素の濃淡値の範囲を指定することによって所要の領域を抽出する。例えば図6において、同図(a)は原画像の濃淡画像を示している。ここで、骨組織を表す画素の濃淡値の範囲を指定すると、同図(b)に示すように原画像から当該濃淡値を有する画素のみ(すなわち骨の部分)が抽出される。
(2) 関心領域の描画による抽出
この方法では、図7に示すように、例えば操作者がマウス等を用いて複数の点列を指定することにより原画像(同図(a))上で線分を描画し、この線分によって表される領域を関心領域として抽出する。なお、この領域に対してのみ(1)の濃淡値による範囲指定を行なうこともできる。同図(b)はこの場合における抽出結果を示している。
(3) 連結領域の自動抽出
まず所定の濃淡値の範囲を指定することにより、領域抽出に使用する、表示断面に対して平行な複数の断面画像を二値化する。なお、ここでの濃淡値の範囲指定は上述した濃淡値による範囲指定を併用できる。次にこの二値化画像上に1つの抽出開始点を設定し、この点を含む連結領域を自動的に探索(抽出)する。なお、連結領域の自動探索には二次元モードと三次元モードがある。
【0010】
以上のようにして所要の領域が抽出されるが、この抽出結果は次のようにして表示する。図9は抽出結果の表示の仕方を説明するための図である。
ここでは、原則として抽出結果は二値画像として表示するが、この場合、二値画像(同図(b))と、原画像(同図(a)、抽出に使用した断面画像)とを切り替えて表示させたり、二値画像と原画像をオーバーラップ(重畳)して表示(同図(c))させても良い。
抽出結果は、使用した断面画像以外の画像上でも形体を確認することができる。例えば、A面で抽出を行ない、その結果に対してMPRを行なってB面およびC面の画像上に反映させる。
【0011】
ここで、二値画像と原画像をオーバーラップする際の比率を、例えば二値画像が50%であって原画像が50%という具合に数値で設定するようにしても良い。また、二値画像と原画像とを区別可能とするために、二値画像に着色を施しても良い。
「抽出領域の三次元画像化と表示」
さらに、抽出された領域に基づく三次元画像化が行われる。ここで作成された三次元画像は図10に示すように画面右下に表示される。三次元画像の作成は次のようにして行われる。すなわち、A面又はB面又はC面において抽出された領域をそれぞれ使用し、各面毎における抽出領域の三次元画像を作成する。図11はこのようにして作成された三次元画像を示すものであり、同図において、(a)はA面における抽出領域(骨)の三次元画像を示し、(b)はB面における抽出領域(脳組織)の三次元画像を示し、(c)はC面における抽出領域(腫瘍組織)の三次元画像を示す。
【0012】
また本実施形態においては、各面の抽出領域の論理演算に基づく三次元画像の作成を行なうことも可能となっている。すなわち、A面又はB面又はC面においてそれぞれ抽出された複数の領域から所定の領域を選択し、選択された個々の領域の画像間でAND(論理積)又はOR(論理和)等の論理演算を施し、その演算結果を用いて三次元画像化を行なうことが可能となっている。図12はこのような三次元画像化の一例を示すものである。例えば同図(a)における左右2つの画像間でAND演算を行なった後に三次元画像化を行なった結果、同図(b)に示すような画像が得られる。また同図(c)における左右2つの画像間でOR演算を行なった後に三次元画像化を行なった結果、同図(d)に示すような画像が得られる。
【0013】
作成された三次元画像は、マウスカーソルで選択してドラッグすることにより回転又は移動させて表示させることもできる。
ここで、三次元画像の上でマウスカーソルをクリックすると、クリックした点の位置が選択され、この位置に対応する原画像(領域抽出に使用した断面画像)が表示される(図13参照)。このとき原画像上には、三次元画像上で指定された点の位置と同じ位置に、同図「+」によって表すような所定のマークが表示される。
【0014】
以上説明したように本実施形態によれば、CTやMRなどの撮影装置から得られた断層画像データをボリュームデータとして取り扱い、このボリュームデータに対してMPR処理を行い、任意の方向(領域抽出のしやすい断面方向)にてボリュームデータと同じ幅分だけ断面画像を作成し、この画像に対して領域抽出処理を行う。
【0015】
このため、領域抽出の行ない易い断面画像を使用して任意の断面方向で領域抽出を行なうことができるようになる。したがって、どのような条件または方向で作成された断層画像についても、目的の関心領域を正確に、且つ効率よく抽出することができる。また、関心領域とそれ以外の領域との分割が容易に行なえるようになるため、種々の画像処理に係る操作性を大幅に向上することも可能となる。
なお、本発明は上述した実施形態に限定されることなく種々変形して実施可能である。
【0016】
【発明の効果】
本発明によれば、どのような条件で撮影または切り出された断面画像からでも、容易に目的とする関心領域の抽出が行える。また、抽出領域の論理演算処理によれば抽出精度を向上させることができる。したがって、高精度の三次元画像を容易に作成して表示する事ができる。
【図面の簡単な説明】
【図1】発明の構成を示すブロック図。
【図2】入力データに関する説明図。
【図3】断面画像の表示に関する説明図。
【図4】関心領域の形状と断層方向に関する説明図。
【図5】断面方向の移動と回転に関する説明図。
【図6】濃淡値を使用した抽出方法に関する説明図。
【図7】関心領域に線分を描画する抽出方法に関する説明図。
【図8】二値画像の連結領域を追跡する抽出方法に関する説明図。
【図9】抽出結果の表示方法に関する説明図。
【図10】三次元画像の表示位置に関する説明図。
【図11】三次元画像の作成と表示に関する第1の説明図。
【図12】三次元画像の作成と表示に関する第2の説明図。
【図13】断面画像の検索と表示に関する説明図。
【符号の説明】
1…画像データ
2…断面位置指定手段
3…断面画像作成手段
4…抽出断面自動作成手段
5…関心領域設定手段
6…抽出領域表示手段
7…指定断面表示手段
8…領域分割表示手段
9…抽出領域演算手段
10…三次元画像作成表示手段
11…モニター
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that extracts a three-dimensional region of interest from a plurality of tomographic image data obtained by various imaging apparatuses such as an X-ray computer (CT) and a magnetic resonance imaging apparatus (MRI).
[0002]
[Prior art]
Conventionally, image processing for reconstructing a plurality of tomographic images from image data obtained by an imaging apparatus such as CT or MRI, extracting a region of interest from each, and creating and displaying a three-dimensional image for the extracted region The device is known. In such a conventional image processing apparatus, only one direction of the subject such as a unidirectional tomographic image (original image) reconstructed on the imaging apparatus side after imaging of the patient or a unidirectional tomographic image obtained by recutting the cross section on the WS side. The three-dimensional region of interest is extracted using a plurality of tomographic images related to the cross section of the image. Therefore, it is very difficult to extract only the region of interest automatically or semi-automatically.
[0003]
[Problems to be solved by the invention]
The present invention has been made in view of such circumstances, and an image processing apparatus capable of accurately and efficiently extracting a three-dimensional region of interest from a plurality of tomographic image data obtained by various modalities. The purpose is to provide.
[0004]
[Means for Solving the Problems]
The image processing apparatus of the present invention extracts a region of interest from the three-dimensional volume data, the image processing apparatus to create and display a three-dimensional image of the region of interest, different first and second cross-section of the subject a section specifying means for specifying a cross-sectional image generating means for generating on the basis of a plurality of cross-sectional images parallel to the volume data to said first plurality of cross-sectional images and the second section parallel to the cross section, said plurality Display means for switching and displaying any one of the cross-sectional images of the first cross-section, and switching and displaying any of the plurality of second cross-sectional images, and the cross-section of the first cross-section displayed by the display means Setting means for setting a first extraction region in the image and setting a second extraction region in the second cross-sectional image; and the first extraction region from a plurality of cross-sectional images parallel to the first cross-section. Including Extracting means for extracting a first region of interest, and extracts the second region of interest including the second extraction region from a plurality of parallel sectional images in the second section, the first from the first region of interest A first three-dimensional image, a second three-dimensional image from the second region of interest, and a logical operation process including a logical product or a logical sum between the first and second three-dimensional images. A creation means for creating a third three-dimensional image, treating tomographic image data obtained from an imaging apparatus such as CT or MR as volume data, performing MPR processing on the volume data, and arbitrarily A cross-sectional image having the same width as that of the volume data is created in the direction (i.e., the cross-sectional direction in which the region can be easily extracted), and region extraction processing is performed on this image.
[0005]
For this reason, it becomes possible to perform region extraction in an arbitrary cross-sectional direction using a cross-sectional image that is easy to perform region extraction. Therefore, the target region of interest can be accurately and efficiently extracted from the tomographic image created under any condition or direction. In addition, since the region of interest and the other regions can be easily divided, the operability related to various image processes can be greatly improved.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. Reference numeral 1 denotes image data (input data) from which a three-dimensional region of interest is extracted. For example, based on tomographic images Ic having a plurality of cross sections in an arbitrary direction (oblique direction) of the subject as shown in FIG. It is the created volume data. The tomographic image Ic is obtained using an imaging apparatus such as CT or MRI. The image data 1 is recorded on, for example, a magneto-optical disk (Mo) or the like, and is input to the image processing apparatus of this embodiment via such a recording medium. The image data 1 includes data converted and created using a second console or the like (WS).
[0007]
The apparatus includes a cross-sectional position designating unit 2 for designating an arbitrary cross-sectional position, a cross-sectional image creating unit 3 for creating a cross-sectional image of the cross-sectional position designated by the cross-sectional position designating unit 2 from volume data, and a cross-sectional image A region-of-interest setting unit 5 that sets a region of interest on the cross-sectional image created by the creating unit 3 and a plurality of extracted cross-sectional images parallel to the cross-sectional image created by the cross-sectional image creating unit 5 The extracted section automatic creation means 4 for creating only the width, the designated section display means 7 for sequentially switching and displaying a plurality of extracted section images created by the extracted section automatic creation means 4, and the region of interest setting means 5 are set. The extraction area display means 6 for displaying the binary image of the region of interest superimposed on the original image, and the display area of the screen are divided, whereby at least three extraction Region division display means 8 for simultaneously displaying cross-sectional images, extraction area calculation means 9 for performing logical operation processing including logical product or logical sum for each region of interest extracted along each cross-sectional direction, and extracted The monitor 11 includes a three-dimensional image creation / display unit 10 that creates and displays a three-dimensional image from the area.
"Section image and direction"
In this apparatus, the input image data is subjected to so-called cross-section conversion processing in consideration of information such as the imaging direction and image direction of the subject, thereby orthogonal to each coordinate axis of the subject coordinate system. Three types of cross-sectional images, that is, an axial image, a sagittal image, and a coronal image are created. These images are displayed side by side on one screen as shown in FIG. 3, for example. In particular, in the same figure, the sagittal image is displayed in the display area of the A plane, the coronal image is displayed in the display area of the B plane, and the axial image is displayed in the display area of the C plane. . Note that a wavy line A1 in the display area of the A plane in the figure represents the position of the coronal image displayed on the B plane, and a wavy line A2 represents the position of the axial image displayed on the C plane. Further, a wavy line B1 in the display area of the B plane in FIG. 7 represents the position of the sagittal image displayed on the A plane, and a wavy line B2 represents the position of the axial image displayed on the C plane. A wavy line C1 in the display area of the C plane in FIG. 3 represents the position of the sagittal image displayed on the A plane, and a wavy line C2 represents the position of the coronal image displayed on the B plane.
[0008]
The cross-sectional images shown here are cross-sectional images used when performing region extraction, and these images are parallel to the A-side, B-side, and C-side cross-sectional images displayed on the screen. The same width as the data is created. For example, when an image on the C plane (axial image) is considered, the range from the line P1 to the line P2 shown on the A plane in FIG. 3 is the range of the cross-sectional image used for extraction.
[0009]
The images of plane A, plane B, and plane C shown in FIG. 3 are set as cross-sectional images that are orthogonal to each other. The region can be extracted by using these cross-sectional images, but in the present embodiment, it is also possible to use an image cut out in an oblique direction (oblique direction) for extracting the region of interest. Yes. For example, when the region of interest extends obliquely with respect to the body axis as shown in FIG. 4, the line A indicating the cross-sectional position of the C surface is rotated (line A) as shown in the A surface of FIG. Thus, an image in a cross-sectional direction along the region of interest can be used. Incidentally, the range between line B and line C is the range of the cross-sectional image used for region extraction. The cross-sectional image cut in the oblique direction as described above may be displayed in any one of the display areas on the A to C planes, or may be displayed in another display area. In the initial state when the system of the image processing apparatus is activated, axial, sagittal, and coronal are displayed.
"Specifying and Displaying Extraction Area"
In this apparatus, for each of the A surface, the B surface, and the C surface, an independent extraction region can be designated on each surface. The extraction area is designated by various methods as shown below, for example.
(1) Extraction by Specifying the Range of the Gray Value of the Original Image In this method, a required area is extracted by specifying the range of the gray value of the pixels of the original image. For example, in FIG. 6, FIG. 6A shows a grayscale image of the original image. Here, when the range of the gray value of the pixel representing the bone tissue is designated, only the pixel having the gray value (that is, the bone portion) is extracted from the original image as shown in FIG.
(2) Extraction of region of interest by drawing In this method, as shown in FIG. 7, for example, an operator designates a plurality of point sequences using a mouse or the like to draw a line on the original image (FIG. 7A). Minutes are drawn, and the region represented by this line segment is extracted as a region of interest. Note that it is also possible to specify the range by the gray value of (1) only for this region. FIG. 5B shows the extraction result in this case.
(3) Automatic extraction of connected regions First, by specifying a predetermined gray value range, a plurality of cross-sectional images parallel to the display cross-section used for region extraction are binarized. In addition, the range specification of the gray value here can be used in combination with the above range specification by the gray value. Next, one extraction start point is set on the binarized image, and a connected area including this point is automatically searched (extracted). There are two-dimensional mode and three-dimensional mode for automatic search for connected regions.
[0010]
The required area is extracted as described above, and the extraction result is displayed as follows. FIG. 9 is a diagram for explaining how to display the extraction result.
Here, in principle, the extraction result is displayed as a binary image. In this case, the binary image (FIG. (B)) and the original image (FIG. (A), cross-sectional image used for extraction) are switched. Alternatively, the binary image and the original image may be overlapped (overlapped) and displayed ((c) in the figure).
As for the extraction result, the shape can be confirmed on an image other than the used cross-sectional image. For example, extraction is performed on the A plane, and MPR is performed on the result to reflect the result on the B and C plane images.
[0011]
Here, the ratio at which the binary image and the original image overlap may be set as a numerical value, for example, 50% for the binary image and 50% for the original image. In addition, the binary image may be colored so that the binary image and the original image can be distinguished.
"3D imaging and display of extracted regions"
Further, three-dimensional imaging based on the extracted area is performed. The three-dimensional image created here is displayed at the lower right of the screen as shown in FIG. Creation of a three-dimensional image is performed as follows. That is, a region extracted on the A surface, the B surface, or the C surface is used, respectively, and a three-dimensional image of the extracted region for each surface is created. FIG. 11 shows a three-dimensional image created in this manner. In FIG. 11, (a) shows a three-dimensional image of an extraction region (bone) on the A plane, and (b) shows an extraction on the B plane. A three-dimensional image of the region (brain tissue) is shown, and (c) shows a three-dimensional image of the extraction region (tumor tissue) on the C plane.
[0012]
In the present embodiment, it is also possible to create a three-dimensional image based on the logical operation of the extraction regions on each surface. That is, a predetermined area is selected from a plurality of areas extracted on the A plane, the B plane, or the C plane, and logic such as AND (logical product) or OR (logical sum) is selected between the images of the selected individual regions. It is possible to perform a calculation and perform three-dimensional imaging using the calculation result. FIG. 12 shows an example of such three-dimensional imaging. For example, as a result of performing the AND operation between the left and right images in FIG. 9A and performing the three-dimensional imaging, an image as shown in FIG. In addition, as a result of performing an OR operation between the two left and right images in FIG. 4C and performing three-dimensional imaging, an image as shown in FIG.
[0013]
The created three-dimensional image can be displayed by rotating or moving by selecting and dragging with the mouse cursor.
Here, when the mouse cursor is clicked on the three-dimensional image, the position of the clicked point is selected, and the original image (cross-sectional image used for region extraction) corresponding to this position is displayed (see FIG. 13). At this time, a predetermined mark represented by “+” in the figure is displayed on the original image at the same position as the point designated on the three-dimensional image.
[0014]
As described above, according to the present embodiment, tomographic image data obtained from an imaging apparatus such as CT or MR is handled as volume data, MPR processing is performed on the volume data, and an arbitrary direction (region extraction) is performed. A cross-sectional image having the same width as that of the volume data is created in a cross-sectional direction that is easy to perform, and region extraction processing is performed on this image.
[0015]
For this reason, it becomes possible to perform region extraction in an arbitrary cross-sectional direction using a cross-sectional image that is easy to perform region extraction. Therefore, the target region of interest can be accurately and efficiently extracted from the tomographic image created under any condition or direction. In addition, since the region of interest and the other regions can be easily divided, the operability related to various image processes can be greatly improved.
The present invention is not limited to the above-described embodiment, and can be implemented with various modifications.
[0016]
【The invention's effect】
According to the present invention, a target region of interest can be easily extracted from a cross-sectional image photographed or cut out under any conditions. Further, according to the logical operation processing of the extraction area, the extraction accuracy can be improved. Therefore, a highly accurate three-dimensional image can be easily created and displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an invention.
FIG. 2 is an explanatory diagram related to input data.
FIG. 3 is an explanatory diagram regarding display of a cross-sectional image.
FIG. 4 is an explanatory diagram regarding the shape of a region of interest and the direction of a fault.
FIG. 5 is an explanatory diagram regarding movement and rotation in a cross-sectional direction.
FIG. 6 is an explanatory diagram relating to an extraction method using gray values.
FIG. 7 is an explanatory diagram relating to an extraction method for drawing a line segment in a region of interest.
FIG. 8 is an explanatory diagram relating to an extraction method for tracking connected regions of binary images.
FIG. 9 is an explanatory diagram regarding a display method of extraction results.
FIG. 10 is an explanatory diagram regarding a display position of a three-dimensional image.
FIG. 11 is a first explanatory diagram related to creation and display of a three-dimensional image.
FIG. 12 is a second explanatory diagram related to creation and display of a three-dimensional image.
FIG. 13 is an explanatory diagram related to retrieval and display of a cross-sectional image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image data 2 ... Section position designation means 3 ... Section image creation means 4 ... Extraction section automatic creation means 5 ... Region of interest setting means 6 ... Extraction area display means 7 ... Designated section display means 8 ... Area division display means 9 ... Extraction Area calculation means 10 ... 3D image creation and display means 11 ... monitor

Claims (5)

被検体のボリュームデータから三次元の関心領域を抽出し、この関心領域の三次元画像を作成する画像処理装置において、
前記被検体の互いに異なる第1及び第2の断面を指定する断面指定手段と、
前記第1の断面に平行な複数の断面画像及び前記第2の断面に平行な複数の断面画像を前記ボリュームデータに基づいて作成する断面画像作成手段と、
前記複数の第1の断面の断面画像のいずれかを切り替えて表示し、前記複数の第2の断面画像のいずれかを切り替えて表示する表示手段と、
前記表示手段により表示された第1の断面の断面画像において第1の抽出領域を設定し、前記第2の断面画像において第2の抽出領域を設定する設定手段と、
前記第1の断面に平行な複数の断面画像から前記第1の抽出領域を含む第1の関心領域を抽出し、前記第2の断面に平行な複数の断面画像から前記第2の抽出領域を含む第2の関心領域を抽出する抽出手段と、
前記第1の関心領域から第1の三次元画像を作成し、前記第2の関心領域から第2の三次元画像を作成すると共に、前記第1及び第2の三次元画像間の論理積又は論理和を含む論理演算処理により第3の三次元画像を作成する作成手段と、
を具備することを特徴とする画像処理装置。
In an image processing apparatus that extracts a three-dimensional region of interest from volume data of a subject and creates a three-dimensional image of the region of interest,
Cross-section designating means for designating different first and second cross-sections of the subject;
Cross-sectional image creating means for creating a plurality of cross-sectional images parallel to the first cross-section and a plurality of cross-sectional images parallel to the second cross-section based on the volume data;
Display means for switching and displaying any one of the plurality of first cross-sectional images, and switching and displaying any of the plurality of second cross-sectional images;
Setting means for setting a first extraction area in the cross-sectional image of the first cross section displayed by the display means, and setting a second extraction area in the second cross-sectional image;
A first region of interest including the first extraction region is extracted from a plurality of cross-sectional images parallel to the first cross-section, and the second extraction region is extracted from a plurality of cross-sectional images parallel to the second cross-section. Extraction means for extracting a second region of interest including :
Creating a first three-dimensional image from the first region of interest, creating a second three-dimensional image from the second region of interest, and a logical product between the first and second three-dimensional images, or Creating means for creating a third three-dimensional image by logical operation processing including logical sum ;
An image processing apparatus comprising:
前記断面画像作成手段は、前記ボリュームデータを構成する複数の断層像を断面変換処理する断面変換処理手段を有することを特徴とする請求項に記載の画像処理装置。The image processing apparatus according to claim 1 , wherein the cross-sectional image creating unit includes a cross-sectional conversion processing unit that performs cross-sectional conversion processing on a plurality of tomographic images constituting the volume data. 前記抽出手段により抽出された関心領域を二値化し、これを前記断面画像に重畳させて表示する抽出領域表示手段をさらに具備することを特徴とする請求項に記載の画像処理装置。The image processing apparatus according to claim 1 , further comprising: an extraction region display unit that binarizes the region of interest extracted by the extraction unit and displays the binarized region on the cross-sectional image. 前記二値化された関心領域と断面画像との重畳の割合を可変とする手段をさらに具備することを特徴とする請求項に記載の画像処理装置。The image processing apparatus according to claim 3 , further comprising means for changing a superposition ratio between the binarized region of interest and the cross-sectional image. 前記作成手段により作成された三次元画像と前記断面画像とを並べて表示する手段をさらに具備することを特徴とする請求項に記載の画像処理装置。The image processing apparatus according to claim 1 , further comprising means for displaying the three-dimensional image created by the creating means and the cross-sectional image side by side.
JP16583897A 1997-06-23 1997-06-23 Image processing device Expired - Fee Related JP3788847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16583897A JP3788847B2 (en) 1997-06-23 1997-06-23 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16583897A JP3788847B2 (en) 1997-06-23 1997-06-23 Image processing device

Publications (2)

Publication Number Publication Date
JPH119590A JPH119590A (en) 1999-01-19
JP3788847B2 true JP3788847B2 (en) 2006-06-21

Family

ID=15819969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16583897A Expired - Fee Related JP3788847B2 (en) 1997-06-23 1997-06-23 Image processing device

Country Status (1)

Country Link
JP (1) JP3788847B2 (en)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839457B1 (en) * 1999-06-03 2005-01-04 Teijin Limited Bone measuring method
JP2001022964A (en) * 1999-06-25 2001-01-26 Terarikon Inc Three-dimensional image display device
JP4313910B2 (en) * 1999-10-21 2009-08-12 株式会社日立メディコ Image display device
JP2001155026A (en) * 1999-11-26 2001-06-08 Olympus Optical Co Ltd Three-dimensional image database device and three- dimensional image database construction method
JP2001155019A (en) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd Similar image retrieving device
US6396897B1 (en) * 2000-04-18 2002-05-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for selecting retrospective reconstruction parameters
JP3854062B2 (en) * 2000-04-28 2006-12-06 株式会社モリタ製作所 Tomographic image display method, display device, and recording medium storing program for realizing the display method
ATE464623T1 (en) 2000-06-16 2010-04-15 Imagnosis Inc POINT INPUT DEVICE AND METHOD FOR THREE-DIMENSIONAL IMAGES
JP4727700B2 (en) * 2000-06-30 2011-07-20 株式会社日立メディコ Diagnostic imaging support device
US6466813B1 (en) * 2000-07-22 2002-10-15 Koninklijke Philips Electronics N.V. Method and apparatus for MR-based volumetric frameless 3-D interactive localization, virtual simulation, and dosimetric radiation therapy planning
JP4795527B2 (en) * 2000-11-24 2011-10-19 株式会社東芝 X-ray diagnostic imaging system
US6487432B2 (en) * 2000-12-04 2002-11-26 Ge Medical Systems Global Technologies Company Llc Method and system for selecting and displaying medical image data
JP4675509B2 (en) * 2001-07-04 2011-04-27 株式会社日立メディコ Apparatus and method for extracting and displaying specific region of organ
JP4282939B2 (en) * 2002-03-19 2009-06-24 東芝医用システムエンジニアリング株式会社 Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP4417610B2 (en) * 2002-05-23 2010-02-17 株式会社根本杏林堂 Image display apparatus and method
JP4197108B2 (en) * 2002-06-25 2008-12-17 テラリコン・インコーポレイテッド Medical image combined observation system
JP4129375B2 (en) 2002-08-13 2008-08-06 株式会社東芝 Medical image diagnostic apparatus and image region designation support method
JP2004180715A (en) * 2002-11-29 2004-07-02 Toshiba Corp X-ray computed tomography apparatus
US7668285B2 (en) * 2004-02-16 2010-02-23 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus and image processing apparatus
JP4228222B2 (en) * 2004-04-15 2009-02-25 株式会社島津製作所 X-ray CT system
JP4644449B2 (en) * 2004-07-12 2011-03-02 富士通株式会社 Image display device and image display program
US7433504B2 (en) * 2004-08-27 2008-10-07 General Electric Company User interactive method for indicating a region of interest
JP4761741B2 (en) * 2004-09-06 2011-08-31 株式会社東芝 X-ray CT apparatus, image data area extraction system, and image data area extraction program
JP4319165B2 (en) * 2005-04-28 2009-08-26 株式会社モリタ製作所 CT image display method and apparatus
JP2006325629A (en) * 2005-05-23 2006-12-07 Ge Medical Systems Global Technology Co Llc Three-dimensional interest region setting method, image acquisition apparatus, and program
US7565000B2 (en) * 2005-11-23 2009-07-21 General Electric Company Method and apparatus for semi-automatic segmentation technique for low-contrast tubular shaped objects
JP2008068032A (en) * 2006-09-15 2008-03-27 Toshiba Corp Image display device
US7978191B2 (en) 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
JP5444645B2 (en) * 2008-06-24 2014-03-19 株式会社大林組 Soil contamination status management system
JP5926728B2 (en) * 2010-07-26 2016-05-25 ケイジャヤ、エルエルシー Visualization adapted for direct use by physicians
JP2012040196A (en) * 2010-08-19 2012-03-01 Toshiba Corp Image processor
JP5439453B2 (en) * 2011-10-20 2014-03-12 株式会社東芝 Image display device
US9965863B2 (en) * 2016-08-26 2018-05-08 Elekta, Inc. System and methods for image segmentation using convolutional neural network
KR20200075623A (en) * 2018-12-18 2020-06-26 (주)제노레이 Dental Treatment Planning Apparatus Using Matching Of 2D Medical Image And 3D Medical Image And Method Thereof

Also Published As

Publication number Publication date
JPH119590A (en) 1999-01-19

Similar Documents

Publication Publication Date Title
JP3788847B2 (en) Image processing device
DE10311319B4 (en) Method, system and computer product for planning a cardiac intervention procedure
JP6530371B2 (en) Interactive follow-up visualization
EP1952340B1 (en) Superimposing brain atlas images and brain images with delineation of infarct and penumbra for stroke diagnosis
CN101116110B (en) Medical image viewing protocols
US7620225B2 (en) Method for simple geometric visualization of tubular anatomical structures
JP4748843B2 (en) RECORDING MEDIUM CONTAINING PROGRAM FOR CAUSING COMPUTER TO EXECUTE SPECIFIC AREA EXTRACTION DISPLAY AND DEVICE
EP2301432B1 (en) Projection image creation device, method, and program
JP4688361B2 (en) Organ specific area extraction display device and display method thereof
CN103547902B (en) Generate the device and method for the section protocol that sample is cut into slices
JP4528322B2 (en) Image display device, image display method, and image display program
US20070237369A1 (en) Method for displaying a number of images as well as an imaging system for executing the method
KR20150125436A (en) Apparatus and method for providing additional information according to each region of interest
WO2008030192A1 (en) Detection and localization of vascular occlusion from angiography data
JP4675509B2 (en) Apparatus and method for extracting and displaying specific region of organ
US20190197762A1 (en) Cpr image generation apparatus, method, and program
JP7023162B2 (en) Forecasting device, forecasting method, and forecasting program
JPH0838433A (en) Medical image diagnostic device
JPH08161520A (en) Method for extracting object part from three-dimensional image
JP5414249B2 (en) Image display device
Nyström et al. Skeletonization of volumetric vascular images—distance information utilized for visualization
JP5518970B2 (en) Image display device
WO2021181731A1 (en) Display control device, display control method, and display control program
JP2755267B2 (en) 3D image display device
EP3828836A1 (en) Method and data processing system for providing a two-dimensional unfolded image of at least one tubular structure

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060324

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees