JP3641788B2 - 3D image construction method - Google Patents

3D image construction method Download PDF

Info

Publication number
JP3641788B2
JP3641788B2 JP23899294A JP23899294A JP3641788B2 JP 3641788 B2 JP3641788 B2 JP 3641788B2 JP 23899294 A JP23899294 A JP 23899294A JP 23899294 A JP23899294 A JP 23899294A JP 3641788 B2 JP3641788 B2 JP 3641788B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
displayed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23899294A
Other languages
Japanese (ja)
Other versions
JPH08106546A (en
Inventor
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP23899294A priority Critical patent/JP3641788B2/en
Publication of JPH08106546A publication Critical patent/JPH08106546A/en
Application granted granted Critical
Publication of JP3641788B2 publication Critical patent/JP3641788B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、例えば胃や肝臓等の複数枚のサーフェイス三次元画像を合成して、合成三次元画像を構成したり、あるいは、その合成三次元画像の中から任意に選択された1又は2以上のサーフェイス三次元画像、例えば胃のサーフェイス三次元画像のみを削除したりすることが可能な三次元画像の構成方法に関するものである。
【0002】
【従来の技術】
近年、複数枚のCT画像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像にデプス法で陰影付けを行って三次元画像(デプス画像)を構成し、これにサーフェイス法を用いて変換した三次元画像(サーフェイス三次元画像)を、診断や手術前の計画段階において利用するようになってきた。
【0003】
ここで、デプス法とはCT画像上の各画素からそれを投影する箇所までの距離に応じて陰影を付ける方法で、通常はその距離が長いほど、陰影を濃く(暗く)する。また、サーフェイス法とは濃度勾配を画像化する方法で、通常は濃度勾配が小さいとき画素値を大きく(明るく)、濃度勾配が大きいとき画素値を小さく(暗く)する。
【0004】
このような三次元画像(サーフェイス三次元画像)は、一連のCT画像の積上げ三次元画像中に含まれていれば、1つの部位、例えば胃のみならず、そのうちのどの部位、例えば肝臓,腸等についても得ることが可能であり、最近では、同時に複数枚のサーフェイス三次元画像を表示することも可能になっている。
【0005】
しかし従来は、胃や肝臓等の三次元画像を抽出した時点ではそれら三次元画像相互間を区別せず同じ抽出データとして扱い、それらを同時表示した時に初めて視覚的にそれらを区別できるようにするというものであった。すなわち従来は、一連のCT画像の積上げ三次元画像中に含まれている部位中の選択された部位、例えば胃及び肝臓を三次元画像データとして抽出した場合、それら胃及び肝臓を常に同時表示するか、あるいは各々個別に抽出した胃又は肝臓の単体のサーフェイス三次元画像を単独に表示するというものであった。
【0006】
【発明が解決しようとする課題】
このため、例えば胃と肝臓のサーフェイス三次元画像が同時に表示されている合成三次元画像から、胃のサーフェイス三次元画像のみを取り除くように指示して肝臓のサーフェイス三次元画像だけを残す(表示する)ということはできなかった。しかし、このようなサーフェイス三次元画像の合成や、そのうち一部のサーフェイス三次元画像の削除は、例えば画像ワークスーテション上での診断や手術前のシミュレーション等で極めて有益であり、従来からその実現が要望されていた。
【0007】
本発明の目的は、上記要望に鑑みてなされたもので、複数枚のサーフェイス三次元画像を合成して1枚の合成三次元画像を構成できるばかりか、構成された合成三次元画像、すなわち同時に表示、特に重なって表示されている複数のサーフェイス三次元画像から所望の1又は2以上のサーフェイス三次元画像を取り除いて所望の1又は2以上のサーフェイス三次元画像を残留表示可能とした三次元画像の構成方法を提供することにある。
【0008】
【課題を解決するための手段】
上記目的は、複数枚のCT画像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像の中の所望の複数部分について各々デプス法で陰影付けを行って複数枚のデプス画像を得、各デプス画像をサーフェイス法を用いて変換して得られた複数枚のサーフェイス三次元画像を合成して1枚の合成三次元画像を構成する三次元画像の構成方法において、前記複数枚のサーフェイス三次元画像の同一位置の画素の各画素値のうち、前記合成三次元画像の投影面に最も近い距離に位置するサーフェイス三次元画像の画素の画素値を、前記合成三次元画像を構成する画素の画素値として選択,付与して行くことにより前記合成三次元画像を構成し、同時に、前記合成三次元画像の各画素位置とその画素位置の画素値が選択されたサーフェイス三次元画像の識別記号とを表示識別マップに記録しておく合成三次元画像構成法と、この合成三次元画像構成法で構成された合成三次元画像中の任意に指示された画素位置に対応する前記表示識別マップの画素位置を参照して削除すべきサーフェイス三次元画像を判別し、そのサーフェイス三次元画像を除いた残余の全サーフェイス三次元画像を用い、前記合成三次元画像構成法にて新たな合成三次元画像を構成することにより前記合成三次元画像中の所望のサーフェイス三次元画像を削除する三次元画像削除法とを設けることにより達成される。
【0009】
【作用】
前記合成三次元画像構成法においては、合成三次元画像を構成する際、同時に、合成三次元画像の各画素位置とその画素位置の画素値が選択されたサーフェイス三次元画像の識別記号とを表示識別マップに記録する。
【0010】
前記三次元画像削除法においては、前記合成三次元画像構成法で構成された合成三次元画像中の任意に指示された画素位置に対応する前記表示識別マップの画素位置を参照して削除すべきサーフェイス三次元画像を判別する。そして、そのサーフェイス三次元画像を除いた残余の全サーフェイス三次元画像を用い、前記合成三次元画像構成法にて新たな合成三次元画像を構成して前記合成三次元画像中の所望のサーフェイス三次元画像を削除する。
【0011】
これにより、構成された合成三次元画像、すなわち同時に表示、特に重なって表示されている複数のサーフェイス三次元画像から所望の1又は2以上のサーフェイス三次元画像を取り除いて所望の1又は2以上のサーフェイス三次元画像が残留表示可能となる。
【0012】
【実施例】
以下、図面を参照して本発明の実施例を説明する。
図1及び図8は、各々本発明による三次元画像の構成方法の一実施例の要部を示す図で、そのうち図1は合成三次元画像構成法の一例を示すフローチャート、図8は三次元画像削除法の一例を示すフローチャートである。
【0013】
本発明方法は、複数枚のCT画像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像の中の所望の複数部分について各々デプス法で陰影付けを行って複数枚のデプス画像を得、各デプス画像をサーフェイス法を用いて変換して得られた複数枚のサーフェイス三次元画像を合成して1枚の合成三次元画像を構成する方法に適用される。
そして、このような方法において、前記複数枚のサーフェイス三次元画像の同一位置の画素の各画素値のうち、前記合成三次元画像の投影面(視点面)に最も近い距離に位置するサーフェイス三次元画像の画素の画素値を、前記合成三次元画像を構成する画素の画素値として選択,付与して行くことにより前記合成三次元画像を構成する。また、この合成三次元画像の構成と同時に、前記合成三次元画像の各画素位置とその画素位置の画素値が選択されたサーフェイス三次元画像の識別記号とを表示識別マップに記録しておくものである(図1参照)。
そして、このようにして構成された合成三次元画像中の任意に指示された画素位置に対応する前記表示識別マップの画素位置を参照して削除すべき三次元画像を判別し、その三次元画像を除いた残余の全サーフェイス三次元画像を用い、上記と同様にして新たな合成三次元画像を構成することにより前記合成三次元画像中の所望の三次元画像を削除するようにしたものである(図8参照)。
【0014】
以下、本発明による三次元画像の構成方法の一実施例を合成三次元画像の構成と、構成後の合成三次元画像からの任意のサーフェイス三次元画像の削除とに分けて説明する。
【0015】
まず、本発明方法における合成三次元画像の構成例を図2〜図7を併用し、図1のステップ毎に順次説明する。なお図においては、CT画像をCT像と、サーフェイス三次元画像を3D画像又はサーフェイス画像と記してある。
【0016】
ステップ11
1枚のCT画像CT1から所望の部分、例えば肝臓等の臓器領域(対象A)を抽出する。この抽出は、例えば後述マウス97を使った上記対象Aの輪郭のトレース等による。抽出結果は、画素点(画素位置)の座標x,yの組みとして、図2中のメモリ34に格納する。
【0017】
ステップ12
n枚のCT画像CT1〜CTnがある場合、各々のCT画像CT1〜CTnについてステップ11を繰り返す。そのため、このステップ12ではCT画像n枚の全てについてステップ11の処理が終了したかどうかを判定する。
【0018】
ステップ13
前記1枚のCT画像CT1から例えば胃等の臓器領域(対象B)を抽出する。抽出結果は、画素点の座標x,yの組みとして、図2中のメモリ35に格納する。
【0019】
ステップ14
n枚のCT画像CT1〜CTnがある場合、各々のCT画像についてステップ13を繰り返す。そのため、このステップ14ではCT画像n枚の全てについてステップ13の処理が終了したかどうかを判定する。
最終的には、N個の臓器領域(対象A,B,…N)を抽出する。N個の対象のうちどれを合成三次元画像の構成に利用するか示すのに除外一覧テーブル(図示せず)を使う。この除外一覧テーブルは、抽出された対象A,B,…Nの識別記号とその識別記号の各々に対応する対象利用選択欄とからなり、対象利用選択欄に0が記録されていればそれに対応する対象(画像)を利用し、1ならば利用しないことを示す。この時点では、全ての対象利用選択欄に0(「利用する」)が記録されているものとする。
【0020】
ステップ15
対象Aのサーフェイス三次元画像を構成する。
図3において、CT画像41上の点p1,p2,…が対象Aの点である。これらの点を視点面(投影面)40に投影し、P1,P2,…とする。この時、視点面40からの距離がより近い点が最後に残るように各点(画素位置)を二次元メモリ(図示せず)に記録して行く。また、各画素位置について記録する画素値は視点面40に近いほど大きな値とする。このようにして、視点面40に対応する前記二次元メモリには視点面40からの距離に応じて陰影付けしたデプス画像50(図4参照)が得られる。更に、そのデプス画像50をサーフェイス三次元画像51(図4参照)に変換する。すなわち、デプス画像50の濃度のつくる勾配(濃度勾配)を求め、その勾配が大きいほど暗く、小さいほど明るい画素値を与え、サーフェイス三次元画像51を構成する。なお図3において、Xは投影面40のX軸、Yは同じくY軸、αは原点Oから投影面40に下ろした垂線をz−x面に投影した線がx軸となす角、βは上記垂線がz−x面となす角である。また、図4中の矢印はデプス画像50の各部分(面素)の向きを示す。
【0021】
ステップ16
ステップ15と同様にして、対象Bのサーフェイス三次元画像を構成する。最終的にはN個(対象A,B,…N)のサーフェイス三次元画像を構成する。
【0022】
ステップ17
対象A,B,…Nのサーフェイス三次元画像A,B,…Nを、各々対応するデプス画像A,B,…Nを参照しつつ合成して1枚の合成三次元画像を構成する。構成された合成三次元画像は図5の画像表示用メモリ93に記録される。
すなわち図5において、サーフェイス三次元画像A(対象A)の点a1、サーフェイス三次元画像B(対象B)の点b1、…サーフェイス三次元画像N(対象N)の点n1は合成三次元画像の構成に当たって同一位置(同一画素)になるものとする。この場合、a1,b1,…n1のどの点の画素値を選んで画像表示用メモリ93の対応する点の画素値とすべきかは、各サーフェイス三次元画像A,B,…Nに対応するデプス画像A,B,…N中の対応する各点ra1,rb1,…rn1を参照して決める。点a1,b1,…n1のうち、前記視点面40に最も近い点の画素値を画像表示用メモリ93の対応する点の画素値とするため、ステップ15で得られたデプス画像A,B,…Nの対応する点ra1,rb1,…rn1の最大値を探す(比較ステップ66参照)。いま、点rbkが最大値だとすると、点bkの画素値を画像表示用メモリ93の対応する点の画素値とする(選択ステップ67参照)。例えば、点rb1が最大値ならば点b1の画素値を画像表示用メモリ93の対応する点に格納する。同時に、それらの点bk、点b1…に画素値を与えたサーフェイス三次元画像の識別記号(ここでは画像番号B)をその合成三次元画像70の画素位置と共に表示識別マップ68に記録する。
【0023】
表示識別マップ68は例えば図6に示すようになり、合成三次元画像70の各点(画素位置)にどのサーフェイス三次元画像の画素値を与えているかの識別記号が記録される。図6中、0は背景を示し、1、2、3は各々合成三次元画像70を構成する各サーフェイス三次元画像の識別記号を示す。以上の処理を前記視点面40の全ての点(画素位置)について行い、合成三次元画像70を構成する。
【0024】
ステップ18
構成された合成三次元画像70をモニタ94に表示する(図7参照)。
【0025】
次に、本発明方法における三次元画像削除例、すなわち合成三次元画像70の中からの一部のサーフェイス三次元画像(対象:臓器画像)を削除する例を図5〜図7を併用し、図8のステップ毎に順次説明する。
【0026】
ステップ21
上述したように構成され、表示されている合成三次元画像70の中から一部のサーフェイス三次元画像を削除するのか、あるいは全てのサーフェイス三次元画像を合成して表示(上述合成三次元画像の構成,表示)するのかを選択するアイコンが前記ステップ18におけるモニタ94に表示されるものとする。図7において、IC1は削除指令用アイコン、IC2は全サーフェイス三次元画像(合成三次元画像)表示用アイコンを示す。これらのアイコンIC1,IC2は、マウス97の操作によって移動するカーソル73をそれらアイコンIC1,IC2の表示領域内に移動させ、その位置でマウス97をクリック(指示)することにより、各々該当する指令が選択され、所定のステップを実行させるものである。すなわち、削除指令用アイコンIC1が指示されると、ステップ24に跳び、そうでなければステップ22に跳ぶ。
【0027】
ステップ22
マウス97がクリックされたとき、それが全サーフェイス三次元画像表示用アイコンIC2の指示であるか否かを判定し、そうであるときにはステップ23に跳び、そうでなければステップ28に跳ぶ。
【0028】
ステップ23
前記除外一覧テーブルの対象利用選択欄の全てに0を記録し、前述ステップ17を実行して合成三次元画像を構成し、前述ステップ18を実行して構成済の合成三次元画像70をモニタ94に表示する(図7参照)。
【0029】
ステップ24
図7に示すように、モニタ94に表示されている合成三次元画像70の中の削除したいサーフェイス三次元画像の表示領域にカーソル73を移動し、その位置でマウス97をクリックして削除したい画像を指示する。
【0030】
ステップ25
表示識別マップ68(図5参照)を参照する。図7の例では、カーソル73が指示しているのは識別記号2の画像であり(図6参照)、したがって以後のステップでは識別記号2のサーフェイス三次元画像の削除が行われる。
【0031】
ステップ26
ステップ25で分かった識別記号、ここでは識別記号2に対応する除外一覧テーブルの対象利用選択欄に1(「利用しない」)を記録する。
【0032】
ステップ27
除外一覧テーブルの対象利用選択欄に1が記録されているサーフェイス三次元画像を除き、前述ステップ17を実行して合成三次元画像を構成し、前述ステップ18を実行して構成済の合成三次元画像70をモニタ94に表示する。
このとき、削除したいサーフェイス三次元画像の表示領域、すなわちステップ25で分かった識別記号、ここでは識別記号2の記入してある領域だけを再構成,表示してもよく、その方が短時間で処理が済む。
【0033】
ステップ28
終了アイコン(図示せず)が選択,指示されているかどうかを判定し、されていれば処理を終了し、そうでなければステップ21に跳ぶ。
以後、ステップ21〜ステップ28を繰り返す。
【0034】
図9は本発明方法が適用可能なハードウェア構成例を示すブロック図である。この図9において、90はCPU、91は主メモリ、92は磁気ディスク、93は画像表示用メモリ、95はマウスコントローラで、これらは共通バス96に接続されている。上記磁気ディスク92には、前記複数枚のCT画像、前記除外一覧テーブル,表示識別マップ及び図1,図8に示した処理を行うためのプログラム等が格納されている。また、94はCRTモニタ、97はマウスである。
【0035】
図示構成において、CPU90は、磁気ディスク92から複数のCT画像及びプログラムを読み出し、主メモリ91及び画像表示用メモリ93等を用いて図1及び図8に示す処理を行う。これにより、CRTモニタ94の画面には、図7に示すような合成三次元画像70等が表示される。
【0036】
マウスコントローラ95に接続されたマウス97は、CPU90で図1及び図8に示す処理を行う際の各種指示(対象抽出時の対象の輪郭のトレース等を含む)や、各種パラメータ値の入力等に用いられる。
得られたデプス画像、サーフェイス三次元画像、合成三次元画像等は、必要に応じて磁気ディスク92に格納される。
【0037】
なお、上述実施例では直接には述べていないが、各デプス画像,サーフェイス三次元画像及び除外一覧テーブル,表示識別マップが存在している限り、前記合成三次元画像構成法と三次元画像削除法とを適用して、一旦、削除したサーフェイス三次元画像をその後に再び加入して新たな合成三次元画像を構成することも可能であることは勿論である。
【0038】
【発明の効果】
以上説明したように本発明によれば、複数枚のサーフェイス三次元画像を合成して1枚の合成三次元画像を構成できるばかりか、構成された合成三次元画像、すなわち同時に表示、特に重なって表示されている複数のサーフェイス三次元画像から所望の1又は2以上のサーフェイス三次元画像を取り除いて所望の1又は2以上のサーフェイス三次元画像が残留表示可能となり、例えば画像ワークスーテション上での診断や手術前のシミュレーション等に極めて有益であるという効果がある。
【図面の簡単な説明】
【図1】本発明方法の要部である合成三次元画像構成法の一例を示すフローチャートである。
【図2】図1に示す合成三次元画像構成法におけるCT画像からの特定臓器領域(対象)の抽出と抽出結果のメモリへの格納の説明図である。
【図3】図1に示す合成三次元画像構成法における三次元画像構成のための透視変換の説明図である。
【図4】デプス画像とサーフェイス三次元画像の一例を示す図である。
【図5】合成三次元画像の構成と表示識別マップの作成の説明図である。
【図6】表示識別マップの作成例を示す図である。
【図7】構成された合成三次元画像のモニタ表示例を示す図である。
【図8】本発明方法の要部である三次元画像削除法の一例を示すフローチャートである。
【図9】本発明方法が適用されたハードウェア構成例を示すブロック図である。
【符号の説明】
CT1〜CTn n枚のCT画像
A,B,…N 抽出対象
40 視点面(投影面)
41 CT画像
50 デプス画像
51 サーフェイス三次元画像
68 表示識別マップ
70 合成三次元画像
73 カーソル
IC1 削除指令用アイコン
IC2 全サーフェイス三次元画像(合成三次元画像)表示用アイコン
90 CPU
91 主メモリ
92 磁気ディスク
93 画像表示用メモリ
94 CRTモニタ
95 マウスコントローラ
96 共通バス
97 マウス
[0001]
[Industrial application fields]
In the present invention, for example, a plurality of surface three-dimensional images such as stomach and liver are combined to form a combined three-dimensional image, or one or two or more arbitrarily selected from the combined three-dimensional image The present invention relates to a method for constructing a three-dimensional image capable of deleting only the surface three-dimensional image, for example, the surface three-dimensional image of the stomach.
[0002]
[Prior art]
In recent years, a plurality of CT images are stacked to obtain a stacked three-dimensional image, and a two-dimensional image viewed from an arbitrary direction is shaded by a depth method to form a three-dimensional image (depth image). A three-dimensional image (surface three-dimensional image) converted using the surface method has come to be used in the planning stage before diagnosis and surgery.
[0003]
Here, the depth method is a method of applying a shadow according to the distance from each pixel on the CT image to a location where the pixel is projected. Usually, the longer the distance, the darker the shadow. The surface method is a method of imaging a density gradient. Usually, the pixel value is increased (lightened) when the density gradient is small, and the pixel value is decreased (darkened) when the density gradient is large.
[0004]
If such a three-dimensional image (surface three-dimensional image) is included in a stacked three-dimensional image of a series of CT images, not only one part, for example, the stomach, but any part thereof, for example, the liver, intestine, etc. In recent years, it has become possible to simultaneously display a plurality of surface three-dimensional images.
[0005]
Conventionally, however, when 3D images of the stomach, liver, etc. are extracted, they are treated as the same extracted data without distinguishing between the 3D images so that they can only be distinguished visually when they are displayed simultaneously. It was that. That is, conventionally, when a selected portion, for example, the stomach and liver, included in the stacked three-dimensional image of a series of CT images is extracted as three-dimensional image data, the stomach and liver are always displayed simultaneously. Alternatively, a single surface three-dimensional image of the stomach or liver extracted individually is displayed separately.
[0006]
[Problems to be solved by the invention]
Therefore, for example, it is instructed to remove only the stomach surface 3D image from the combined 3D image in which the stomach and liver surface 3D images are displayed at the same time, and only the liver surface 3D image is left (displayed). ) Could not be said. However, the synthesis of such a surface 3D image and the deletion of some of the surface 3D images are extremely useful, for example, for diagnosis on an image workstation and simulation before surgery. Was requested.
[0007]
The object of the present invention has been made in view of the above-mentioned demand, and not only can a plurality of surface three-dimensional images be combined to form a single combined three-dimensional image, but also a combined three-dimensional image that is formed, that is, simultaneously. Three-dimensional image in which one or more desired surface three-dimensional images can be retained by removing one or more desired surface three-dimensional images from a plurality of surface three-dimensional images displayed, particularly overlapping A configuration method is provided.
[0008]
[Means for Solving the Problems]
The purpose is to stack a plurality of CT images to obtain a stacked three-dimensional image, which is shaded by a depth method for each of a plurality of desired two-dimensional images viewed from an arbitrary direction. In the method for constructing a three-dimensional image, a depth image is obtained and a plurality of surface three-dimensional images obtained by converting each depth image using a surface method are combined to form a single composite three-dimensional image. Among the pixel values of the pixels at the same position of the plurality of surface three-dimensional images, the pixel value of the pixel of the surface three-dimensional image located at the closest distance to the projection surface of the composite three-dimensional image is used as the composite three-dimensional image. The combined three-dimensional image is formed by selecting and assigning the pixel values of the pixels constituting the image, and at the same time, each pixel position of the combined three-dimensional image and the pixel value at the pixel position are selected. A composite 3D image construction method in which the identification symbol of the Ace 3D image is recorded in the display identification map, and an arbitrarily designated pixel position in the composite 3D image constructed by the composite 3D image construction method. The surface three-dimensional image to be deleted is determined with reference to the corresponding pixel position of the display identification map, and the remaining all surface three-dimensional images excluding the surface three-dimensional image are used. This is achieved by providing a three-dimensional image deletion method for deleting a desired surface three-dimensional image in the composite three-dimensional image by constructing a new composite three-dimensional image.
[0009]
[Action]
In the composite 3D image construction method, when composing a composite 3D image, at the same time, each pixel position of the composite 3D image and an identification symbol of the surface 3D image in which the pixel value of the pixel position is selected are displayed. Record in the identification map.
[0010]
In the three-dimensional image deletion method, deletion should be performed with reference to the pixel position of the display identification map corresponding to the arbitrarily designated pixel position in the composite three-dimensional image formed by the composite three-dimensional image construction method. A surface three-dimensional image is discriminated. Then, using the remaining all surface 3D images excluding the surface 3D image, a new composite 3D image is constructed by the composite 3D image construction method, and a desired surface tertiary in the composite 3D image is formed. Delete the original image.
[0011]
Thus, the desired one or two or more surface three-dimensional images are removed from the constructed composite three-dimensional image, that is, a plurality of surface three-dimensional images that are displayed at the same time, in particular, overlapped, and desired one or two or more The surface 3D image can be displayed as a residual image.
[0012]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 and FIG. 8 are diagrams showing the main part of an embodiment of a 3D image construction method according to the present invention, in which FIG. 1 is a flowchart showing an example of a composite 3D image construction method, and FIG. It is a flowchart which shows an example of the image deletion method.
[0013]
In the method of the present invention, a plurality of CT images are stacked to obtain a stacked three-dimensional image, and a plurality of desired portions in a two-dimensional image viewed from an arbitrary direction are shaded by a depth method. This method is applied to a method of composing a plurality of surface three-dimensional images obtained by converting each depth image using a surface method to construct one composite three-dimensional image.
And in such a method, among the pixel values of the pixels at the same position of the plurality of surface three-dimensional images, the surface three-dimensional image located at the closest distance to the projection surface (viewpoint surface) of the composite three-dimensional image The synthesized three-dimensional image is constructed by selecting and assigning pixel values of pixels of the image as pixel values of pixels constituting the synthesized three-dimensional image. Simultaneously with the composition of the composite 3D image, each pixel position of the composite 3D image and the identification symbol of the surface 3D image in which the pixel value at the pixel position is selected are recorded in the display identification map. (See FIG. 1).
Then, the three-dimensional image to be deleted is determined by referring to the pixel position of the display identification map corresponding to the arbitrarily designated pixel position in the composite three-dimensional image thus configured, and the three-dimensional image Using the remaining all-surface three-dimensional image except for, a new synthesized three-dimensional image is constructed in the same manner as described above to delete a desired three-dimensional image in the synthesized three-dimensional image. (See FIG. 8).
[0014]
In the following, an embodiment of a method for constructing a three-dimensional image according to the present invention will be described separately for the composition of a composite three-dimensional image and the deletion of an arbitrary surface three-dimensional image from the composite three-dimensional image after construction.
[0015]
First, a configuration example of a synthesized three-dimensional image in the method of the present invention will be described sequentially for each step of FIG. 1 using FIGS. In the figure, the CT image is described as a CT image, and the surface three-dimensional image is described as a 3D image or a surface image.
[0016]
Step 11
A desired portion, for example, an organ region (target A) such as a liver is extracted from one CT image CT1. This extraction is performed, for example, by tracing the contour of the object A using the mouse 97 described later. The extraction result is stored in the memory 34 in FIG. 2 as a set of coordinates x and y of the pixel point (pixel position).
[0017]
Step 12
If there are n CT images CT1 to CTn, step 11 is repeated for each CT image CT1 to CTn. Therefore, in step 12, it is determined whether or not the processing in step 11 has been completed for all n CT images.
[0018]
Step 13
An organ region (target B) such as a stomach is extracted from the one CT image CT1. The extraction result is stored in the memory 35 in FIG. 2 as a set of pixel point coordinates x and y.
[0019]
Step 14
If there are n CT images CT1 to CTn, step 13 is repeated for each CT image. For this reason, in step 14, it is determined whether or not the processing in step 13 has been completed for all n CT images.
Finally, N organ regions (objects A, B,... N) are extracted. An exclusion list table (not shown) is used to indicate which of the N objects are used to construct the composite 3D image. This exclusion list table is composed of the identification symbols of the extracted targets A, B,... N and the target usage selection column corresponding to each of the identification symbols, and corresponds to 0 if recorded in the target usage selection column. The target (image) to be used is used, and 1 indicates that it is not used. At this time, it is assumed that 0 (“use”) is recorded in all target use selection fields.
[0020]
Step 15
A surface three-dimensional image of object A is constructed.
3, points p1, p2,... On the CT image 41 are points of the object A. These points are projected onto the viewpoint plane (projection plane) 40 and are designated as P1, P2,. At this time, each point (pixel position) is recorded in a two-dimensional memory (not shown) so that a point having a shorter distance from the viewpoint plane 40 remains at the end. The pixel value recorded for each pixel position is set to a larger value as it is closer to the viewpoint plane 40. In this manner, a depth image 50 (see FIG. 4) shaded according to the distance from the viewpoint plane 40 is obtained in the two-dimensional memory corresponding to the viewpoint plane 40. Further, the depth image 50 is converted into a surface three-dimensional image 51 (see FIG. 4). That is, a gradient (density gradient) created by the density of the depth image 50 is obtained, and the darker the gradient, the brighter the pixel value, the more the surface three-dimensional image 51 is constructed. In FIG. 3, X is the X axis of the projection plane 40, Y is the Y axis, α is the angle formed by the line projected from the origin O to the projection plane 40 on the zx plane and the x axis, and β is The perpendicular is an angle formed with the zx plane. Moreover, the arrow in FIG. 4 shows the direction of each part (surface element) of the depth image 50.
[0021]
Step 16
Similarly to step 15, a surface three-dimensional image of the object B is constructed. Eventually, N (objects A, B,... N) surface three-dimensional images are constructed.
[0022]
Step 17
The surface A, B,... N of the objects A, B,... N are synthesized with reference to the corresponding depth images A, B,. The composed composite three-dimensional image is recorded in the image display memory 93 of FIG.
That is, in FIG. 5, the point a1 of the surface three-dimensional image A (target A), the point b1 of the surface three-dimensional image B (target B),..., The point n1 of the surface three-dimensional image N (target N) is a composite three-dimensional image. In the configuration, the same position (same pixel) is assumed. In this case, which point of pixel values a1, b1,..., N1 should be selected as the pixel value of the corresponding point in the image display memory 93 depends on the depth corresponding to each surface three-dimensional image A, B,. It is determined with reference to the corresponding points ra1, rb1,... Rn1 in the images A, B,. In order to set the pixel value of the point a1, b1,... N1 closest to the viewpoint plane 40 as the pixel value of the corresponding point in the image display memory 93, the depth images A, B,. ... Find the maximum value of N corresponding points ra1, rb1,... Rn1 (see comparison step 66). If the point rbk is the maximum value, the pixel value of the point bk is set as the pixel value of the corresponding point in the image display memory 93 (see selection step 67). For example, if the point rb 1 is the maximum value, the pixel value of the point b 1 is stored in the corresponding point in the image display memory 93. At the same time, an identification symbol (here, image number B) of the surface three-dimensional image in which pixel values are given to the points bk, b1... Is recorded in the display identification map 68 together with the pixel position of the synthesized three-dimensional image 70.
[0023]
The display identification map 68 is as shown in FIG. 6, for example, and an identification symbol indicating which surface three-dimensional image pixel value is given to each point (pixel position) of the combined three-dimensional image 70 is recorded. In FIG. 6, 0 indicates the background, and 1, 2, and 3 indicate the identification symbols of the respective surface three-dimensional images constituting the composite three-dimensional image 70. The above processing is performed for all the points (pixel positions) on the viewpoint plane 40 to form a synthesized three-dimensional image 70.
[0024]
Step 18
The composed composite three-dimensional image 70 is displayed on the monitor 94 (see FIG. 7).
[0025]
Next, an example of deleting a three-dimensional image in the method of the present invention, that is, an example of deleting a part of a surface three-dimensional image (target: organ image) from the synthesized three-dimensional image 70, FIGS. Each step in FIG. 8 will be described sequentially.
[0026]
Step 21
A part of the surface three-dimensional image is deleted from the composite three-dimensional image 70 configured and displayed as described above, or all the surface three-dimensional images are combined and displayed (the above-mentioned composite three-dimensional image is displayed). It is assumed that an icon for selecting whether to configure or display is displayed on the monitor 94 in step 18. In FIG. 7, IC1 indicates a deletion command icon, and IC2 indicates an all-surface 3D image (composite 3D image) display icon. These icons IC1 and IC2 move the cursor 73 that is moved by the operation of the mouse 97 into the display area of the icons IC1 and IC2, and clicks (instructs) the mouse 97 at the position. It is selected and a predetermined step is executed. That is, when the deletion instruction icon IC1 is instructed, the process jumps to step 24, and otherwise jumps to step 22.
[0027]
Step 22
When the mouse 97 is clicked, it is determined whether or not it is an instruction for the all-surface three-dimensional image display icon IC2, and if so, the process jumps to step 23, and otherwise jumps to step 28.
[0028]
Step 23
0 is recorded in all of the target usage selection fields of the exclusion list table, and the above-described step 17 is executed to compose a composite 3D image, and the above-described step 18 is executed to monitor the configured composite 3D image 70. (Refer to FIG. 7).
[0029]
Step 24
As shown in FIG. 7, the cursor 73 is moved to the display area of the surface 3D image to be deleted in the composite 3D image 70 displayed on the monitor 94, and the image to be deleted by clicking the mouse 97 at that position. Instruct.
[0030]
Step 25
Reference is made to the display identification map 68 (see FIG. 5). In the example of FIG. 7, the cursor 73 indicates the image of the identification symbol 2 (see FIG. 6), and therefore the surface three-dimensional image of the identification symbol 2 is deleted in the subsequent steps.
[0031]
Step 26
1 (“not used”) is recorded in the target usage selection column of the exclusion list table corresponding to the identification symbol found in step 25, here the identification symbol 2.
[0032]
Step 27
Except for the surface 3D image in which 1 is recorded in the target use selection field of the exclusion list table, the above-described step 17 is executed to form a combined 3D image, and the above-described step 18 is executed to form the combined 3D image The image 70 is displayed on the monitor 94.
At this time, the display area of the surface three-dimensional image to be deleted, that is, only the identification symbol found in step 25, here, the area where the identification symbol 2 is entered may be reconstructed and displayed. Processing is done.
[0033]
Step 28
It is determined whether or not an end icon (not shown) has been selected and instructed, and if so, the process is ended, and if not, the process jumps to step 21.
Thereafter, Step 21 to Step 28 are repeated.
[0034]
FIG. 9 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied. In FIG. 9, 90 is a CPU, 91 is a main memory, 92 is a magnetic disk, 93 is an image display memory, 95 is a mouse controller, and these are connected to a common bus 96. The magnetic disk 92 stores the plurality of CT images, the exclusion list table, a display identification map, a program for performing the processing shown in FIGS. Reference numeral 94 is a CRT monitor, and 97 is a mouse.
[0035]
In the illustrated configuration, the CPU 90 reads a plurality of CT images and programs from the magnetic disk 92, and performs the processing shown in FIGS. 1 and 8 using the main memory 91, the image display memory 93, and the like. As a result, a composite three-dimensional image 70 as shown in FIG. 7 is displayed on the screen of the CRT monitor 94.
[0036]
The mouse 97 connected to the mouse controller 95 is used for various instructions (including tracing of the contour of the target at the time of target extraction) when the CPU 90 performs the processing shown in FIGS. Used.
The obtained depth image, surface three-dimensional image, composite three-dimensional image, and the like are stored in the magnetic disk 92 as necessary.
[0037]
Although not described directly in the above-described embodiment, as long as each depth image, surface 3D image, exclusion list table, and display identification map exist, the composite 3D image construction method and 3D image deletion method are used. Of course, it is also possible to construct a new composite three-dimensional image by once again joining the deleted surface three-dimensional image.
[0038]
【The invention's effect】
As described above, according to the present invention, not only can a plurality of surface three-dimensional images be combined to form a single combined three-dimensional image, but also the combined three-dimensional image, that is, simultaneously displayed, particularly overlapped. By removing one or more desired surface three-dimensional images from a plurality of displayed surface three-dimensional images, it is possible to display the desired one or more surface three-dimensional images, for example, on an image workstation. It is extremely useful for diagnosis and simulation before surgery.
[Brief description of the drawings]
FIG. 1 is a flowchart showing an example of a synthetic three-dimensional image construction method that is a main part of a method of the present invention.
2 is an explanatory diagram of extraction of a specific organ region (target) from a CT image and storage of the extraction result in a memory in the synthetic three-dimensional image construction method shown in FIG. 1;
3 is an explanatory diagram of perspective transformation for 3D image construction in the composite 3D image construction method shown in FIG. 1. FIG.
FIG. 4 is a diagram illustrating an example of a depth image and a surface three-dimensional image.
FIG. 5 is an explanatory diagram of a composition of a combined three-dimensional image and creation of a display identification map.
FIG. 6 is a diagram illustrating an example of creating a display identification map.
FIG. 7 is a diagram illustrating a monitor display example of a composed composite 3D image.
FIG. 8 is a flowchart showing an example of a three-dimensional image deletion method which is a main part of the method of the present invention.
FIG. 9 is a block diagram showing a hardware configuration example to which the method of the present invention is applied.
[Explanation of symbols]
CT1 to CTn n CT images A, B, ... N Extraction target 40 Viewpoint plane (projection plane)
41 CT image 50 Depth image 51 Surface three-dimensional image 68 Display identification map 70 Composite three-dimensional image 73 Cursor IC1 Deletion command icon IC2 All-surface three-dimensional image (composite three-dimensional image) display icon 90 CPU
91 Main memory 92 Magnetic disk 93 Image display memory 94 CRT monitor 95 Mouse controller 96 Common bus 97 Mouse

Claims (3)

被検体の複数のCT画像を積み上げ、前記被検体の複数の対象が合成された積上げ三次元画像を得、この積上げ三次元画像を任意の方向から見た二次元画像についてデプス法で陰影付けを行ってデプス画像を得、このデプス像に対しサーフェイス法を用いてサーフェイス三次元画像を構成する工程と、
前記構成されたサーフエイス三次元画像をモニタに表示する工程と、
前記表示されたサーフエイス三次元画像中の削除すべき対象を選択する工程と、
前記選択された削除すべき対象を削除するために前記モニタに表示される削除アイコンを表示する工程と、
前記マウスクリックされたことにより前記削除すべき対象を前記表示されたサーフエイス三次元画像から削除する工程と、
具備することを特徴とする三次元画像の構成方法。
A plurality of CT images of the subject are stacked, a stacked three-dimensional image obtained by combining the plurality of subjects of the subject is obtained, and a two-dimensional image obtained by viewing the stacked three-dimensional image from an arbitrary direction is shaded by a depth method. To obtain a depth image and construct a surface three-dimensional image using the surface method for the depth image;
Displaying the structured Surface 3D image on a monitor;
Selecting an object to be deleted in the displayed Surface 3D image;
Displaying a delete icon displayed on the monitor to delete the selected object to be deleted;
Deleting the object to be deleted from the displayed Surface 3D image by the mouse click;
A method for constructing a three-dimensional image, comprising:
前記表示されたサーフエイス三次元画像の各対象の位置情報により表示識別マップを作成し、前記作成された表示識別マップにより表示対象から除外するための除外一覧テーブルを生成する工程をさらに含み、
前記削除工程は、前記生成された除外一覧テーブルに存在する対象を前記表示されたサーフエイス三次元画像から削除することを特徴とする請求項1に記載の三次元画像の構成方法。
Creating a display identification map according to the position information of each target of the displayed Surface 3D image, and further including generating an exclusion list table for excluding from the display target by the generated display identification map;
The method of constructing a 3D image according to claim 1, wherein the deleting step deletes an object existing in the generated exclusion list table from the displayed surface 3D image .
前記サーフエイス三次元画像の全対象を表示するための全対象表示アイコンを前記モニタに表示する工程と、
前記表示された全対象表示アイコンをマウスでクリックする工程と、
前記マウスクリックされたことにより前記削除工程によって表示対象が削除された表示状態から前記サーフエイス三次元画像の全対象を表示する工程と、
さらに具備することを特徴とする請求項1又は2の何れかに記載の三次元画像の構成方法。
Displaying on the monitor an all object display icon for displaying all objects of the Surface 3D image;
Clicking the displayed all target display icon with a mouse;
A step of displaying all objects of the surface 3D image from the display state in which the display object is deleted by the deletion step due to the mouse click;
The method for constructing a three-dimensional image according to claim 1, further comprising :
JP23899294A 1994-10-03 1994-10-03 3D image construction method Expired - Fee Related JP3641788B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23899294A JP3641788B2 (en) 1994-10-03 1994-10-03 3D image construction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23899294A JP3641788B2 (en) 1994-10-03 1994-10-03 3D image construction method

Publications (2)

Publication Number Publication Date
JPH08106546A JPH08106546A (en) 1996-04-23
JP3641788B2 true JP3641788B2 (en) 2005-04-27

Family

ID=17038312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23899294A Expired - Fee Related JP3641788B2 (en) 1994-10-03 1994-10-03 3D image construction method

Country Status (1)

Country Link
JP (1) JP3641788B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3989896B2 (en) 2003-12-25 2007-10-10 ザイオソフト株式会社 Medical image processing apparatus, region of interest extraction method, and program
JP5312932B2 (en) 2006-03-09 2013-10-09 イマグノーシス株式会社 Medical three-dimensional image display control program and medical three-dimensional image display method
JP7411181B2 (en) * 2020-09-28 2024-01-11 株式会社Kompath Medical image processing device, medical image processing method, medical image processing program, and surgical support system
JP7411182B2 (en) * 2020-09-28 2024-01-11 株式会社Kompath Medical image processing device, medical image processing method, medical image processing program, and surgical support system

Also Published As

Publication number Publication date
JPH08106546A (en) 1996-04-23

Similar Documents

Publication Publication Date Title
US5694532A (en) Method for selecting a three-dimensional object from a graphical user interface
JP3790126B2 (en) Spatiotemporal domain information processing method and spatiotemporal domain information processing system
US5619628A (en) 3-Dimensional animation generating apparatus
EP0865000B1 (en) Image processing method and apparatus
JPH06503663A (en) Video creation device
US8330775B2 (en) Systems and methods for merging and splitting intersecting solids and surfaces
JPH1011614A (en) Method and device for setting viewpoint position and line-of-sight direction in three-dimensional picture constitution method
JP4056167B2 (en) Library information search space construction / retrieval apparatus and computer-readable recording medium recording a book information retrieval space construction / retrieval program
JP3641788B2 (en) 3D image construction method
JP4313910B2 (en) Image display device
JP3632862B2 (en) Three-dimensional image display method and apparatus
JPH01134580A (en) Image processor
JPH0997344A (en) Method and system for texture generation
JP3651943B2 (en) Icon creation method and movie frame creation method
JPH0816824A (en) Three-dimensional computer aided design device/method
JP2004187743A (en) Medical three-dimensional image display device
JP3781008B2 (en) Three-dimensional model editing method and apparatus, and computer program
CN113409433A (en) Medical three-dimensional model display and cutting system based on mobile terminal
JP2003158710A (en) Video object editing device and its program
JP3630725B2 (en) Three-dimensional shape input device and input method thereof
JPH06203119A (en) Color image processor
CN112312201B (en) Method, system, device and storage medium for video transition
JPH06208608A (en) Image processor
JP3485913B2 (en) Image display method and apparatus
JPS62145375A (en) Three-dimensional display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees