JP4010034B2 - Image creation device - Google Patents

Image creation device Download PDF

Info

Publication number
JP4010034B2
JP4010034B2 JP32443197A JP32443197A JP4010034B2 JP 4010034 B2 JP4010034 B2 JP 4010034B2 JP 32443197 A JP32443197 A JP 32443197A JP 32443197 A JP32443197 A JP 32443197A JP 4010034 B2 JP4010034 B2 JP 4010034B2
Authority
JP
Japan
Prior art keywords
image
line
sight
interest
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32443197A
Other languages
Japanese (ja)
Other versions
JPH11161820A (en
Inventor
浩之 羽賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP32443197A priority Critical patent/JP4010034B2/en
Publication of JPH11161820A publication Critical patent/JPH11161820A/en
Application granted granted Critical
Publication of JP4010034B2 publication Critical patent/JP4010034B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、立体表面を有する関心部位の画像情報を含むボリュームデータ(3次元配列データ)に基づいて画像を作成する画像作成装置に係り、特に関心部位の立体表面についての画像を作成するための技術に関する。
【0002】
【従来の技術】
X線断層撮影(X線CT撮影)や磁気共鳴断層撮影(MRI)の画像再構成処理で得られるボリュームデータは、人間の骨格や内蔵あるいは血管など立体表面を有する関心部位の画像情報を含んでいる。これらの断層撮影の場合、画像再構成処理で得られるボリュームデータに基づき、通常は断層画像を作成・表示することになるのであるが、近年、陰影付けされた関心部位の外観を作成・表示する所謂ボリューム・レンダリング法などのレンダリングによる3次元画像(立体画像)の作成も行われている。このレンダリングによる画像作成の場合、関心部位が部分的に切断された状態で表示されるようなこともある。
【0003】
従来のボリューム・レンダリング法による画像作成では、図9(a)に示すような平行投影法、あるいは、図9(b)に示すような透視投影法を用いるものであるが、あたかも関心部位を実際に見たような3次元画像が得られるので、観察者(医師など)が関心部位の状況を的確に把握する上で大い役立つ。
【0004】
【発明が解決しようとする課題】
しかしながら、従来のレンダリングによる3次元画像の場合、関心部位の立体表面の全貌を一目で把握することが困難であるという問題があった。関心部位の立体表面の全貌を把握するには、視点の異なる(例えば、正面から見たり、背面から見たり、左右の側面それぞれから見るというように)3次元画像を何枚も作成して同時に表示して観察することになるからである。
【0005】
この発明は、上記の事情に鑑み、画像作成対象である関心部位の立体表面の全貌を一目で把握できるような画像を作成することができる画像作成装置を提供することを課題とする。
【0006】
【課題を解決するための手段】
上記課題を達成するため、この発明の画像作成装置は、立体表面を有する関心部位の画像情報を含むボリュームデータ(3次元配列データ)を記憶するボリュームデータ記憶手段と、前記ボリュームデータに基づき画像作成対象の関心部位の立体表面を抽出する立体表面抽出手段と、関心部位の立体表面を観察する時の仮想視線の視線方向を定める基準を設定する視線基準設定手段と、前記関心部位の立体表面を照らす仮想光源を設定する光源設定手段と、仮想視線を視線基準設定手段による基準の定める視線方向となるようにして関心部位の立体表面を走らせる視線走査手段と、仮想光源による照明と関心部位の表面形状とに基づいて関心部位の立体表面に付く仮想陰影を求出する陰影求出手段と、前記関心部位の立体表面を視線走査の走査態様に対応して設定した座標系に従って1枚の平面状画像として展開するとともに陰影求出手段により求められた仮想陰影に対応した変化を画像に付与するようにして展開画像を作成する画像展開手段と、画像作成手段により作成された展開画像を出力する画像出力手段とを備え、前記視線基準設定手段は、関心部位の外表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点を関心部位の外側の全方向から見つめるように設定し、一方、関心部位の内表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点から視線が全方向を見るように設定する。
【0007】
〔作用〕
次に、この発明の画像作成装置により画像作成を実行する際の作用について説明する。
画像の作成にあたって、先ず、立体表面を有する関心部位の画像情報を含むボリュームデータが、ボリュームデータ記憶手段に格納される。次に、立体表面抽出手段により、画像作成対象の関心部位の立体表面をボリュームデータに基づき抽出する。そして、視線基準設定手段により、関心部位の立体表面を観察する時の仮想視線の視線方向を定める基準を設定するとともに、光源設定手段により、画像作成対象の関心部位の立体表面を照らす仮想光源を設定する。具体的には、視線基準設定手段は、関心部位の外表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点を関心部位の外側の全方向から見つめるように設定し、一方、関心部位の内表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点から視線が全方向を見るように設定する。
【0008】
そして、次に視線走査手段により、仮想視線を視線基準設定手段による基準の定める視線方向から、展開方式に応じた走査態様にて画像作成対象の関心部位の立体表面を走らせながら、陰影求出手段により、仮想光源による照明と関心部位の表面形状とに基づき関心部位の立体表面に付く仮想陰影を求出した後、画像展開手段により、前記関心部位の立体表面を視線走査の走査態様に対応して設定した座標系に従って1枚の平面状画像として展開するとともに、陰影求出手段により求められた仮想陰影に対応した変化を画像に付与するようにして展開画像を作成する。この作成された展開画像を画像出力手段により出力する。
つまり、この発明の画像作成装置では、画像作成対象の関心部位の立体表面が、適切な陰影が付けられて立体感のある1枚の平面状の展開画像として作成・出力されるのである。
【0009】
【発明の実施の形態】
続いて、この発明の一実施例を図面を参照しながら説明する。図1は実施例に係る画像作成装置の全体構成を示すブロック図、図2は実施例の画像作成装置による画像作成の具体例を示す模式図である。以下では、理解を容易とするために、図2の具体例を随時参照しながら説明する。
【0010】
図1の画像作成装置は、例えばX線CT撮影における画像再構成処理で得られて送られてくるボリュームデータを記憶するボリュームデータメモリ部1を備えている。このボリュームデータには患者の断層画像情報として、頭蓋骨・血管あるいは心臓や腎臓等の臓器などの立体表面を有する関心部位の画像情報も含まれている。なお、ここで言う関心部位の立体表面とは、関心部位の外表面(頭蓋骨の外表面や血管の外壁面)だけでなくて、内部が中空の関心部位の内表面(頭蓋骨の内表面や血管の内壁面)を指す場合もある。
なお、図2の場合は、関心部位は例えば頭蓋骨Mのような球状体であって、頭蓋骨Mの外表面(立体表面)MSについての画像を作成する時のものである。
【0011】
この実施例の装置は、ボリュームデータに基づき画像作成対象の関心部位の立体表面を抽出する立体表面抽出手段を備えている。つまり、立体表面抽出手段でもって、図2に示す頭蓋骨Mの外表面MSを画像作成対象として抽出することになるのであるが、外表面MSの抽出は頭蓋骨Mとそれを包む頭皮などの軟組織の境界面を抽出することであるので、所謂サーフェスレンダリング法における境界面抽出が利用できる。頭蓋骨のCT値と軟組織のCT値は一定程度の差があるので、両者のCT値の間の適当なCT値を閾値としてセットすることで骨と軟組織の境界面、つまり頭蓋骨Mの外表面MSを抽出することができる。
【0012】
外表面MSの抽出のための閾値となるCT値は、キーボード2やマウス3から入力して設定データメモリ部4へ格納することになる。
なお、この発明の場合、境界面を明確に抽出するサーフェスレンダリング法以外に、例えば、境界面を一定のあいまい度をもって抽出できるボリュームレンダリング法の境界面抽出も利用可能である。
【0013】
また、この発明のように、ボリュームデータに内在する関心部位の立体表面を観察(視覚化つまり画像化)するのには仮想視線と仮想照明が必要であり、実施例装置は、関心部位の立体表面を観察する時の仮想視線の視線方向を定める基準を設定する視線基準設定手段と、画像作成対象の関心部位の立体表面を照らす仮想光源を設定する光源設定手段を備えている。
視線方向がランダムでは関心部位の立体表面を正しく見ることができなくなるので、視線方向は一定の基準に沿って定められるようにする必要がある。
【0014】
図2の場合は、仮想視線Eの視線方向の基準は頭蓋骨Mの内側の中心点maを頭蓋骨Mの外側から常に見つめるように設定されており、視線方向は全て頭蓋骨Mの内側の中心点maを指すことになる。
また、仮想光源の方は、照明光の照射方向が常に仮想視線と一致するよう設定される。勿論、この発明の場合、仮想光源は照明光の照射方向を、常に仮想視線と一致するように設定することが必須というわけではない。
視線方向設定用の中心点maは、頭蓋骨Mの垂直方向中央を水平に横切る断面の断層画像をモニタ5の画面に表示しておき、キーボード2やマウス3によって該当する位置を指定することにより、中心点maの位置を設定データメモリ部4へ格納することになる。
仮想光源の種類や位置もキーボード2やマウス3によって設定し、設定データメモリ部4へ格納する。
【0015】
また、実施例装置は、仮想視線を関心部位の立体表面に走らせる視線走査手段を備えている。勿論、走査中の仮想視線の視線方向は視線基準設定手段による基準の定めるところに従う。
図2の場合、仮想視線Eは常に中心点maを見つめながら、頭蓋骨Mの外表面MSの上をθ方向に沿ってぐるっと一周(360°)する周回走査を、緯度に相当する角度φを少しつづ段階的に変化させながら何度も繰り返して、外表面MSの全域を走査することになる。
【0016】
さらに、関心部位の立体表面の状態を的確に把握するためには、シェーディング(陰影付け)が必要であり、実施例装置は、仮想光源による照明と仮想視線の視線方向とに基づき関心部位の立体表面に付く仮想陰影を求出する陰影求出手段を備えている。
図2に示す画像作成の場合には、仮想視線の視線方向と照明光の照射方向は常に一致しており、グレーレベルグラディエント法等によるシェーディングを用いることができる。
【0017】
実施例におけるグレーベルグラディエント法のシェーディングの場合、図3に示すように、視線方向Eと外表面MSの交点PSにおける外表面MSの傾き、具体的には法線NをCTデータの3次元的強度勾配に従って求めるとともに、法線Nの方向(角度)に応じた陰影度を各交点PSに対し与える。
法線Nの方向は交点PSでの外表面MSの傾きを示していて、法線Nと光源(照明光の方向)とのなす角度の余弦と、光源の強度との積に応じて陰影を付ければ適切な立体感が画像に付けられる。なお、CTデータの3次元的強度勾配を求めるには、交点PSを中心とする例えば3×3×3のデータマトリックスを抽出し、このデータマトリックスにおけるX,Y,Zの各方向の強度勾配をデータ処理で求めた後、これらの強度勾配をベクトル合成すればよい。
勿論、シェーディングはグレーレベルグラディエント法以外の方法で行ってもよいことは言うまでもない。
【0018】
そして、実施例の画像作成装置は、画像作成対象の関心部位の立体表面を視線走査の走査態様に対応して設定した座標系に従って1枚の平面状画像として展開するとともに、陰影求出手段により求められた仮想陰影に対応した変化を画像に付与するようにして展開画像を作成する画像展開手段と、作成された展開画像を出力する画像出力手段とを備えている。つまり、図2の場合で言えば、画像展開手段により頭蓋骨Mの外表面MSを1枚の平面図に適切な陰影付きで展開表示し一目で見れるようにすることになる。
【0019】
より具体的に言えば、視線走査に伴う各仮想視線と外表面MSの各交点PSが、走査方向θを横軸に走査方向φを縦軸とする座標系に従って対応する位置にプロットされ1枚の平面図のかたちの展開画像Mp1として作成されると同時に、各交点PSに対応する各画素の強度(ピクセル値)はそれぞれ前述の通り、各交点PSでの法線Nの方向と照明光の方向および強度により算出して、展開画像メモリ部7に記憶される。
展開画像メモリ部7に記憶された展開画像は、随時に読みだされてモニタ(画像出力手段)5の画面に映し出される。
【0020】
上述した実施例装置の各手段は、CPU(マイクロプロセッサ)8およびプログラムメモリ部9に格納されている制御プログラムでもって構成されており、最終的な展開画像が作成・表示されるよう必要なタイミングで必要なデータ処理や演算制御が実行されることになる。
【0021】
続いて、実施例の画像作成装置による画像作成の図2以外の具体例を幾つか挙げる。
図4に示す画像作成の具体例の場合、視線方向の基準は頭蓋骨Mの内側の中心点maから視線が全方向を見るように設定されており、仮想視線Eは常に中心点maから周囲に向かう以外は、図2の具体例と同じである。したがって、得られる展開画像Mp2は、頭蓋骨Mの内表面MTの全貌を1枚の平面図に適切な陰影付きで展開表示し一目で見れるようにしたものとなる。
【0022】
図5に示す画像作成の参考例の場合、画像作成対象の関心部位がパイプ状の例えば血管Bである。視線方向の基準は、血管Bの内側の中心線naから外側を水平に見て1周し、1周する毎に中心線naに沿って視線を少し移動するよう設定される。具体的には、血管Bの横断面Ba,Bbの位置に対応する2枚の断層画像を表示しておいて、各断層画像の中心点を指定して両中心点を結ぶ指令を入力することにより中心線naを入力し設定データメモリ部4へ格納する。したがって、血管Bの内壁面BTは走査方向θを横軸に走査方向Zを縦軸とする座標系の展開画像Mp3として作成される。
この他は、図2の場合と同様であり、得られる展開画像Mp3は、血管Bの内壁面BTの全貌を1枚の平面図に適切な陰影付きで展開表示し一目で見れるようにしたものとなる。
【0023】
図6に示す画像作成の参考例の場合、視線方向の基準の設定は、仮想視線Eが血管Bの外側から常に中心線naを見つめるように設定される外は、図5の参考例と同じである。したがって、得られる展開画像Mp4は、血管Bの外壁面BSの全貌を1枚の平面図に適切な陰影付きで展開表示し一目で見れるようにしたものとなる。
【0024】
なお、図5の場合、図7に示すように、血管Bが真っ直ぐ延びておらず屈曲している場合があるが、血管Bの横断面Ba,Bbの他に横断面Bcに対応する断層画像も表示して各中心点間を順に結ぶ線を作成したあと、線をスムージングする処理を行えば基準用の中心線naを設定できる。図6の場合で血管Bが真っ直ぐ延びておらず屈曲している場合も同様である。
【0025】
続いて、上述した構成を有する実施例の画像作成装置により展開画像を作成・表示する際の装置動作を図8のフローチャートを参照して説明する。なお、ここでは、図2に示す頭蓋骨Mの外表面MSについての画像を作成する場合を例に採る。
【0026】
〔ステップS1〕ボリュームデータメモリ部1にX線CT撮影などの画像再構成処理により得られたボリュームデータを記憶する。
【0027】
〔ステップS2〕頭蓋骨Mの外表面MSを抽出するための閾値となるCT値をキーボード2およびマウス3から入力し設定データメモリ部4に格納する。
【0028】
〔ステップS3〕仮想視線Eの視線方向を定める基準をキーボード2およびマウス3から入力し、中心点maなどを設定データメモリ部4に格納する。
【0029】
〔ステップS4〕頭蓋骨Mの外表面MSを照明する仮想光源を照射方向が常に視線方向と一致するようキーボード2およびマウス3から入力し設定する。
【0030】
〔ステップS5〕頭蓋骨Mの外表面MSの上を仮想視線Eを走らせる視線走査を実行しながら、視線方向Eと外表面MSの交点PSの法線の方向を求め、この法線Nと照明光の方向とのなす角度の余弦と、光源の強度との積を求めて各交点PSの陰影度を決定する。
【0031】
〔ステップS6〕視線走査に伴う各仮想視線Eと外表面MSの各交点PSを、走査方向θを横軸に走査方向φを縦軸とする座標系に従って対応する位置にプロットし1枚の平面図のかたちの展開画像Mp1とすると同時に、各交点PSに対応する各画素の強度(ピクセル値)をステップS5で求めた陰影度に応じた値として、展開画像メモリ部7に格納する。
【0032】
〔ステップS7〕作成した展開画像Mp1をモニタ5の画面に表示する。展開画像Mp1には、頭蓋骨Mの外表面MSが1枚の平面図に適切な陰影付きで示されることになる。
【0033】
〔ステップS8〕視線方向の基準が異なる展開画像を得る場合は、ステップS2に戻り、そうでない場合は、画像作成を終了する。
【0034】
この発明は上記実施の形態に限られることはなく、下記のように変形実施することができる。
【0035】
(1)実施例の画像作成装置では、ボリュームデータがX線CT装置の画像再構成処理により得られたものであったが、ボリュームデータはMRI装置(磁気共鳴断層撮影装置)の画像再構成処理により得られたものであってもよく、この発明が画像形成対象とするボリュームデータは特定の種類のものに限られるものではない。
【0036】
(2)実施例の装置では、関心部位の立体表面に生じる陰影の濃淡が、展開画像の上では輝度の高低として表される構成であったが、陰影の濃淡は、展開画像の上では色の違いとなって現れる構成のものが変形例として挙げられる。
【0037】
(3)この発明の画像作成装置は、X線CT装置など他の装置の中に一体的に組み込まれている構成でもよいし、他の装置の中に全く組み込まれていない独立した別体構成でもよい。
【0038】
(4)実施例の画像作成装置では、画像出力手段としてモニタ5が設けられていたが、画像出力手段として、フィルムに展開画像を焼き付けて出力するフィルム記録器を用いることもできる。
【0039】
【発明の効果】
この発明の画像作成装置によれば、関心部位のボリュームデータに基づき、画像作成対象の関心部位の立体表面を、適切な陰影が付けられて立体感のあるかたちで1枚の平面状の展開画像として作成・出力されるので、関心部位の立体表面の全貌を一目で把握することができる。
【図面の簡単な説明】
【図1】実施例に係る画像作成装置の全体構成を示すブロック図である。
【図2】実施例装置による画像作成の具体例を示す模式図である。
【図3】実施例装置における画像作成対象の立体表面の影付けを説明するための模式図である。
【図4】実施例装置による画像作成の他の具体例を示す模式図である。
【図5】 実施例装置による画像作成の参考例を示す模式図である。
【図6】 実施例装置による画像作成の参考例を示す模式図である。
【図7】 実施例装置による画像作成の参考例を示す模式図である。
【図8】実施例装置による展開画像作成の一連の流れ示すフローチャートである。
【図9】従来の3次元画像の作成方法を説明する模式図である。
【符号の説明】
1 …ボリュームデータメモリ部
2 …キーボード
3 …マウス
5 …モニタ
7 …展開画像メモリ部
8 …CPU
9 …プログラムメモリ部
M …頭蓋骨
MS …外表面
MT …内表面
ma …中心点
na …中心線
B …血管
BS …外壁面
BT …内壁面
Mp1〜Mp4 …展開画像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image creation apparatus that creates an image based on volume data (three-dimensional array data) including image information of a region of interest having a three-dimensional surface, and more particularly to create an image of a three-dimensional surface of a region of interest. Regarding technology.
[0002]
[Prior art]
Volume data obtained by X-ray tomography (X-ray CT imaging) and magnetic resonance tomography (MRI) image reconstruction processing includes image information of a region of interest having a three-dimensional surface such as a human skeleton, internal organs, or blood vessels. Yes. In the case of these tomographic images, a tomographic image is usually created and displayed based on the volume data obtained by the image reconstruction process. In recent years, the appearance of a shaded region of interest is created and displayed. A three-dimensional image (stereoscopic image) is also created by rendering such as a so-called volume rendering method. In the case of creating an image by this rendering, the region of interest may be displayed in a partially cut state.
[0003]
In conventional image creation by volume rendering, a parallel projection method as shown in FIG. 9A or a perspective projection method as shown in FIG. 9B is used. As a result, a three-dimensional image can be obtained, which is very useful for an observer (such as a doctor) to accurately grasp the situation of the region of interest.
[0004]
[Problems to be solved by the invention]
However, in the case of a three-dimensional image obtained by conventional rendering, there is a problem that it is difficult to grasp at a glance the entire surface of the three-dimensional surface of the region of interest. In order to grasp the entire surface of the 3D surface of the region of interest, you can create several 3D images at the same time from different viewpoints (for example, from the front, from the back, from the left and right sides). This is because they are displayed and observed.
[0005]
This invention makes it a subject to provide the image creation apparatus which can produce the image which can grasp | ascertain the whole figure of the solid surface of the region of interest which is an image preparation object at a glance in view of said situation.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an image creating apparatus according to the present invention includes volume data storage means for storing volume data (three-dimensional array data) including image information of a region of interest having a three-dimensional surface, and image creation based on the volume data. A three-dimensional surface extracting means for extracting a three-dimensional surface of a target region of interest; a line-of-sight reference setting means for setting a reference for determining a line-of-sight direction of a virtual line of sight when observing the three-dimensional surface of the target portion; A light source setting means for setting a virtual light source to illuminate, a line-of-sight scanning means for running the three-dimensional surface of the region of interest so that the virtual line of sight is in the line-of-sight direction determined by the line-of-sight reference setting unit, A shadow obtaining means for obtaining a virtual shadow attached to the three-dimensional surface of the region of interest based on the surface shape; Image developing means for developing a developed image by developing a single flat image according to a coordinate system set corresponding to the mode and adding a change corresponding to the virtual shadow obtained by the shadow obtaining means to the image. And an image output means for outputting a developed image created by the image creating means, and the line-of-sight reference setting means, when creating an image of the outer surface of the region of interest, as a reference for the line-of-sight direction of the virtual line of sight, The center point, which is one point inside the region of interest, is set to look from all directions outside the region of interest. On the other hand, when creating an image of the inner surface of the region of interest, It is set so that the line of sight looks in all directions from a central point which is one point inside the region of interest.
[0007]
[Action]
Next, the operation when image creation is executed by the image creation apparatus of the present invention will be described.
In creating an image, first, volume data including image information of a region of interest having a three-dimensional surface is stored in the volume data storage means. Next, the three-dimensional surface extraction means extracts the three-dimensional surface of the region of interest as the image creation target based on the volume data. Then, the line-of-sight reference setting means sets a reference for determining the line-of-sight direction of the virtual line of sight when observing the three-dimensional surface of the region of interest, and the light source setting means uses a virtual light source that illuminates the three-dimensional surface of the region of interest of the image creation target. Set. Specifically, when creating an image of the outer surface of the region of interest, the line-of-sight reference setting means uses a central point that is one point inside the region of interest as a reference for the line-of-sight direction of the virtual line of sight. On the other hand, when creating an image of the inner surface of the region of interest, the line of sight is omnidirectional from the central point that is one point inside the region of interest. Set to watch.
[0008]
Then, the visual line scanning unit causes the virtual line of sight to move from the line-of-sight direction determined by the line-of-sight reference setting unit while moving the three-dimensional surface of the region of interest of the image creation target in a scanning manner according to the development method. Thus, after obtaining a virtual shadow attached to the three-dimensional surface of the region of interest based on the illumination by the virtual light source and the surface shape of the region of interest, the three-dimensional surface of the region of interest corresponds to the scanning mode of the line-of-sight scanning by the image development means. In accordance with the coordinate system set in the above, the image is developed as a single planar image, and a developed image is created so that a change corresponding to the virtual shadow obtained by the shadow finding means is given to the image. The created developed image is output by the image output means.
That is, in the image creating apparatus of the present invention, the three-dimensional surface of the region of interest that is the object of image creation is created and output as a single flat developed image with an appropriate shadow and a three-dimensional effect.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an overall configuration of an image creating apparatus according to an embodiment. FIG. 2 is a schematic diagram illustrating a specific example of image creation by the image creating apparatus according to the embodiment. Hereinafter, in order to facilitate understanding, description will be made with reference to the specific example of FIG. 2 as needed.
[0010]
The image creating apparatus of FIG. 1 includes a volume data memory unit 1 that stores volume data obtained and transmitted by image reconstruction processing in X-ray CT imaging, for example. The volume data includes image information of a region of interest having a three-dimensional surface such as a skull / blood vessel or an organ such as the heart or kidney as tomographic image information of the patient. The three-dimensional surface of the region of interest here refers not only to the outer surface of the region of interest (the outer surface of the skull and the outer wall surface of the blood vessel), but also to the inner surface of the region of interest (the inner surface of the skull and blood vessels). May also refer to the inner wall surface.
In the case of FIG. 2, the region of interest is a spherical body such as the skull M, for example, and is used when an image of the outer surface (three-dimensional surface) MS of the skull M is created.
[0011]
The apparatus according to this embodiment includes a three-dimensional surface extraction unit that extracts a three-dimensional surface of a region of interest as an image creation target based on volume data. That is, with the three-dimensional surface extraction means, the outer surface MS of the skull M shown in FIG. 2 is extracted as an image creation target, but the extraction of the outer surface MS is performed on the skull M and the soft tissue such as the scalp surrounding it. Since the boundary surface is extracted, boundary surface extraction in a so-called surface rendering method can be used. Since there is a certain difference between the CT value of the skull and the CT value of the soft tissue, an appropriate CT value between the two CT values is set as a threshold value, so that the boundary surface between the bone and the soft tissue, that is, the outer surface MS of the skull M Can be extracted.
[0012]
A CT value serving as a threshold value for extracting the outer surface MS is input from the keyboard 2 or the mouse 3 and stored in the setting data memory unit 4.
In the case of the present invention, in addition to the surface rendering method that clearly extracts the boundary surface, for example, boundary surface extraction of a volume rendering method that can extract the boundary surface with a certain degree of ambiguity can be used.
[0013]
Further, as in the present invention, in order to observe (visualize or image) the three-dimensional surface of the region of interest inherent in the volume data, a virtual line of sight and virtual illumination are required. A line-of-sight reference setting unit that sets a reference for determining the line-of-sight direction of the virtual line of sight when observing the surface, and a light source setting unit that sets a virtual light source that illuminates the three-dimensional surface of the region of interest to be image-created.
If the line-of-sight direction is random, the stereoscopic surface of the region of interest cannot be correctly viewed. Therefore, it is necessary to determine the line-of-sight direction along a certain standard.
[0014]
In the case of FIG. 2, the reference of the line-of-sight direction of the virtual line of sight E is set so as to always look at the center point ma inside the skull M from the outside of the skull M, and all line-of-sight directions are center points ma inside the skull M. Will point to.
Further, the direction of the virtual light source is set so that the illumination light irradiation direction always coincides with the virtual line of sight. Of course, in the case of the present invention, it is not essential that the virtual light source always sets the illumination light irradiation direction to coincide with the virtual line of sight.
The center point ma for setting the line-of-sight direction is obtained by displaying a tomographic image of a cross section horizontally crossing the vertical center of the skull M on the screen of the monitor 5 and specifying the corresponding position with the keyboard 2 or the mouse 3. The position of the center point ma is stored in the setting data memory unit 4.
The type and position of the virtual light source are also set by the keyboard 2 and the mouse 3 and stored in the setting data memory unit 4.
[0015]
In addition, the embodiment apparatus includes line-of-sight scanning means for causing the virtual line of sight to run on the three-dimensional surface of the region of interest. Of course, the line-of-sight direction of the virtual line of sight during scanning is determined by the reference determined by the line-of-sight reference setting means.
In the case of FIG. 2, the virtual line of sight E always looks at the center point ma and performs a round scan (360 °) around the outer surface MS of the skull M along the θ direction, with a slight angle φ corresponding to the latitude. The whole area of the outer surface MS is scanned by repeating the process step by step repeatedly.
[0016]
Furthermore, in order to accurately grasp the state of the three-dimensional surface of the region of interest, shading (shading) is necessary, and the embodiment apparatus uses the three-dimensional image of the region of interest based on the illumination by the virtual light source and the line-of-sight direction of the virtual line of sight. A shadow finding means for finding a virtual shadow attached to the surface is provided.
In the case of the image creation shown in FIG. 2, the visual direction of the virtual visual line and the irradiation direction of the illumination light always coincide with each other, and shading by a gray level gradient method or the like can be used.
[0017]
In the case of the shaving of the Gravel gradient method in the embodiment, as shown in FIG. 3, the inclination of the outer surface MS at the intersection PS of the line-of-sight direction E and the outer surface MS, specifically, the normal N is represented in three dimensions of CT data. While calculating | requiring according to an intensity | strength gradient, the shade degree according to the direction (angle) of the normal line N is given with respect to each intersection PS.
The direction of the normal N indicates the inclination of the outer surface MS at the intersection PS, and a shadow is produced according to the product of the cosine of the angle formed by the normal N and the light source (illumination light direction) and the intensity of the light source. If attached, an appropriate stereoscopic effect is added to the image. In order to obtain a three-dimensional intensity gradient of CT data, for example, a 3 × 3 × 3 data matrix centered on the intersection PS is extracted, and intensity gradients in the X, Y, and Z directions in this data matrix are extracted. After obtaining by data processing, these intensity gradients may be vector-synthesized.
Of course, it goes without saying that the shading may be performed by a method other than the gray level gradient method.
[0018]
The image creating apparatus according to the embodiment develops a three-dimensional surface of a region of interest as an image creation target as a single planar image according to a coordinate system set corresponding to the scanning mode of the line-of-sight scanning, and uses a shadow finding unit. Image development means for creating a developed image so as to give a change corresponding to the determined virtual shadow to the image, and image output means for outputting the created developed image are provided. That is, in the case of FIG. 2, the outer surface MS of the skull M is developed and displayed with an appropriate shadow on a single plan view by the image expanding means so that it can be seen at a glance.
[0019]
More specifically, each intersection PS of each virtual line of sight and outer surface MS associated with line-of-sight scanning is plotted at a corresponding position according to a coordinate system with the scanning direction θ as the horizontal axis and the scanning direction φ as the vertical axis. At the same time, the intensity (pixel value) of each pixel corresponding to each intersection PS is the direction of the normal N at each intersection PS and the illumination light as described above. Calculation is made based on the direction and intensity, and is stored in the developed image memory unit 7.
The developed image stored in the developed image memory unit 7 is read out at any time and displayed on the screen of the monitor (image output means) 5.
[0020]
Each unit of the above-described embodiment apparatus is constituted by a control program stored in a CPU (microprocessor) 8 and a program memory unit 9, and a timing required for creating and displaying a final developed image. Thus, necessary data processing and arithmetic control are executed.
[0021]
Subsequently, some specific examples other than FIG. 2 of image creation by the image creation apparatus of the embodiment will be given.
In the specific example of the image creation shown in FIG. 4, the reference of the line-of-sight direction is set so that the line of sight looks in all directions from the center point ma inside the skull M, and the virtual line of sight E is always around the center point ma. Except for going, it is the same as the specific example of FIG. Therefore, the developed image Mp2 obtained is an image in which the entire surface of the inner surface MT of the skull M is developed and displayed with an appropriate shadow on a single plan view so that it can be seen at a glance.
[0022]
In the case of the reference example of image creation shown in FIG. 5, the region of interest for image creation is a pipe-like blood vessel B, for example. The reference of the line-of-sight direction is set so that the outer side is viewed horizontally from the inner center line na of the blood vessel B, and the line of sight is moved slightly along the center line na every time it makes one turn. Specifically, two tomographic images corresponding to the positions of the cross-sections Ba and Bb of the blood vessel B are displayed, a center point of each tomographic image is designated, and a command to connect both center points is input. Thus, the center line na is input and stored in the setting data memory unit 4. Therefore, the inner wall surface BT of the blood vessel B is created as a developed image Mp3 in a coordinate system with the scanning direction θ as the horizontal axis and the scanning direction Z as the vertical axis.
Other than this, it is the same as the case of FIG. 2, and the developed image Mp3 obtained is the one in which the entire image of the inner wall surface BT of the blood vessel B is unfolded and displayed on a single plan view with an appropriate shade. It becomes.
[0023]
In the case of the reference example of image creation shown in FIG. 6, the setting of the reference of the line-of-sight direction is the same as the reference example of FIG. 5 except that the virtual line-of-sight E is always set to look at the center line na from the outside of the blood vessel B. It is. Therefore, the developed image Mp4 obtained is the one in which the entire appearance of the outer wall surface BS of the blood vessel B is developed and displayed with appropriate shading on one plan view and can be seen at a glance.
[0024]
In the case of FIG. 5, as shown in FIG. 7, the blood vessel B may be bent without extending straight, but the tomographic image corresponding to the cross section Bc in addition to the cross sections Ba and Bb of the blood vessel B. The reference center line na can be set by performing a process of smoothing the line after creating a line connecting the center points in order. The same applies to the case where the blood vessel B does not extend straight and is bent in the case of FIG.
[0025]
Next, the operation of the apparatus when creating and displaying a developed image by the image creating apparatus of the embodiment having the above-described configuration will be described with reference to the flowchart of FIG. Here, the case of creating an image of the outer surface MS of the skull M shown in FIG. 2 is taken as an example.
[0026]
[Step S1] Volume data obtained by image reconstruction processing such as X-ray CT imaging is stored in the volume data memory unit 1.
[0027]
[Step S2] A CT value serving as a threshold for extracting the outer surface MS of the skull M is input from the keyboard 2 and the mouse 3, and stored in the setting data memory unit 4.
[0028]
[Step S3] A reference for determining the viewing direction of the virtual viewing line E is input from the keyboard 2 and the mouse 3, and the center point ma and the like are stored in the setting data memory unit 4.
[0029]
[Step S4] A virtual light source for illuminating the outer surface MS of the skull M is input and set from the keyboard 2 and the mouse 3 so that the irradiation direction always matches the line-of-sight direction.
[0030]
[Step S5] While performing a line-of-sight scan that runs the virtual line of sight E over the outer surface MS of the skull M, the normal direction of the intersection PS of the line-of-sight direction E and the outer surface MS is obtained, and this normal N and illumination The product of the cosine of the angle formed by the light direction and the intensity of the light source is obtained to determine the shade of each intersection PS.
[0031]
[Step S6] Each intersection PS of the virtual line of sight E and the outer surface MS accompanying the line-of-sight scan is plotted at a corresponding position according to a coordinate system with the scanning direction θ as the horizontal axis and the scanning direction φ as the vertical axis. At the same time as the developed image Mp1 in the figure, the intensity (pixel value) of each pixel corresponding to each intersection PS is stored in the developed image memory unit 7 as a value corresponding to the shade degree obtained in step S5.
[0032]
[Step S7] The developed developed image Mp1 is displayed on the screen of the monitor 5. In the developed image Mp1, the outer surface MS of the skull M is shown with appropriate shading in one plan view.
[0033]
[Step S8] If a developed image having a different line-of-sight reference is obtained, the process returns to step S2, and if not, image creation is terminated.
[0034]
The present invention is not limited to the above embodiment, and can be modified as follows.
[0035]
(1) In the image creating apparatus according to the embodiment, the volume data is obtained by the image reconstruction process of the X-ray CT apparatus, but the volume data is the image reconstruction process of the MRI apparatus (magnetic resonance tomography apparatus). The volume data targeted for image formation by the present invention is not limited to a specific type.
[0036]
(2) In the apparatus according to the embodiment, the shade density generated on the three-dimensional surface of the region of interest is expressed as high or low brightness on the developed image, but the shade density is a color on the developed image. A configuration that appears as a difference is given as a modification.
[0037]
(3) The image creating apparatus of the present invention may be configured to be integrally incorporated in another apparatus such as an X-ray CT apparatus, or may be an independent separate configuration that is not incorporated at all in another apparatus. But you can.
[0038]
(4) In the image creating apparatus of the embodiment, the monitor 5 is provided as the image output means. However, a film recorder that prints a developed image on a film and outputs it can also be used as the image output means.
[0039]
【The invention's effect】
According to the image creating apparatus of the present invention, based on the volume data of the region of interest, the three-dimensional surface of the region of interest to be image-created is displayed as a single flat developed image with an appropriate shadow and a three-dimensional appearance. As a result, it is possible to grasp at a glance the entire surface of the three-dimensional surface of the region of interest.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an overall configuration of an image creating apparatus according to an embodiment.
FIG. 2 is a schematic diagram showing a specific example of image creation by the embodiment apparatus.
FIG. 3 is a schematic diagram for explaining shading of a three-dimensional surface to be image created in the embodiment apparatus.
FIG. 4 is a schematic diagram illustrating another specific example of image creation by the embodiment apparatus.
FIG. 5 is a schematic diagram illustrating a reference example of image creation by the embodiment device.
FIG. 6 is a schematic diagram illustrating a reference example of image creation by the embodiment device.
FIG. 7 is a schematic diagram illustrating a reference example of image creation by the example device.
FIG. 8 is a flowchart showing a series of flow of creating a developed image by the embodiment apparatus.
FIG. 9 is a schematic diagram illustrating a conventional method for creating a three-dimensional image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Volume data memory part 2 ... Keyboard 3 ... Mouse 5 ... Monitor 7 ... Expanded image memory part 8 ... CPU
9: Program memory M: Skull MS ... Outer surface MT ... Inner surface ma ... Center point na ... Center line B ... Blood vessel BS ... Outer wall surface BT ... Inner wall surface Mp1-Mp4 ... Expanded image

Claims (1)

立体表面を有する関心部位の画像情報を含むボリュームデータ(3次元配列データ)を記憶するボリュームデータ記憶手段と、前記ボリュームデータに基づき画像作成対象の関心部位の立体表面を抽出する立体表面抽出手段と、関心部位の立体表面を観察する時の仮想視線の視線方向を定める基準を設定する視線基準設定手段と、前記関心部位の立体表面を照らす仮想光源を設定する光源設定手段と、仮想視線を視線基準設定手段による基準の定める視線方向となるようにして関心部位の立体表面を走らせる視線走査手段と、仮想光源による照明と関心部位の表面形状とに基づいて関心部位の立体表面に付く仮想陰影を求出する陰影求出手段と、前記関心部位の立体表面を視線走査の走査態様に対応して設定した座標系に従って1枚の平面状画像として展開するとともに陰影求出手段により求められた仮想陰影に対応した変化を画像に付与するようにして展開画像を作成する画像展開手段と、画像作成手段により作成された展開画像を出力する画像出力手段とを備え、前記視線基準設定手段は、関心部位の外表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点を関心部位の外側の全方向から見つめるように設定し、一方、関心部位の内表面の画像を作成するときは、仮想視線の視線方向の基準として、関心部位の内側の1点である中心点から視線が全方向を見るように設定することを特徴とする画像作成装置。  Volume data storage means for storing volume data (three-dimensional array data) including image information of a part of interest having a three-dimensional surface, and three-dimensional surface extraction means for extracting a three-dimensional surface of the part of interest to be imaged based on the volume data , Line-of-sight reference setting means for setting a reference for determining the line-of-sight direction of the virtual line of sight when observing the three-dimensional surface of the region of interest, light source setting means for setting a virtual light source that illuminates the three-dimensional surface of the region of interest, and line of sight of the virtual line of sight A line-of-sight scanning means for running the three-dimensional surface of the site of interest so as to be in the direction of the line of sight determined by the reference setting means, and a virtual shadow attached to the three-dimensional surface of the site of interest based on the illumination by the virtual light source and the surface shape of the site of interest And a shadow finding means for finding a solid surface according to a coordinate system in which the three-dimensional surface of the region of interest is set corresponding to the scanning mode of the line-of-sight scanning. An image development means for creating a developed image so as to give the image a change corresponding to the virtual shadow obtained by the shadow finding means while developing the image, and an image for outputting the developed image created by the image creation means Output means, and when the visual line reference setting means creates an image of the outer surface of the region of interest, a central point that is one point inside the region of interest is used as a reference of the visual line direction of the virtual line of sight. When the image of the inner surface of the region of interest is created, the line of sight from the center point, which is one point inside the region of interest, is used as the reference for the direction of the line of sight of the virtual line of sight. An image creating apparatus, characterized in that it is set so as to see a direction.
JP32443197A 1997-11-26 1997-11-26 Image creation device Expired - Fee Related JP4010034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32443197A JP4010034B2 (en) 1997-11-26 1997-11-26 Image creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32443197A JP4010034B2 (en) 1997-11-26 1997-11-26 Image creation device

Publications (2)

Publication Number Publication Date
JPH11161820A JPH11161820A (en) 1999-06-18
JP4010034B2 true JP4010034B2 (en) 2007-11-21

Family

ID=18165735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32443197A Expired - Fee Related JP4010034B2 (en) 1997-11-26 1997-11-26 Image creation device

Country Status (1)

Country Link
JP (1) JP4010034B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100609743B1 (en) * 1999-05-28 2006-08-09 엘지.필립스 엘시디 주식회사 Method of Volumetric 3-Dimension Picture Display
GB0307345D0 (en) 2003-03-29 2003-05-07 Pilkington Plc Glazing inspection
JP4634179B2 (en) * 2005-02-15 2011-02-16 株式会社日立メディコ Diagnostic imaging equipment
KR100750468B1 (en) 2005-09-05 2007-08-22 장철진 Image bumping method by using virtual light
JP5525713B2 (en) * 2008-10-16 2014-06-18 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic signal processing apparatus, and ultrasonic signal processing program
JP5502583B2 (en) * 2009-11-12 2014-05-28 学校法人日本医科大学 Image display apparatus, image display program, and image diagnostic apparatus
KR101189687B1 (en) * 2012-05-11 2012-10-11 (주) 엔소울즈 Method for creating 3d character
US9659405B2 (en) * 2015-04-01 2017-05-23 Toshiba Medical Systems Corporation Image processing method and apparatus

Also Published As

Publication number Publication date
JPH11161820A (en) 1999-06-18

Similar Documents

Publication Publication Date Title
CN110010249B (en) Augmented reality operation navigation method and system based on video superposition and electronic equipment
US6480732B1 (en) Medical image processing device for producing a composite image of the three-dimensional images
USRE35798E (en) Three-dimensional image processing apparatus
CN110383345B (en) Flattened views for lumen navigation
US8537159B2 (en) Visualization of voxel data
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
JP4786307B2 (en) Image processing device
RU2419882C2 (en) Method of visualising sectional planes for arched oblong structures
US20050148848A1 (en) Stereo display of tube-like structures and improved techniques therefor ("stereo display")
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
US20130170726A1 (en) Registration of scanned objects obtained from different orientations
JP4233547B2 (en) Image display processing method
KR19990023201A (en) Image display method and image display device
CN103356155A (en) Virtual endoscope assisted cavity lesion examination system
US7639867B2 (en) Medical image generating apparatus and method, and program
US9491443B2 (en) Image processing method and image processing apparatus
CN101069655A (en) Method and apparatus for examining hollow lumen by virtual endoscope
JP4010034B2 (en) Image creation device
CN102548480B (en) Device and method for displaying medical image and program
JPH1176228A (en) Three-dimensional image construction apparatus
JP2006061274A (en) Program and endoscope system
CN108885797B (en) Imaging system and method
KR100420791B1 (en) Method for generating 3-dimensional volume-section combination image
JP2000105838A (en) Image display method and image processor
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070827

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees