JP4267598B2 - 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 - Google Patents
画像融合処理方法、画像融合処理プログラム、画像融合処理装置 Download PDFInfo
- Publication number
- JP4267598B2 JP4267598B2 JP2005202313A JP2005202313A JP4267598B2 JP 4267598 B2 JP4267598 B2 JP 4267598B2 JP 2005202313 A JP2005202313 A JP 2005202313A JP 2005202313 A JP2005202313 A JP 2005202313A JP 4267598 B2 JP4267598 B2 JP 4267598B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- calculating
- ratio
- image data
- fusion processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000007499 fusion processing Methods 0.000 title claims description 95
- 238000000034 method Methods 0.000 title claims description 91
- 239000000203 mixture Substances 0.000 claims description 133
- 238000005070 sampling Methods 0.000 claims description 127
- 230000015572 biosynthetic process Effects 0.000 claims description 71
- 238000003786 synthesis reaction Methods 0.000 claims description 71
- 230000004927 fusion Effects 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 51
- 230000003287 optical effect Effects 0.000 claims description 48
- 239000002131 composite material Substances 0.000 claims description 45
- 238000012805 post-processing Methods 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000002600 positron emission tomography Methods 0.000 description 96
- 230000008569 process Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 37
- 230000002159 abnormal effect Effects 0.000 description 35
- 238000003860 storage Methods 0.000 description 29
- 230000000694 effects Effects 0.000 description 21
- 210000000988 bone and bone Anatomy 0.000 description 18
- 238000009877 rendering Methods 0.000 description 17
- 210000001519 tissue Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 206010028980 Neoplasm Diseases 0.000 description 12
- 210000000056 organ Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000003745 diagnosis Methods 0.000 description 6
- 230000002238 attenuated effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 210000004072 lung Anatomy 0.000 description 5
- 238000005266 casting Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 229940121896 radiopharmaceutical Drugs 0.000 description 2
- 239000012217 radiopharmaceutical Substances 0.000 description 2
- 230000002799 radiopharmaceutical effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000012879 PET imaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
マリア・フェレ(Maria Ferre)、アンナ・ピュイグ(Anna Puig)、ダニー・トスト(Dani Tost)、「多様なボリュームデータの合成方法及びレンダリング技術(A framework for fusion methods and rendering techniques of multimodal volume data )」、ジャーナルオブヴィジュアライゼーションアンドコンピュータアニメーション(Journal of Visualization and Computer Animation)、(米国)、2004年5月、15巻(Volume 15)、第2号(Number 2)、p.63-67
さらに、複数の3次元以上の画像データのうち少なくとも1つの3次元以上の画像データに投射した仮想光線上のサンプリング位置のボクセル値と第1基準値とを比較し、その比較結果に応じて合成比率を決定する。この結果、例えば、ボクセル値が第1基準値より大きい部分を強調表示することができる。従って、一層、観察しやすい融合画像を生成することができる。
請求項2に記載の発明は、1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理方法において、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定段階と、前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出段階と、当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出段階と、前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出段階とを備え、前記合成比率決定段階は、前記合成比率を前記ボクセル値の勾配に応じて設定する。
この発明によれば、複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを融合画像を生成するために合成する合成比率を仮想光線上で対応するサンプリング位置において決定し、合成比率に基づいてこの対応するサンプリング位置の合成光パラメータを算出し、合成光パラメータを基に仮想光線に対する部分反射光をサンプリング位置で算出し、部分反射光を積算して融合画像の画素値を算出する。この結果、複数の光パラメータを合成する合成比率を仮想光線上で対応するサンプリング位置において決定するため、情報量が縮退することなく、同一の観察対象から得た複数の3次元以上の画像を融合することができる。
さらに、合成比率をボクセル値の勾配に応じて設定するので、例えば、ボクセル値の勾配(陰影)と組織情報とを区別することができることから、観察対象の輪郭を出力しながらも、観察対象内に3次元的に含まれている組織情報を出力することができる。従って、観察対象上のみならず観察対象内部の状態も観察することができる。
請求項9に記載の発明は、1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理プログラムにおいて、前記1つのコンピュータまたは複数のコンピュータを、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、前記合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段として機能させ、前記合成比率決定手段は、前記合成比率を前記ボクセル値の勾配に応じて設定する。この発明によれば、請求項2に記載の発明と同様の作用効果が得られる。
請求項16に記載の発明は、1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理装置であって、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段とを備え、前記合成比率決定手段は、前記合成比率を前記ボクセル値の勾配に応じて設定する。この発明によれば、請求項2,9に記載の発明と同様の作用効果が得られる。
以下、本発明を具体化した第1実施形態を図1〜図10に従って説明する。
図1に示すように、画像表示装置1は、データベース2から例えば、CT画像撮影装置により撮影されたCT画像データ及びPET画像撮影装置により撮影されたPET画像データを読み取って、医療診断用の画像を生成し画面に表示する。本実施形態では、CT画
像データ及びPET画像データを例に説明するが、これに限定されない。すなわち、使用される画像データは、CT画像データ、PET画像データに限らず、MRI(Magnetic Resonance Imaging)、MRA(Magnetic Resonance Angiography)等の医用画像処理装置より得られる画像データ及びそれらを組み合わせたり加工したりしたものである。
セルデータVD2の濃度値としている。
在位置)が格子上になかったとすると、まず、その投影位置Xn(仮想光線到達位置の現在位置)の周りのボクセルのボクセル値から補間処理を行ってその位置でのボクセル値Dnを計算する。次に、光に対する特性パラメータ(以下、光パラメータPという)を決定する。
Table)関数がある。シェーディング係数βn は、ボクセルデータの表面の凹凸(陰影)
を表すパラメータである。そして、色γn は、ボクセルデータの組織情報、すなわち、ボクセルデータが骨、血液、内臓、あるいは腫瘍であるかの情報を表している。
In =In-1 −αn-1 ×In-1 =In-1 −An-1
En =En-1 +αn ×βn ×γn ×In =En-1 +Fn
そして、図4に示すように、この反射光Enがサンプリング位置毎に加算され、ピクセル値として画像が生成される。
Pは、CT不透明度α1n 、CTシェーディング係数β1n 、CT色γ1n を備えており、第2ボクセルデータVD2の光パラメータPは、PET不透明度α2n 、PETシェーディング係数β2n 、PET色γ2n を備えている。さらに、メモリ部8aには終了位置が予め記憶されている。そして、CPU7は、第1ボクセルデータVD1の光パラメータPと第2ボクセルデータVD2の光パラメータPとをそれぞれ現在位置X1n ,X2n 毎に定めた合成比率CRで投影開始点O1,O2から終了位置まで合成する。
β3n =bβ1n +(1−b)β2n
γ3n =cγ1n +(1−c)γ2n
そして、本実施形態では、図6に示すように、第1合成比率a、第2合成比率b、第3合成比率cのそれぞれをPET画像データDT2の投影位置X2n (仮想光線到達位置の現在位置)の第2ボクセル値D2n に応じて仮想光線到達位置の現在位置毎に決定する。詳述すると、第2ボクセル値D2n が第1基準値T1以下であったとき、第1合成比率a=「1」、すなわち合成不透明度α3n はCT画像データDT1の投影位置(仮想光線到達位置の現在位置)X1n におけるCT不透明度α1n とする。また、第3合成比率c=「1」、すなわち合成色γ3n はCT画像データDT1の現在位置X1n におけるCT色γ1n とする。一方、第2ボクセル値D2n が第1基準値T1以上であったとき、第1合成比率aは同様に「1」とし、第3合成比率c=「0」、すなわち合成色γ3n はPET画像データDT2の投影位置(仮想光線到達位置の現在位置)X2n におけるPET色γ2n とする。なお、本実施形態では、第2ボクセル値D2n の値によらず、第2合成比率b=「1」、すなわち合成シェーディング係数β3n はCT画像データDT1の現在位置X1n におけるCTシェーディング係数β1n とする。これは、PET画像データDT2は異常部分の有無を表現するのみであるが、CT画像データDT1はボクセルデータの表面の凹凸の精細な表現が可能なためである。
、コントラスト及び明るさ等を補正する処理である。詳しくは、多くの医用画像装置の出力(CT画像、PET画像等)は12bit階調データであるため、画像融合処理で生成された融合画像P1も12bit階調データであるが、コンピュータ3等のモニタ4はRGB各色を8bitで表現する画像を表示することが多い。そのため、WL変換(Window
Level Transformation )やLUT変換(Color Look-Up Table Transformation)等を行い、色、コントラスト及び明るさ等をモニタ4に表示できるように変換する。また、画面の大きさ等に合わせてアフィン変換(Affine Transformation )を行い、それぞれのモニタ4に表示できるように変換する。
図7は、画像融合処理のフローチャートを示している。
まず、CPU7は、融合画像データ生成処理を実行する(ステップS1−10)。融合画像データ生成処理は図8に示す処理が実行される。まず、CPU7は、第1ボクセルデータVD1における投影開始点O1及びサンプリング間隔S1、第2ボクセルデータVD2における投影開始点O2及びサンプリング間隔S2を設定する(ステップS2−10)。このとき、CPU7は、投影開始点O1,O2及びサンプリング間隔S1,S2をメモリ部8aに記憶する。次に、CPU7は、反射光En 、残存光In 、現在位置X1n ,X2n の初期化をする(ステップS2−15)。すなわち、反射光En =0、残存光In =1、第1ボクセルデータVD1における現在位置X1n =0、第2ボクセルデータVD2における現在位置X2n =0とする。そして、CPU7は、現在位置X1n における第1ボクセル値D1n 、勾配g1n を算出する(ステップS2−20)。本実施形態では、現在位置X1n が格子上になかったとすると、現在位置X1n の周りのボクセルのボクセル値から補間処理を行い、その位置での第1ボクセル値D1n を計算する。また、勾配g1n を公知の方法で算出する。同様に、CPU7は、現在位置X2n における第2ボクセル値D2n 、勾配g2n を算出する(ステップS2−25)。
、PET値が正常であるため、合成色γ3n は、CT画像データDT1のCT色γ1n を用いる。そして、CPU7は、それら合成比率CRを合成比率記憶部CVに記憶し、この合成比率決定処理を終了する。
とCT色γ1n を用いる。そして、PET値が異常である異常部分U1ではPET画像
データDT2のPET色γ2n を用いている。これにより、正常部分ではCT画像データDT1に基づいて通常の画像を表示しながらも、異常部分U1のみをPET画像データDT2に基づいて強調表示した融合画像P1を得ることができる。
(1) 第1実施形態によれば、第1合成比率a、第2合成比率b、第3合成比率cはそれぞれサンプリング位置毎に計算される。この結果、それぞれの光パラメータP(合成不透明度α3n 、合成シェーディング係数β3n 、合成色γ3n )をそれぞれ現在位置X1n ,X2n 毎に第2ボクセル値D2n に応じて決定した合成比率CRで合成することに
よって、融合画像P1を生成することができる。従って、現在位置X1n ,X2n 毎にそれぞれ独立した光学的特性を表す情報である光パラメータPを合成することができるので、情報量を縮退することなく、融合画像P1を生成することができる。
次に、本発明を具体化した第2実施形態を図10〜図13に従って説明する。なお、第2実施形態は、合成比率決定処理において多段階で合成比率CRを決定し、さらに、例えば骨に転移した腫瘍のように、組織内部に3次元的に含まれた異常部分を表示することに特徴がある。そのため、第1実施形態と同様の部分については同一の符号を付し、その詳細な説明を省略する。
このようにすることによって、骨の領域及びその周辺を多少含んだ領域を柔軟に表現することができる。なお、第1中間変数dの最大値を「1」、最小値を「0」とすることによって、範囲外の値によって不適切な結果が得られることを低減することができる。
このようにすることによって、異常の度合いをより柔軟に表現することができる。なお、第2中間変数eの最大値を「1」、最小値を「0」とすることによって、範囲外の値によって不適切な結果が得られることを低減することができる。
次に、このように構成された合成比率決定処理の作用について説明する。
図12は、ピクセル毎の合成比率決定処理のフローチャートを示している。
ル値D2n を用いて第2中間変数eを算出し、メモリ部8aに記憶する。次に、CPU7は、第3中間変数fを算出する(ステップS4−20)。すなわち、メモリ部8aから、第1中間変数d及び第2中間変数eを読み出して第3中間変数fを算出し、メモリ部8aに記憶する。そして、CPU7は、第1合成比率aにその第3中間変数fを代入し、合成比率記憶部CVに記憶する(ステップS4−25)。また、CPU7は、第2合成比率bに「1」を代入し、合成比率記憶部CVに記憶する(ステップS4−30)。さらに、CPU7は、第3合成比率cにその第3中間変数fを代入し、合成比率記憶部CVに記憶し(ステップS4−35)、この合成比率決定処理を終了する。その後、CPU7は、第1実施形態と同様に画像融合処理を実行し、図13に示すように、骨(第1ボクセル値D1n )に転移した腫瘍(第2ボクセル値D2n )のような異常部分U2の観察が可能な融合画像P2を得る。
(11) 第2実施形態によれば、融合画像P2上に黒く表示され得る箇所が、CT値(第1ボクセル値D1n )によるものか、第1ボクセル値D1n の勾配g1n (影)によるものかを判断し、CT値によるものであったとき、CT値よりもPET値(第2ボクセル値D2n )を優先して表示した。これにより、例えば、骨に転移した腫瘍等の組織内部の異常部分U2も観察することができる。
次に、本発明を具体化した第3実施形態を図14〜図17に従って説明する。なお、第3実施形態は、マスク領域を生成し、観察対象のうちそのマスク領域のみ融合画像P3として表示することに特徴がある。そのため、第1及び第2実施形態と同様の部分については同一の符号を付し、その詳細な説明を省略する。
図16は、ピクセル毎の融合画像データ生成処理のフローチャートを示している。
まず、CPU7は、投影開始点O1及びサンプリング間隔S1、投影開始点O2及びサンプリング間隔S2を設定し(ステップS2−10)、反射光En 、残存光In 、現在位置X1n ,X2n の初期化をする(ステップS2−15)。次に、マスク生成処理を実行する(ステップS5−10)。マスク生成処理は、図17に示すような処理が実行される。まず、CPU7は、現在位置X2n における第2ボクセル値D2n を算出し(ステップS6−10)、その第2ボクセル値D2n が第2基準値T2を超えているか否かを判断する(ステップS6−15)。すなわち、CPU7は、基準値記憶部SVから第2基準値T2を読み出し、第2ボクセル値D2n とその読み出した第2基準値T2とを比較する。そして、第2ボクセル値D2n が第2基準値T2を超えているとき(ステップS6−15でYES)、CPU7は、現在位置X2n はマスク領域M1内であると判断し(ステップS6―20)、融合処理を実行する。一方、第2ボクセル値D2n が第2基準値T2以下であるとき(ステップS6−15でNO)、CPU7は、現在位置X2n はマスク領域M1外であると判断し(ステップS6―25)、融合処理を実行しない。
(15) 第3実施形態によれば、第2ボクセル値D2n に応じてマスク領域M1を動的に生成したので、異常部分とその周辺のみを融合画像P3上に表示することができる。この結果、観察したい箇所のみ表示するため、容易でありながらも正確に観察対象を観察することができる。
とから、融合画像P3の表示に要する時間を低減することができる。従って、一層、リアルタイムに融合画像P3を観察することができる。
前記第1実施形態では、1台のワークステーションなどの計算機(コンピュータ)3が単独で画像融合処理を行ったが、本実施形態では、画像融合処理を構成する各処理のうち少なくとも1つの手段を複数のコンピュータが分散処理で行う。以下の実施形態において、前記第1〜第3実施形態と同様の部分については、同一の符号を付し、その詳細な説明は省略する。
(1−1)ワークステーションWS1は、仮想光線RA上の第1ボクセルデータVD1(第2ボクセルデータVD2)(ボクセルV1〜Vk)について、融合処理を行う。そして、反射光EAn を算出し、その反射光EAn を反射光記憶部RVAに記憶させる。一方、ワークステーションWS2は、仮想光線RB上の第1ボクセルデータVD1(第2ボクセルデータVD2)(ボクセルVk+1〜Vn)について、融合処理を行う。そして、反射光EBn を算出し、その反射光EBn を反射光記憶部RVBに記憶させる。
(1−2)ワークステーションWS2の反射光記憶部RVBに記憶した反射光EBn をワークステーションWS1に転送する。このときの転送サイズは512×256で済む。
(1−3)ワークステーションWS1は、反射光記憶部RVAの反射光EAn と、反射光記憶部RVBの反射光EBn とを合成した反射光En を記憶した反射光記憶部RVに対して後処理を行い、CT画像データDT1とPET画像データDT2とが融合された融合画像P1(P2,P3)を得る。
対して融合画像データ生成処理を行う。そして、高速画像処理に適しているGPU10を搭載したワークステーションWS2で後処理を行うようにすれば、後処理に要する時間を短縮できる。処理の手順は以下のようになる。
(2−1)ワークステーションWS1は、第1ボクセルデータVD1及び第2ボクセルデータVD2について、融合画像データ生成処理を行い、その算出した融合画像データDT3をメモリ部8aに記憶する。
(2−2)ワークステーションWS1のメモリ部8aに記憶した融合画像データDT3をワークステーションWS2に転送する。このときの転送サイズは512×512である。(2−3)ワークステーションWS2は、融合画像データDT3に対して後処理を行い、CT画像データDT1とPET画像データDT2とが融合された融合画像P1(P2,P3)を得る。
(18)第4実施形態によれば、複数の計算機(コンピュータ)3による分散処理を採用するため画像融合処理の速度向上を図ることができるので、例えば、モニタ4の画面4aに表示される融合画像P1(P2,P3)のリアルタイム性を確保し易くなる。
○上記第1実施形態では、合成比率決定処理において、第2ボクセル値D2n が予め定めた第1基準値T1より大きいとき、合成色γ3n はPET画像データDT2に従属しているPET色γ2n を用いたが、第1基準値T1を可変にしてもよい。すなわち、キーボード5等の入力装置を用いてその都度入力してもよいし、観察対象の種類に応じた第1基準値T1を複数種類予め記憶しておき、観察者がその複数種類の第2基準値T2からマウス6等の入力装置を用いて選択してもよい。これにより、一層動的に合成比率を決定することができる。
rojection)、平均値法、合計値法(Raysum)等の他のボリュームレンダリング方法を用いてボリュームレンダリングを行ってもよい。
○上記各実施形態では、骨や臓器等の人体の部分について撮影されたCT画像、PET画像に対して画像融合処理を行ったが、CT撮影等が可能であれば、特に人体や動物、植物等の生物の組織に限らず、地質調査、鉱物探査、機械や装置類の構造材、電気回路のパターンを見る画像処理、LSIの故障診断等にも適用することができる。
)、4…出力部としてのモニタ、7…CPU、10…GPU。
Claims (20)
- 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理方法において、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定段階と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出段階と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出段階と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出段階と
を備え、
前記合成比率決定段階は、
前記複数の3次元以上の画像データのうち少なくとも1つの3次元以上の画像データに投射した仮想光線上のサンプリング位置のボクセル値と第1基準値とを比較する第1比較段階をさらに備え、
前記第1比較段階での比較結果に応じて前記合成比率を決定することを特徴とする画像融合処理方法。 - 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理方法において、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定段階と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出段階と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出段階と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出段階と
を備え、
前記合成比率決定段階は、前記合成比率を前記ボクセル値の勾配に応じて設定することを特徴とする画像融合処理方法。 - 請求項1又は請求項2に記載の画像融合処理方法において、
前記光パラメータは色情報および不透明度情報であって、
前記合成比率決定段階は、
前記ボクセル値に対応付けられた色情報を合成する色合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する色合成比率決定段階と、
前記ボクセル値に対応付けられた不透明度情報を合成する不透明度合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する不透明度合成比率決定段階と
を備え、
前記算出段階は、
前記色合成比率に基づいて合成色情報を算出する第1算出段階と、
前記不透明度合成比率に基づいて合成不透明度情報を算出する第2算出段階と
を備えたことを特徴とする画像融合処理方法。 - 請求項3に記載の画像融合処理方法において、
前記合成比率決定段階は、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値に対応付けられたシェーディング係数を合成する陰影合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する陰影合成比率決定段階をさらに備え、
前記算出段階は、
前記陰影合成比率に基づいて合成シェーディング係数を算出する第3算出段階をさらに備え、
前記部分反射光算出段階は、前記合成色情報及び前記合成不透明度情報及び前記合成シェーディング係数を基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出することを特徴とする画像融合処理方法。 - 請求項1乃至4のいずれか1項に記載の画像融合処理方法において、
前記合成比率決定段階は、
前記合成比率を多段階で決定することを特徴とする画像融合処理方法。 - 請求項1乃至5のいずれか1項に記載の画像融合処理方法において、
前記ボクセル値のうちの1つと第2基準値とを比較する第2比較段階と、
前記第2比較段階での比較結果に応じてマスク領域を生成するマスク領域生成段階と
をさらに備えたことを特徴とする画像融合処理方法。 - 請求項1乃至3のいずれか1項に記載の画像融合処理方法において、
同一の複数の3次元以上の画像データのサンプリング位置のボクセル値の前記光パラメータをそれぞれ異なる合成比率で生成した複数の融合画像を用いてアニメーションを作成することを特徴とする画像融合処理方法。 - 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理プログラムにおいて、
前記1つのコンピュータまたは複数のコンピュータを、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段と
して機能させ、
前記合成比率決定手段は、
前記複数の3次元以上の画像データのうち少なくとも1つの3次元以上の画像データに投射した仮想光線上のサンプリング位置のボクセル値と第1基準値とを比較する第1比較手段をさらに備え、
前記第1比較手段での比較結果に応じて前記合成比率を決定することを特徴とする画像融合処理プログラム。 - 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理プログラムにおいて、
前記1つのコンピュータまたは複数のコンピュータを、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段と
して機能させ、
前記合成比率決定手段は、前記合成比率を前記ボクセル値の勾配に応じて設定することを特徴とする画像融合処理プログラム。 - 請求項8または9に記載の画像融合処理プログラムにおいて、
前記光パラメータは色情報および不透明度情報であって、
前記合成比率決定手段は、
前記ボクセル値に対応付けられた色情報を合成する色合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する色合成比率決定手段と、
前記ボクセル値に対応付けられた不透明度情報を合成する不透明度合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する不透明度合成比率決定手段と
を備え、
前記算出手段は、
前記色合成比率に基づいて合成色情報を算出する第1算出手段と、
前記不透明度合成比率に基づいて合成不透明度情報を算出する第2算出手段と
を備えたことを特徴とする画像融合処理プログラム。 - 請求項10に記載の画像融合処理プログラムにおいて、
前記合成比率決定手段は、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値に対応付けられたシェーディング係数を合成する陰影合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する陰影合成比率決定手段をさらに備え、
前記算出手段は、
前記陰影合成比率に基づいて合成シェーディング係数を算出する第3算出手段をさらに備え、
前記部分反射光算出手段は、前記合成色情報及び前記合成不透明度情報及び前記合成シェーディング係数を基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出することを特徴とする画像融合処理プログラム。 - 請求項8乃至11のいずれか1項に記載の画像融合処理プログラムにおいて、
前記合成比率決定手段は、
前記合成比率を多段階で決定することを特徴とする画像融合処理プログラム。 - 請求項8乃至12のいずれか1項に記載の画像融合処理プログラムにおいて、
前記ボクセル値のうちの1つと第2基準値とを比較する第2比較手段と、
前記第2比較手段での比較結果に応じてマスク領域を生成するマスク領域生成手段と
をさらに備えたことを特徴とする画像融合処理プログラム。 - 請求項8乃至10のいずれか1項に記載の画像融合処理プログラムにおいて、
同一の複数の3次元以上の画像データのサンプリング位置のボクセル値の前記光パラメータをそれぞれ異なる合成比率で生成した複数の融合画像を用いてアニメーションを作成することを特徴とする画像融合処理プログラム。 - 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理装置であって、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段とを備え、
前記合成比率決定手段は、
前記複数の3次元以上の画像データのうち少なくとも1つの3次元以上の画像データに投射した仮想光線上のサンプリング位置のボクセル値と第1基準値とを比較する第1比較手段をさらに備え、
前記第1比較手段での比較結果に応じて前記合成比率を決定する
ことを特徴とする画像融合処理装置。 - 1つのコンピュータが単独処理でまたは複数のコンピュータが単独処理と分散処理とのうち少なくとも1つの処理で、同一の観察対象から得た複数の3次元以上の画像データの位置関係を互いに対応させ、前記複数の3次元以上の画像データにそれぞれ対応する複数の仮想光線を投射し、同複数の3次元以上の画像データを2次元画面上に融合した融合画像を得る画像融合処理装置であって、
前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値にそれぞれ対応付けられた複数の光パラメータを前記融合画像を生成するために合成する比率を合成比率として前記仮想光線上で前記対応するサンプリング位置において決定する合成比率決定手段と、
前記合成比率に基づいて当該対応するサンプリング位置の合成光パラメータを算出する算出手段と、
当該合成光パラメータを基に前記仮想光線に対する部分反射光を前記サンプリング位置で算出する部分反射光算出手段と、
前記部分反射光を積算して前記融合画像の画素値を算出する画素値算出手段とを備え、
前記合成比率決定手段は、前記合成比率を前記ボクセル値の勾配に応じて設定することを特徴とする画像融合処理装置。 - 請求項15又は16に記載の画像融合処理装置において、
前記光パラメータは色情報および不透明度情報であって、
前記合成比率決定手段は、
前記ボクセル値に対応付けられた色情報を合成する色合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する色合成比率決定手段と、
前記ボクセル値に対応付けられた不透明度情報を合成する不透明度合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する不透明度合成比率決定手段と
を備え、
前記算出手段は、
前記色合成比率に基づいて合成色情報を算出する第1算出手段と、
前記不透明度合成比率に基づいて合成不透明度情報を算出する第2算出手段と
を備えたことを特徴とする画像融合処理装置。 - 請求項17に記載の画像融合処理装置において、
前記合成比率決定手段は、前記複数の仮想光線上のそれぞれ対応するサンプリング位置のボクセル値に対応付けられたシェーディング係数を合成する陰影合成比率を前記仮想光線上で前記対応するサンプリング位置において決定する陰影合成比率決定手段をさらに備え、
前記算出手段は、
前記陰影合成比率に基づいて合成シェーディング係数を算出する第3算出手段をさらに備え、
前記部分反射光算出手段は、前記合成色情報及び前記合成不透明度情報及び前記合成シェーディング係数を基に前記仮想光線に対する部分反射光を前記サンプリング位置毎に算出することを特徴とする画像融合処理装置。 - 請求項15乃至18のいずれか1項に記載の画像融合処理装置において、
前記合成比率決定手段、前記算出手段、前記部分反射光算出手段、前記画素値算出手段の一部または全部は、GPUであることを特徴とする画像融合処理装置。 - 請求項15乃至19のいずれか1項に記載の画像融合処理装置において、
前記画素値算出手段が算出した画素値を出力部に出力可能な形式に変換する後処理は、GPUで行うことを特徴とする画像融合処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005202313A JP4267598B2 (ja) | 2005-07-11 | 2005-07-11 | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 |
US11/484,059 US7817877B2 (en) | 2005-07-11 | 2006-07-10 | Image fusion processing method, processing program, and processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005202313A JP4267598B2 (ja) | 2005-07-11 | 2005-07-11 | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007014706A JP2007014706A (ja) | 2007-01-25 |
JP4267598B2 true JP4267598B2 (ja) | 2009-05-27 |
Family
ID=37752359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005202313A Expired - Fee Related JP4267598B2 (ja) | 2005-07-11 | 2005-07-11 | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7817877B2 (ja) |
JP (1) | JP4267598B2 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4233547B2 (ja) * | 2005-07-06 | 2009-03-04 | ザイオソフト株式会社 | 画像表示処理方法 |
JP4709177B2 (ja) * | 2007-04-12 | 2011-06-22 | 富士フイルム株式会社 | 三次元画像処理装置および方法並びにプログラム |
US7853061B2 (en) * | 2007-04-26 | 2010-12-14 | General Electric Company | System and method to improve visibility of an object in an imaged subject |
KR100766070B1 (ko) | 2007-06-28 | 2007-10-12 | (주)한성유아이엔지니어링 | 지피에스를 이용한 지형변화 모니터링 시스템 |
JP2009160306A (ja) * | 2008-01-09 | 2009-07-23 | Ziosoft Inc | 画像表示装置、画像表示装置の制御方法、および画像表示装置の制御プログラム |
CN102037492A (zh) * | 2008-05-23 | 2011-04-27 | 澳大利亚国立大学 | 图像数据处理 |
US8228400B2 (en) * | 2009-04-17 | 2012-07-24 | Sony Corporation | Generation of simulated long exposure images in response to multiple short exposures |
EP2596473B1 (en) | 2010-07-22 | 2014-06-25 | Koninklijke Philips N.V. | Fusion of multiple images |
WO2012048070A1 (en) * | 2010-10-07 | 2012-04-12 | Siemens Corporation | Non-rigid composition of multiple overlapping medical imaging volumes |
JP6070192B2 (ja) * | 2010-12-03 | 2017-02-01 | ソニー株式会社 | 3dデータ解析装置および3dデータ解析方法ならびに3dデータ解析プログラム |
US9824302B2 (en) * | 2011-03-09 | 2017-11-21 | Siemens Healthcare Gmbh | Method and system for model-based fusion of multi-modal volumetric images |
JP5257958B2 (ja) * | 2011-06-01 | 2013-08-07 | 株式会社日立メディコ | 画像表示装置、画像表示システムおよび画像表示方法 |
JP5647188B2 (ja) * | 2011-07-21 | 2014-12-24 | 日本特殊陶業株式会社 | ガスセンサ |
CN102231844B (zh) * | 2011-07-21 | 2013-04-03 | 西安电子科技大学 | 基于结构相似度和人眼视觉的视频图像融合性能评价方法 |
US9314160B2 (en) * | 2011-12-01 | 2016-04-19 | Varian Medical Systems, Inc. | Systems and methods for real-time target validation for image-guided radiation therapy |
JP2014000182A (ja) * | 2012-06-18 | 2014-01-09 | Aze Ltd | 医用画像生成装置及びプログラム |
CN104103083A (zh) * | 2013-04-03 | 2014-10-15 | 株式会社东芝 | 图像处理装置和方法以及医学成像设备 |
WO2014192829A1 (ja) | 2013-05-28 | 2014-12-04 | 株式会社東芝 | 医用画像処理装置 |
CN103345746B (zh) * | 2013-06-25 | 2016-12-28 | 上海交通大学 | 对ct图片重建出三维图形的方法 |
US9842424B2 (en) * | 2014-02-10 | 2017-12-12 | Pixar | Volume rendering using adaptive buckets |
US10169909B2 (en) * | 2014-08-07 | 2019-01-01 | Pixar | Generating a volumetric projection for an object |
JP6442310B2 (ja) * | 2015-02-04 | 2018-12-19 | 日本メジフィジックス株式会社 | 核医学画像中の腫瘍領域を抽出する技術 |
JP6442309B2 (ja) * | 2015-02-04 | 2018-12-19 | 日本メジフィジックス株式会社 | 核医学画像解析技術 |
TW201629522A (zh) * | 2015-02-04 | 2016-08-16 | Nihon Mediphysics Co Ltd | 核醫學圖像解析技術 |
JP6442311B2 (ja) * | 2015-02-04 | 2018-12-19 | 日本メジフィジックス株式会社 | 核医学画像中の腫瘍輪郭を抽出する技術 |
KR102412122B1 (ko) * | 2015-05-27 | 2022-06-23 | 삼성전자주식회사 | 의료 영상 디스플레이 방법 및 장치 |
JP2017099616A (ja) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム |
JP6525912B2 (ja) * | 2016-03-23 | 2019-06-05 | 富士フイルム株式会社 | 画像分類装置、方法およびプログラム |
US10346974B2 (en) | 2017-05-18 | 2019-07-09 | Toshiba Medical Systems Corporation | Apparatus and method for medical image processing |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
CN108876783B (zh) * | 2018-06-27 | 2021-02-05 | 上海联影医疗科技股份有限公司 | 图像融合方法及系统、医疗设备和图像融合终端 |
CN112184554B (zh) * | 2020-10-13 | 2022-08-23 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
CN113421323B (zh) * | 2021-06-21 | 2022-07-12 | 北京理工大学 | 一种基于光线投射的双模态体数据感兴趣区域融合方法 |
CN116363031B (zh) * | 2023-02-28 | 2023-11-17 | 锋睿领创(珠海)科技有限公司 | 基于多维光学信息融合的成像方法、装置、设备及介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1258923A (en) * | 1986-04-14 | 1989-08-29 | Robert A. Drebin | Methods and apparatus for imaging volume data |
JPH04183446A (ja) * | 1990-11-19 | 1992-06-30 | Res Dev Corp Of Japan | 画像合成による手術支援システム |
US5839440A (en) * | 1994-06-17 | 1998-11-24 | Siemens Corporate Research, Inc. | Three-dimensional image registration method for spiral CT angiography |
JP3570576B2 (ja) | 1995-06-19 | 2004-09-29 | 株式会社日立製作所 | マルチモダリティに対応した3次元画像合成表示装置 |
JP2001291091A (ja) * | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | 画像処理装置および方法 |
US6639595B1 (en) * | 2000-08-23 | 2003-10-28 | Nintendo Co., Ltd. | Achromatic lighting in a graphics system and method |
JP3499541B2 (ja) * | 2001-07-25 | 2004-02-23 | ザイオソフト株式会社 | 3次元画像表示方法、装置およびプログラム |
JP3734744B2 (ja) * | 2001-11-21 | 2006-01-11 | 三菱電機株式会社 | 3次元情報合成装置、3次元情報表示装置及び3次元情報合成方法 |
JP4203251B2 (ja) * | 2001-12-03 | 2008-12-24 | ザイオソフト株式会社 | ボリュームレンダリング処理方法、ボリュームレンダリング処理システム、計算機及びプログラム |
WO2003077202A1 (en) * | 2002-03-06 | 2003-09-18 | Siemens Corporate Research, Inc. | Visualization of volume-volume fusion |
JP4653938B2 (ja) * | 2003-01-14 | 2011-03-16 | ザイオソフト株式会社 | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム |
JP2005142680A (ja) * | 2003-11-04 | 2005-06-02 | Olympus Corp | 画像処理装置 |
US20050195206A1 (en) * | 2004-03-04 | 2005-09-08 | Eric Wogsberg | Compositing multiple full-motion video streams for display on a video monitor |
-
2005
- 2005-07-11 JP JP2005202313A patent/JP4267598B2/ja not_active Expired - Fee Related
-
2006
- 2006-07-10 US US11/484,059 patent/US7817877B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20070098299A1 (en) | 2007-05-03 |
US7817877B2 (en) | 2010-10-19 |
JP2007014706A (ja) | 2007-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4267598B2 (ja) | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 | |
CN106981098B (zh) | 虚拟场景组分的视角表示 | |
JP4213135B2 (ja) | 展開画像投影方法、展開画像投影プログラム、展開画像投影装置 | |
JP4335817B2 (ja) | 関心領域指定方法、関心領域指定プログラム、関心領域指定装置 | |
JP3570576B2 (ja) | マルチモダリティに対応した3次元画像合成表示装置 | |
JP5400326B2 (ja) | トモシンセシス画像を表示するための方法 | |
US20090174729A1 (en) | Image display device and control method thereof | |
US7424140B2 (en) | Method, computer program product, and apparatus for performing rendering | |
JP4233547B2 (ja) | 画像表示処理方法 | |
JP4109224B2 (ja) | 展開画像投影方法、展開画像投影プログラム、展開画像投影装置 | |
JP4105176B2 (ja) | 画像処理方法および画像処理プログラム | |
US20110082667A1 (en) | System and method for view-dependent anatomic surface visualization | |
RU2419882C2 (ru) | Способ визуализации секущих плоскостей для изогнутых продолговатых структур | |
US20090003668A1 (en) | Image processing method, image processing program, and image processing device | |
JP6058286B2 (ja) | 医用画像診断装置、医用画像処理装置及び方法 | |
US20080259080A1 (en) | Image processing method, apparatus, and program | |
JP4634437B2 (ja) | 展開画像投影方法、展開画像投影プログラム、展開画像投影装置 | |
JP4563326B2 (ja) | 画像処理方法および画像処理プログラム | |
JP4122314B2 (ja) | 投影画像処理方法、投影画像処理プログラム、投影画像処理装置 | |
JP4188900B2 (ja) | 医療画像処理プログラム | |
JP4896470B2 (ja) | 画像処理装置、医用画像診断装置及び画像処理方法 | |
JP2004215846A (ja) | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム | |
JP2010000306A (ja) | 医用画像診断装置、画像処理装置、及びプログラム | |
JP4709603B2 (ja) | 医用画像処理装置 | |
JP6106260B2 (ja) | ボリュームレンダリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090218 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |