JP4653938B2 - ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム - Google Patents
ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム Download PDFInfo
- Publication number
- JP4653938B2 JP4653938B2 JP2003006202A JP2003006202A JP4653938B2 JP 4653938 B2 JP4653938 B2 JP 4653938B2 JP 2003006202 A JP2003006202 A JP 2003006202A JP 2003006202 A JP2003006202 A JP 2003006202A JP 4653938 B2 JP4653938 B2 JP 4653938B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- objects
- volume rendering
- opacity
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 title claims description 151
- 238000009877 rendering Methods 0.000 title claims description 145
- 238000003672 processing method Methods 0.000 title claims description 20
- 238000000034 method Methods 0.000 claims description 151
- 230000008569 process Effects 0.000 claims description 104
- 239000000203 mixture Substances 0.000 claims description 71
- 238000002156 mixing Methods 0.000 claims description 70
- 239000003086 colorant Substances 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 210000004204 blood vessel Anatomy 0.000 description 95
- 210000001519 tissue Anatomy 0.000 description 75
- 210000000988 bone and bone Anatomy 0.000 description 72
- 210000003625 skull Anatomy 0.000 description 27
- 238000010586 diagram Methods 0.000 description 22
- 238000012546 transfer Methods 0.000 description 11
- 239000002131 composite material Substances 0.000 description 9
- 102000001475 rab1 GTP-Binding Proteins Human genes 0.000 description 8
- 108010054067 rab1 GTP-Binding Proteins Proteins 0.000 description 8
- 238000005266 casting Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 210000000056 organ Anatomy 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 210000003734 kidney Anatomy 0.000 description 3
- 230000031700 light absorption Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 239000010839 body fluid Substances 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
【発明の属する技術分野】
本発明は、ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラムに関するものである。
【0002】
【従来の技術】
CT画像を用いた医療診断に使用される画像処理装置では、3次元以上のデータを2次元画像として立体的に表示させるボリュームレンダリングという技術が用いられている(特許文献1及び特許文献2を参照)。例えば医療診断などでは、頭蓋骨とその内側の血管の様子のように、外側の物体と内側の物体との位置関係が重要となる場合、内側の物体も見たいし、外側の物体も見たいという要求がある。この場合、外側の物体と内側の物体を同時に明瞭に3次元表示したいが、内側物体と外側物体を同時に明瞭に表示することが難しかった。つまり、例えば骨を見るときは血管が薄くなって見えなくなり、一方、血管をみるときは骨が薄くなって見えなくなる。
【0003】
図16は、3次元ボクセルデータを用いて2次元画像を作成する処理を示すものである。例としては頭蓋骨50とその内側の血管51を見る画像の作成処理を示す。頭蓋骨50と血管51がX線撮影されたCT画像データ(ボクセルデータ)は、3次元格子点に画素(ボクセル)をもつ画素群からなる。視線方向から1本のレイ(光線)を照射し、ボクセル毎に光の吸収・反射の離散的な計算をし、その反射光を演算することで2次元平面(フレーム)52に投影される画像のピクセル値を求めて2次元画像を生成する。入射された1本のレイは、同図に示すように骨部B1、血管部K1、骨部B2、血管部K2、骨部B3の順に進み、そのときこれらを構成するボクセルに当たって一部反射しながらボクセルを順次透過して進むことになる。なお、レイの軌跡上に空気や脳があるが、後述する不透明度を「0」に設定することにより透明とみなされるため、この部分は出力画像に反映されない。
【0004】
【特許文献1】
特開2001−43395号公報
【特許文献2】
特開2002−183749号公報
【0005】
【発明が解決しようとする課題】
図17は、1本のレイが、骨部B1、血管部K1、骨部B2、血管部K2、骨部B3を順に進み、これら各組織でレイが反射・透過される様子を示すものである。ここで、注目したい組織を表示させるときはその組織のボクセル値に対し不透明度(オパシティ値)を設定する。ここで、オパシティ値とは、不透明度を「0〜1」の範囲の数値で示すもので、「0」が透明、「1」が不透明、その間の数値が半透明として表される。骨50と血管51が共によく見える表示としたい場合、血管51をよく見えるようにするため、骨部B1,B2,B3のボクセル値には骨がほぼ透明となる低いオパシティ値(例えば「0.2」)を設定し、血管51のボクセル値には血管部K1,K2が不透明となる高いオパシティ値(例えば「1」)を設定する。しかし、この場合、同図(a)における右端の図に示す画像のように、血管51はくっきり見えるが、骨50の輪郭がかすれてしまう。
【0006】
一方、図17(b)に示すように、骨50がよく見えることを考慮し、骨部B1,B2,B3のボクセル値には骨がやや不透明となるように高いオパシティ値(例えば「0.8」)を設定し、血管51のボクセル値には血管部K1,K2が不透明となるように高いオパシティ値(例えば「1」)を設定する。しかし、この場合、骨50がくっきり見えるが、血管51がほとんど見えない。これは外側の骨50がレイを反射してしまうため内部まで透過するレイの光量が殆ど無くなり、血管51を表示するためにはレイの光量が少ないからである。また、奥の方まで透過するレイの光量はさらに少ないため、骨部B2,B3や血管部K1,K2を表示するレイがほとんど無くなり画像上に奥の方の組織の様子がほとんど反映されなくなってしまう。
【0007】
外側の物体と内側の物体を同時表示したいときは、外側にも内側にも不透明度を設定することになるが、外側の物体をはっきり見たいときは外側の物体の不透明度を上げてやらなければならない。しかし、外側の物体の不透明度を上げると、内側に照射される光が少なくなるので、仮に内側の物体の不透明度が高くても反射光が少ないので内側の物体が見えなくなる。これが従来のボリュームレンダリング手法の問題であった。
【0008】
つまり、各画素について1本のレイでしか画像を作成していないので、手前を表示させようとすると光を反射させるしかなく、手前で光を反射させると奥に光が届かず奥が見えにくくなる。逆に奥を表示させようとすると手前を透過させなければならず光が手前で反射しなくなるので手前がはっきり表示できなくなるというジレンマがあった。従って、手前の物体と奥の物体が共にぼやっと表示された画像となる。つまり、骨50を見るときに血管51が薄くなり、一方、血管51を見るときに骨50が薄くなるという問題があった。
【0009】
特に外側の物体の厚みが一定でない場合は、厚い部分と薄い部分とで透過する光の量に違いがあるので、外側の物体の厚い部分で内側の物体が薄く見え、外側の物体の薄い部分で内側の物体がはっきり見えるというばらつきがあった。
【0010】
このようにパラメータ(オパシティ値)の設定で対処しようとすると、その設定を医者や技師が値を微妙に調節しながら設定することになるが、これを巧く値を設定するには熟練を要するとともに熟練者でも非常に面倒な作業となっていた。熟練者でも、少し設定が違うと手前の物体が薄くなったり奥の物体が薄くなったりするので、微妙な設定が必要なので所望の画像がなかなか得られにくいという問題があった。
【0011】
本発明は上記問題点に鑑みてなされたものであり、その目的は、視線方向に重なる複数の物体(組織等)を共によく見える画像を提供できるボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラムを提供することにある。
【0012】
【課題を解決するための手段】
上記課題を解決するために請求項1に記載の発明は、一つのコンピュータが単独処理で又は複数のコンピュータが分散処理で、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理方法であって、少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、入力手段により入力されたパラメータであって、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定し、前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する段階と、当該取得された複数の画像をメモリに記憶する段階と、予め入力手段から入力設定された画像合成用のブレンド比率に基づいて、前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する段階とを備えたことを要旨とする。
【0013】
ここで、「一つのコンピュータが単独処理で又は複数のコンピュータが分散処理で、」とは、「一つのコンピュータが単独処理で」、「複数のコンピュータのうちの一のコンピュータが単独処理で」、「複数のコンピュータが分散処理で」、「複数のコンピュータのうちから数を絞られた複数のコンピュータが分散処理で」、「複数のコンピュータのうちの一のコンピュータが特定の段階の処理については単独処理で、複数のコンピュータ又は該複数のコンピュータのうちから数を絞られた複数のコンピュータが他の特定の段階の処理については分散処理で」の各種の処理態様を含む。従って、各段階の処理を行う「少なくとも一のコンピュータが」とは、上記各種の処理態様における動作主体の全てのケースを含む。すなわち、「一つのコンピュータが」、「複数のコンピュータのうちの一のコンピュータが」、「複数のコンピュータが」、「複数のコンピュータのうちから数を絞られた複数のコンピュータが」のうちのいずれかのケースとなる。しかも各処理の段階ごとに動作主体が異なることも厭わない。つまり各処理の段階ごとにコンピュータである動作主体が同じであることばかりか異なる場合も含まれる。
【0014】
また、「表示対象とされる複数の物体」とは、画像に表示させるべきものとして指定されたものである。例えば骨と臓器のみを選択して画像に表示させる設定の下では、骨と臓器は表示対象といえるが、たとえ画像データ中に脂肪が存在しても表示の指定がない限り、この脂肪は表示対象には含まれない。よって、この脂肪のような表示対象でないものが表示されないように所定のパラメータは設定されることになる。また、「複数の物体」とは、3次元以上の画像データのその次元のうち少なくとも1つの次元から見て物理的に複数あればよく、これは空間的にみて物体が複数あるだけではなく、時間的にみて物体が複数ある場合も含まれる。時間的にみて物体が複数ある場合には、同一物体が異なる時刻に存在する場合も含まれる。但し、空間的に複数箇所に点在する物体でも、画素値などの使用可能なデータを用いても別々の物体であるとの認識が不可能なときは、複数箇所に点在するそれらの物体すべてが同一物体とみなされ得る。例えば2つの腎臓を画素値をもってしても区別できず座標データを使用してまで区別することのないことが前提で物体の区別が行われる構成では、この2つの腎臓は同一物体として扱われる。もちろん、座標データに基づき物体を区別する構成では2つの腎臓は別物体として区別されることになる。このように別物体であるかどうかの区別はそのシステムの設定条件に従うことになる。
【0015】
また、「物体」とは、例えば画像データの画素値で区分されるものであれば足り、他の物と独立して存在する物である必要はない。例えば1つの物体(人体など)における部分(骨、臓器、血管等の組織など、さらには1つの臓器における更に細かな組織や癌など)であっても画素値で区分できるものである限り、ここでいう物体とみなし得る。さらに例えば物体(組織)の内部、あるいは物体(組織)と物体(組織)との間に溜まった水や体液などの液体あるいは気体も、画素値で区分される限りにおいてここでいう物体に含まれる。また、画像合成処理とは、別々の画像にある物体が、同一空間に共存して描かれるように画像を合成する処理を指し、物体同士の表示(光)の強さが所定の割合となるように合成されることを意味する。具体的には、本願ではアルファブレンディング処理により画像合成処理が行われる。なお、上記定義は、以下の請求項においても同様である。
【0016】
また、この発明によれば、画像データにおいて表示対象とされる複数の物体に対し不透明度の組合せが異なるように不透明度のパラメータがユーザにより入力手段から個別に入力設定される。例えばユーザは、表示対象とされる複数の物体について不透明度を個々に入力設定することが可能なので、個々の物体が個別に明瞭に描かれた画像合成の元となる複数の画像を得るため、その複数の画像を得るうえで必要となる不透明度のパラメータを個別に入力設定することになる。そして、ユーザにより入力手段から個別に入力設定された不透明度のパラメータを基にボリュームレンダリング処理を個別に実行することで、例えば個々の物体が明瞭に描かれた複数の画像(画像データ)を取得することになり、これら取得した画像(画像データ)をメモリに記憶する。その後、入力手段から入力設定された画像合成用のブレンド比率を基に画像合成処理を実行することで、メモリから読み出した複数の画像を1つの画像に合成する。
【0017】
ここで「不透明度パラメータ」とは、ボリュームレンダリング処理するうえで使用され設定されるパラメータのうち物体を明瞭に描くのに寄与するパラメータを指し、具体的には不透明度(オパシティ値)であるが、透明度、透過度、反射率、光吸収率など同等のパラメータも挙げることができる。この定義は、以下の請求項においても同様である。
【0018】
この発明によれば、表示対象とされる複数の物体が個々に明瞭に描かれるように所定のパラメータを当該物体ごと個別に設定してボリュームレンダリング処理を個別に実行することで、個々の物体が明瞭に描かれた複数の画像を取得する。そして、これら複数の画像を1つの画像に合成するので、表示対象とされる複数の物体が共によく見える画像を得ることが可能となる。
【0019】
ここで、「少なくとも一部が重なり合う物体」とは、3次元以上の画像データのその次元のうち少なくとも1つの次元から見て物理的に少なくとも一部が重なり合う物体であればよく、これは空間的に見て重なり合う物体だけではなく、時間的に見て重なり合う物体も含まれる。また、時間的に重なる場合は同一物体であっても別物体として扱うこととなり、また空間的に物体が重なる場合は複数箇所に点在する物体でも、画素値で区分できない限り同一物体とみなされる。また、「予め指定された合成比率」とは、予めデフォルトとしてメモリに記憶された設定合成比率、入力手段(マウスやキーボード、マイクなど)から予め指定された合成比率、さらにコンピュータが画像データと所定の条件式等を用いて予め割り出しておいた合成比率などを含む。さらにここでいう「合成比率」とは、一定値であることに限定されず、画像内で比率が変化して画像内の場所によって合成比率が異なるような指定値であってもよい。なお、上記定義は、以下の請求項においても同様である。
【0020】
この発明によれば、視線方向から見て少なくとも一部が重なり合う物体が個々に明瞭に描かれるように所定のパラメータを当該物体ごと個別に設定してボリュームレンダリング処理を個別に実行することで、個々の物体が明瞭に描かれた複数の画像を取得する。そして、これら複数の画像を予め指定された合成比率で合成するので、少なくとも一部が重なり合う物体が共によく見える画像を得ることが可能となる。
【0021】
ここでいう「ブレンド比率」とは、一定値であることに限定されず、画像内で比率が変化して画像内の場所によってブレンド比率が異なるような指定値であってもよい。
請求項2に記載の発明は、前記複数の物体は前記画像データの画素値で区分されることを要旨とする。
請求項3に記載の発明は、前記少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断段階を備えることを要旨とする。
【0022】
請求項4に記載の発明は、前記ボリュームレンダリング処理において、前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する段階を備えたことを要旨とする。
この発明によれば、視線方向から見て手前側にある物体の不透明度を相対的に高く設定してボリュームレンダリング処理が実行されることで、手前側にある物体が明瞭となる第1画像が得られる。また、視線方向から見て奥側にある物体の不透明度を相対的に高く設定してそれ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理が実行されることで、奥側にある物体が明瞭となる第2画像が得られる。そして、手前側にある物体が明瞭となる第1画像と、奥側にある物体が明瞭となる第2画像が、予め指定されたブレンド比率でアルファブレンディング処理されるため、視線方向から見て手前側にある物体と、奥側にある物体とが共によく見える画像を得ることが可能となる。
【0023】
請求項5に記載の発明は、入力装置とメモリと表示装置とを有する一つのコンピュータ又は複数のコンピュータを備え、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理装置であって、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定するために入力する第1の入力手段と、前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する手段と、当該取得された複数の画像をメモリに記憶する手段と、画像合成用のブレンド比率を予め入力設定する第2の入力手段と、前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する手段とを備えたことを要旨とする。この発明によれば、請求項1に記載の発明と同様の作用効果が得られる。
【0024】
請求項6に記載の発明は、前記複数の物体は前記画像データの画素値で区分されることを要旨とする。
請求項7に記載の発明は、前記少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断手段を備えることを要旨とする。
【0028】
請求項8に記載の発明は、前記ボリュームレンダリング処理において、
前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する手段を備えたことを要旨とする。この発明によれば、請求項4に記載の発明と同様の作用効果が得られる。
【0033】
請求項9に記載の発明は、一つのコンピュータに単独処理で又は複数のコンピュータに分散処理で、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行させて画像を得るボリュームレンダリング画像処理プログラムであって、少なくとも一のコンピュータに、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、入力手段により入力されたパラメータであって、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定し、前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する段階と、当該取得された複数の画像をメモリに記憶する段階と、予め入力手段から入力設定された画像合成用のブレンド比率に基づいて、前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する段階とを実行させることを要旨とする。この発明によれば、請求項1に記載の発明と同様の作用効果が得られる。
【0034】
請求項10に記載の発明は、前記複数の物体は前記画像データの画素値で区分させることを要旨とする。
【0035】
請求項11に記載の発明は、前記少なくとも一のコンピュータに、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断段階を実行させることを要旨とする。
【0037】
請求項12に記載の発明は、前記ボリュームレンダリング処理において、前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する段階を実行させることを要旨とする。この発明によれば、請求項4に記載の発明と同様の作用効果が得られる。
【0039】
【発明の実施の形態】
(第1の実施形態)
図1に示すように、画像表示装置1は、データベース2からCT画像撮影装置により撮影されたCT画像データを読み取って、医療診断用の各種画像を生成し画面に表示する。使用される画像データは、CT画像に限らず、MRI画像でも勿論よいが、本実施形態ではCT画像を例に説明する。
【0040】
画像表示装置1は、計算機(コンピュータ)3(ワークステーションやパーソナルコンピュータ)と、表示装置4と、キーボード5及びマウス6などの入力装置とを備えている。計算機3はデータベース2と接続されている。
【0041】
図2は、画像表示装置の概略構成を示す。計算機(コンピュータ)3にはCPU(中央処理装置)7、ハードディスク等からなるメモリ8が備えられており、メモリ8には、ボリュームレンダリング画像処理を実行するためのプログラム(アプリケーションソフト)9が記憶されている。メモリ8はデータベース2又はハードディスクから読み取ったCT画像の画像データ(ボクセルデータ)を一時記憶するメモリ部8aと、CPU7がプログラム9を実行し、画像データ(3D座標データ含む)を用いて行われる画像処理によって生成された画像処理データを一時記憶するメモリ部8bとを備えている。CPU7は、このプログラムを実行することにより、データベース2から取得したCT画像データを用いて所定の画像を生成する画像処理を実行する。3次元画像データは、患者等の人体を断層撮影したもので、骨と血管の位置関係を知りたいときなどの画像診断に使用する。なお、CT画像データには、CT撮影装置によりCTスキャンされた人体の断層画像(スライス画像)の座標データもすべてあり、視線方向(奥行き方向)における異なる組織間の位置関係は、座標データから判別できるようになっている。
【0042】
まずユーザは表示装置4の画面4a上でキーボード5やマウス6を操作して患者の所定の画像ファイルを選択しCT画像を表示する。CT画像として画面4aに描き出された組織の中から表示対象とする組織(物体)を選択する。例えば頭蓋骨と血管をマウス6等で選択したとして以下の説明を進める。
【0043】
図3は、本実施形態におけるボリュームレンダリング処理内容を説明する図である。ここで、頭蓋骨と血管は視線方向(レイの照射方向)において重なる位置関係にある。すなわち、頭蓋骨の中に血管が張り巡らされているように延びる状態にある。
【0044】
図3は、3次元画像データ(ボクセルデータ)を用いて2次元画像を作成する処理を示すものである。例としては頭蓋骨50とその内側の血管51を見る画像の作成処理を示す。頭蓋骨50と血管51がX線撮影されたCT画像データ(ボクセルデータ)は、3次元格子点に画素(ボクセル)をもつ画素群からなる。視線方向から1本のレイ(光線)を照射し、ボクセル毎に光の吸収・反射の離散的な計算をし、その反射光を演算することで2次元平面(フレーム)52に投影される画像のピクセル値を求めて2次元画像を生成する。なお、頭蓋骨50が外側の物体、血管51が内側の物体に相当する。
【0045】
入射された1本のレイは、同図に示すように骨部B1、血管部K1、骨部B2、血管部K2、骨部B3の順に進み、そのときこれらを構成するボクセルに当たって一部反射しながらボクセルを順次透過して進むことになる。本実施形態では、レイキャスティングの処理を、骨50と血管51のボクセルに対する不透明度の設定を変えて2回実施する。1回目は、骨部B1,B2,B3の不透明度を高くし、血管部K1,K2の不透明度を低くする(つまり透明とする)。2回目は、骨部B1,B2,B3の不透明度を低くし(つまり透明とし)、血管部K1,K2の不透明度を高くする。
【0046】
ここで、レイキャスティング法によるボリュームレンダリング処理について説明する。図4(a),(b)に示すように、ボリュームレンダリング処理には、「平行投影法」と「透視投影法」とがある。平行投影法の方が計算負荷が軽いため、通常この投影法がよく用いられる。透視投影法では内視鏡から得られるような画像を生成するため、血管など組織内の様子を観察したい場合に用いられる。
【0047】
図4に示すように、ボクセルデータVDは3次元(但し同図では2次元的に描かれている)の格子点にボクセル値(例えばCT値)を持つデータである。ボリュームレンダリングには一般的にレイキャスティング法が用いられる。レイキャスティング法とは、観察する側(フレーム側)から光の経路を考えるもので、フレーム側のピクセルから光のレイを飛ばし、一定距離を進むごとにその位置での反射光を計算する(図4では「…,Vn- 1 ,Vn ,Vn+1 ,Vn+2 ,…」の符号が各到達位置のボクセルに対応している)。レイ到達位置が格子上にない場合はその周りのボクセルのボクセル値から補間処理を行ってその位置でのボクセル値を計算する。
【0048】
図5は、レイキャスティング法の計算方法を説明するもので、図4における1本のレイに対応した処理である。同図におけるブロックはボクセルに相当するもので、これら各ボクセルは光に対する特性パラメータとして不透明度(オパシティ(opacity)値) αn およびシェーディング係数βn を有する。ここで、不透明度αn は、0≦αn ≦1を満たす数値で表され、値(1−αn )は透明度(transparency)を示す。不透明度αn=1は不透明、αn=0は透明、0<αn<1は半透明にそれぞれ対応する。シェーディング係数は色、グラディエントなどシェーディングに関する情報を持つ。
【0049】
初期入射光(光線)I1 は、各ボクセルを順次透過してゆくとともに各ボクセルで一部反射および吸収されることによりその残存光(透過光)は徐々に減衰する。各ボクセルにおける部分反射光Rn (n=1,2,…)の積算値(積算反射光)が、フレーム側におけるピクセルの輝度に相当する。ここで、減衰光Dn (n=1,2,…)は、n番目のボクセルの入射光In を用いて、式 Dn =αn In で表されるため、部分反射光Rn は、式 Rn =βn Dn =βn αn In で表される。また各ボクセルにおける入射光と残存光(透過光)との関係式から、式 In+1 =(1−αn )In が成り立つ。よって積算反射光であるピクセル値Pは、次式により表される。
P=β1α1I1+β2α2I2+・・・+βnαnIn=ΣβnαnIn
なお、各ボクセル値に対して不透明度αnとの関係付けが予めなされており、その関係付け情報に基づきボクセル値から不透明度αnを得ている。例えば、血管のボリュームレンダリング画像を得たい場合、血管のCT値(HU)が例えば「40〜60」に分布しているとすると、CT値で表されるボクセル値「40〜60」には不透明度「1」を関連付け、他のボクセル値には不透明度「0」を関連付けることで、血管51を表示することができる。
【0050】
本実施形態では、組織の画像は、各組織に応じた色でカラー表示されるようになっている。例えば骨は「白」、血管は「赤」に予め指定されている。例えば、色が256階調である場合、骨のCT値「100〜1000」を有するボクセルについては、(R,G,B)=(255,255,255)(「白」)が設定され、血管のCT値「40〜60」を有するボクセルについては、(R,G,B)=(255,0,0)(「赤」)が設定される。
【0051】
従来手法では1つのボクセルに照射するレイは1本だけであったが、この実施形態では、1つのボクセルに複数本のレイを照射することで複数のボリュームレンダリング画像を取得し、その取得した複数の画像をアルファブレンディング処理により合成する手法を採用する。
【0052】
図3に示すレイR1は骨50を重点的に見るようにオパシティ値「1」を設定している。骨50は「白」で骨50以外の組織は透明にする。一方、レイR2は血管51を重点的に見るようにオパシティ値「1」を設定している。血管51は「赤」で血管以外の組織は透明にする。
【0053】
図6(a)は、1本のレイR1が、骨部B1、血管部K1、骨部B2、血管部K2、骨部B3を順に進み、これら各組織でレイR1が反射・透過される様子を示すものである。ここで、注目したい組織を表示させるときはその組織のボクセル値に対し不透明度(オパシティ値)を高く設定する。骨50が重点的に見えるように表示させたい場合、骨部B1,B2,B3のボクセル値には骨50がやや不透明となるように高いオパシティ値(例えば「0.9」)を設定し、血管51のボクセル値には血管部K1,K2が透明となるように低いオパシティ値(例えば「0」)を設定する。但し、血管部K1,K2のオパシティ値は「1」としてもよく、本実施形態では後述する理由から「1」を設定する。この場合、ボリュームレンダリング処理の結果、同図(a)における右端の図に示すように、骨50がくっきり見える第1画像31が得られる。
【0054】
一方、図6(b)に示すように、血管51が重点的によく見えるようにするため、骨部B1,B2,B3のボクセル値には骨部B1,B2,B3が透明となる低いオパシティ値(例えば「0」)を設定し、血管51のボクセル値には血管部K1,K2が不透明となる高いオパシティ値(例えば「1」)を設定する。この場合、ボリュームレンダリング処理の結果、血管51がくっきり見える第2画像32が得られる。
【0055】
次に図7に示すように、骨50だけが見える画像31と血管51だけが見える画像32を、アルファブレンディング処理で合成する。
例えば2つの物体のボリュームレンダリング画像(第1画像,第2画像)をアルファブレンディングする場合を考える。まず第1画像中のピクセル(画素値)を(R1,G1,B1)、第2画像中のピクセル(画素値)を(R2,G2,B2)とおく。第1画像と第2画像のブレンド比率を「α:(1−α)」(但し0≦α≦1)とした場合、アルファブレンディング後の画像中のピクセル(画素値)(r,g,b)は以下のように表される。
【0056】
r=αR1+(1−α)R2 … (1)
g=αG1+(1−α)G2 … (2)
b=αB1+(1−α)B2 … (3)
図7(a)に示すように、血管51をくっきり見せて骨50は薄くてよい場合は、骨50と血管51の両画像31,32をアルファブレンディングするときのパラメータ(ブレンド比率)を、例えば骨50の画像31を「0.25」、血管51の画像32を「0.75」に設定する。すると、骨50は薄く血管51がくっきり見える画像35が作成される。
【0057】
また同図(b)に示すように、骨50と血管51の両画像31,32が半分ずつぐらいの重み付けにパラメータ(ブレンド比率)を「0.5:0.5」に設定する。すると、骨50と血管51の両方がよく見える画像36が作成される。
【0058】
さらに同図(c)に示すように、骨50の画像をくっきりで血管51は薄く表示されるようにパラメータ(ブレンド比率)を「0.75:0.25」に設定する。すると、骨50はくっきり血管51は薄く見える画像37が作成される。
【0059】
従来手法では、骨50と血管51が同時に巧く表現されるように、両方の不透明度を同時に巧く設定しなければならず、大変煩雑である上に、相互の設定が互いに影響し合うためどのように設定しても両方を巧く表示することができない場合もあった。
【0060】
本実施形態の新規手法であると、骨50をよく見えるように設定してやり、次に血管51をよく見えるように設定するという具合にそれぞれ個別に最適の画像を設定すれば良いので簡便であるだけでなく、より目的に適した画像を作成することが可能になる。そして、それぞれがよく見えるように設定した後は、アルファブレンディングのパラメータを設定すれば、骨50と血管51の見え方を自由に簡単に設定することができる。
【0061】
また従来手法では、外側の物体の厚みの違いにより内部の物体の見え方が変わるという欠点があった。これは外側の物体の厚みにより内部まで透過するレイの光量が変わるためで、外側の物体が厚い場合は内部まで透過するレイの光量が少なくなり内側の物体は淡く表示され、外側の物体が薄い場合は透過するレイの光量が多くなり内側の物体は少し濃く表示される。新規手法においては外側、内側の物体それぞれの表示のために個別のレイを投射するため、この欠点が解決されている。
【0062】
図8〜図10は、物体Aと物体Bの位置関係と、第1画像と第2画像をアルファブレンディングして物体A,Bの両方がよく見える画像を作成する画像処理を説明するものである。
【0063】
図8(a)は、外側の物体Aに内側の物体Bが内包されている例である。同図(b)に示すように、物体Aが明瞭に描かれた第1画像31と、物体Bが明瞭に描かれた第2画像32とを取得し、両画像31,32をアルファブレンディングして合成画像36を取得する。ここで、同図において画像31,32の上側に表記した「A+B」,「B」は、その画像を得るためにオパシティ値を高く設定する必要がある物体を指す。第1画像31を得るときは、物体A,Bのオパシティ値を共に「1」に設定する方法を採る。もちろん、物体Aのみオパシティ値「1」とし物体Bについてはオパシティ値「0」とする設定でもよい。どちらの設定の下でもボリュームレンダリング処理で得られる画像は、外側の物体Aのみが明瞭に描き出されたものとなる。また第2画像32を得るときは、内側の物体Bが明瞭に描かれるように物体Bのオパシティ値のみ「1」とし、外側の物体Aについては透明になるようにオパシティ値「0」に設定する。ここで、合成画像36は、物体Aがよく見えるとともにその物体Aが半分透けてその内側の物体Bもよく見える画像となる。
【0064】
また図9(a)は、視線方向から見て手前側に物体A、奥側に物体Bが存在し、物体Bが物体Aの後側に完全に隠れる例である。同図(b)に示すように、物体A,Bのオパシティ値を共に「1」に設定して第1画像31を取得し、物体Bのオパシティ値「1」、手前の物体Aのオパシティ値「0」に設定して第2画像32を取得し、両画像31,32をアルファブレンディングすることで合成画像36を取得する。この合成画像36は、物体Aがよく見えるとともにその物体Aが半分透けてその奥側の物体Bもよく見える画像となる。なお、第1画像31を得るときは、物体Aのみオパシティ値「1」とし物体Bについてはオパシティ値「0」とする設定でもよい。
【0065】
さらに図10(a)は、外側の物体Aに棒状の物体Bが一部はみ出た状態に配置された例である。同図(b)は第1画像31を得るときに、物体A,B共にオパシティ値「1」に設定した例で、一方の同図(c)は外側の物体Aのみオパシティ値「1」とし内側の物体Bについてはオパシティ値「0」に設定した例である。同図(b)に示す第1画像31では物体Bの物体Aからはみ出ている部分も明瞭に描かれた画像となるので、アルファブレンディング後に得られる画像36では、物体Aと共に物体Bのはみ出ている部分もはっきり見える。これに対し、同図(c)に示す第1画像38には物体Aのみしか描かれていないため、これと物体Bのみ描かれた第2画像32とをアルファブレンディングして得られた合成画像39では、物体Bのはみ出ている部分も半透明になってしまう。このため、内側または奥側の物体Bにも高いオパシティ値を設定して第1画像31を得ることが、アルファブレンディング後に適切な合成画像36を得るうえで都合がよい。このような理由から、本実施形態では、外側又は手前側の物体Aが明瞭に描かれた第1画像を得るときは、表示対象とする物体のすべてのオパシティ値を高く設定するようにしている。
【0066】
次にCPU7が実行するこのプログラムについて説明する。図11にフローチャートで示したものが本実施形態の画像表示処理プログラム(画像表示処理ルーチン)である。CPU7がこのプログラムを実行することで図6,図7等に示す処理が実行される。なお、組織(物体)に視線方向の重なりが存在するか否かはボクセルデータが有する座標データから判断され、重なりが存在する場合に以下の処理を実行する。もちろん、この処理をする設定が選択されているときは常にこの処理を実行する方法を採用してもよいし、さらにはこの処理を実行する必要があるかどうかはユーザが組織の画像などを見て決めるものであってもよい。
【0067】
ユーザは画面4a上で視線方向を決める。そして、画面4a上で表示対象とする組織を選択する。組織の選択はボクセル値(CT値)を指定することで行われる。ここで、オパシティ値の設定方法は、以下のものの中から選択された適切なものがプログラムに書き込まれている。
1)マウスで設定する方法
2)装置(プログラム)に予め設定してあるデフォルト値で設定する方法
3)予め用意された複数のデフォルト値の中から適当なものをユーザが選ぶ方法。
例えばデフォルト値としては、心臓用パラメータ、肝臓用パラメータ、脳用パラメータ、肺用パラメータなどが挙げられる。
【0068】
但し、オパシティ値は上記3)のような設定方法を採用する方が好ましい。これは、現実的には物体を意図どおりに表示させるためには手動で設定しなければならない場合が殆どであり、同じ臓器に対して同じパラメータを設定しても、患者や撮影状況により表示が異なる場合が殆どだからである。また、最初からパラメータを設定するのは大変なので、臓器ごとに用意してあるデフォルト値を選んで大まかにパラメータを設定してから、人手で微調整して最適な表示にする。アルファブレンド比率の設定方法についても、基本的に上記1),2),3)のうちから選択された適切なものがプログラムとして書き込まれている。なお、前記3)の方法を採用する場合は、予め用意された複数の中からユーザが選ぶデフォルト値としては、アルファブレンド比率として幾種か用意されたパラメータとする。例えば「1:0」,「0.9:0.1」,「0.8:0.2」,「0.7:0.3」,「0.6:0.4」,「0.5:0.5」パラメータを用意し、ユーザがマウスで選択した物体A,BについてA:Bのブレンド比率を設定する場合、これらのパラメータ(デフォルト値)の中から1つ選んで設定する。もちろん3つ以上の物体に対応するブレンド比率についても幾種か予め用意しておいてもよい。また、オパシティ値やブレンド比率のパラメータは、その数値そのものでなくてもよく、パラメータ(予め設定された数値)と対応付けられた番号や記号、文字、アイコン、入力選択子(ラジオボタン、プルダウンリストボックス等)、ランク値などでもよい。
【0069】
例えば頭蓋骨とその中の血管の様子(位置関係)を見たい場合は、キーボード5やマウス6を用いて画面4a上で頭蓋骨50と血管51を選択する。また、ユーザはキーボード5やマウス6を用いてアルファブレンディングのブレンド比率を入力して設定する。このブレンド比率の設定は、ブレンド比率の合計が「1」になるように各物体(組織)ごとの画像に対して1以内の数値を自由に設定する方法や、予め設定されたデフォルト値を使用する方法、予めソフトウェア側で複数種用意された所定のブレンド比率を選択入力する方法など各種設定方法の中から採用される。
【0070】
視線方向に重なりのある2つの物体、すなわちこの例でいう頭蓋骨50と血管51のボリュームレンダリング画像を画面4a上に表示させる処理手順には次の2通りがある。1つは、ユーザが従来通りマウス6等を用いた手動操作でオパシティ値を設定して2つの物体が個別に明瞭に描かれた第1画像31と第2画像32を取得し、取得した2つの画像31,32を、その後、ユーザがマウス6等を用いて手動操作で設定したブレンド比率でアルファブレンディング処理を行う方法である。他の1つは、表示対象とされる2つの物体がマウス6等を用いて選択されると、選択された2つの物体のパラメータ(物体毎に予め設定された不透明度のデフォルト値)を自動設定し、その自動設定されたオパシティ値のパラメータを基にボリュームレンダリング処理が実行され、第1画像31と第2画像を取得する。そして、2つの画像31,32を画像合成するために使うブレンド比率(デフォルト値で例えば「0.5:0.5」(設定変更は可能))を自動設定し、その自動設定されたブレンド比率でアルファブレンディングを行う方法である。以下のプログラムの処理説明は、オパシティ値とブレンド比率の各種パラメータを自動設定する方法を基本としているが、手動操作によりパラメータを設定する方法も合わせて以下のフローチャートを用いて説明することにする。
【0071】
表示対象となる複数の物体50,51の選択が終わった後、パラメータ自動設定の場合は、ユーザが画像処理実行を選択すると、CPU7がプログラムを実行することで、頭蓋骨50と血管51のボリュームレンダリング画像が画面4a上に表示される。この処理は以下のように進められる。
【0072】
まずステップ(以下単に「S」と記す)10では、表示対象として指定された物体の数(物体数)Nを読み取る。この例では、頭蓋骨50と血管51の2つが選択指定されているので、物体数Nは「2」となる。
【0073】
次のS20では、表示対象とされる物体の重なりの有無を判断する。この例では、視線方向から見たときに頭蓋骨50と血管51が重なり合わないか否かを、現在の視線方向と両物体50,51の各座標データに基づき演算して判断する。両物体が視線方向から見たときに少なくとも一部重なり合うと判断すれば、S30に進み、全く重なり合わないと判断すればS110に進む。S110では、従来通りの通常のボリュームレンダリング処理が行われることになる。
【0074】
S30では、n=1を設定する。ここで「n」は各物体の画像を取得するための処理のカウントをするためのもので、ここでは1回目の処理をこれから行うので初期値「1」を設定する。視線方向から見て手前側または外側の物体から奥側または内側へ向かうに連れて順番に第1物体(第1組織),第2物体(第2組織),…,第N物体(第N組織)とし、第1物体(第1組織)から第N物体(第N組織)まで順に1回目,2回目,…,N回目の画像取得処理を実行する。なお、表示対象とされる各物体(各組織)の視線方向における位置関係は、各物体(各組織)のCT値と座標データとに基づき判断され、この例では頭蓋骨50が第1組織、血管51が第2組織と判定される。
【0075】
次のS40では、第n組織の画像を取得するためのオパシティ値を設定する。まずn=1である最初は第1組織である頭蓋骨50について骨のCT値(HU)「100〜1000」が選択され、そのCT値の範囲に対して高いオパシティ値(例えば「0.9〜1」の範囲内の所定値(デフォルト値))が設定される。また、本実施形態では、第n物体の内側または奥側にある、第(n+1)物体,…,第N物体についてもその組織を示すCT値に対して高いオパシティ値(例えば(「0.9〜1」の範囲内の所定値(デフォルト値))が設定される。従って、この例では、第2組織である血管51についても血管のCT値(HU)「40〜60」に対して高いオパシティ値(例えば「0.9〜1」の範囲内の所定値(デフォルト値))が設定される。なお、オパシティ値は、例えばその組織を示すCT値の範囲内の中心値を最大値とする傾斜をつけた値に設定される。また、オパシティ値以外にもボリュームレンダリング処理するうえで必要な各種パラメータ(例えばシェーディング係数βなど)がこの処理で一緒に設定される。また、骨や血管のCT値は、組織の質や形態、その他種々の条件から適宜な値が決定されるべきもので、上記各組織(骨や血管)のCT値はあくまで一例に過ぎない。
【0076】
なお、オパシティ値のパラメータをユーザが手動操作で設定する方法の場合は、このS40の処理内容は次のようになる。すなわち、ユーザが表示対象として選択した物体別にオパシティ値の入力を要求する所定表示を画面4aに表示し、この要求に応答すべくユーザがキーボード5又はマウス6を用いてオパシティ値に関するデータを入力すると、その入力されたデータに応じたオパシティ値を設定する。ここで、オパシティ値に関するデータとは、上記1),3)に示す設定方法により入力されるデータである。つまり、予め用意された複数の中からユーザが選ぶデフォルト値、オパシティ値の数値そのもの、パラメータと対応付けられた番号や記号、文字、アイコン、入力選択子(ラジオボタン、プルダウンリストボックス等)、ランク値などである。オパシティ値を確定するときはキーボード5又はマウス6を用いてその確定操作をする。このS40における手動操作で入力されるデータを基にオパシティ値を設定する処理(プログラム部)及びこの処理を実行するコンピュータ3が、第1設定手段を構成する。
【0077】
S50では、第n組織の画像取得用のオパシティ値の設定の下でボリュームレンダリング処理を実行して第n画像を取得する。図6(a)に示すようにレイが照射され、その反射光R1を計算して第1組織である頭蓋骨50が明瞭に表示された同図に示す第1画像31が得られる。ここで、血管のオパシティ値も「1」に設定されている場合、外側の頭蓋骨50でレイが反射されてしまうため、血管51のオパシティ値が「0」に設定された場合と同様に第1画像31は頭蓋骨50だけがくっきり見える画像となる。このボリュームレンダリング処理で得られた第n画像(ここでは第1画像31)(画像データ)は、メモリ部8bに記憶する。好ましくは、ユーザにオパシティ値の設定か適切であったかどうか画像を見て確認できるように第n画像を画面4aに表示し、オパシティ値が不適切である場合は、適切な値が設定されるまでオパシティ値を変更し直せる機能を備えるとよい。
【0078】
S60では、N個の画像(第1〜第N画像)をすべて取得したか否かを判断する。ここまでの処理では、第1画像を取得しただけなのでS70に進む。
S70では、nの値をインクリメント(n=n+1)し、S40に移行する。
【0079】
S40では、第2組織の明瞭な画像(第2画像)が得られるようにオパシティ値を設定する。この例では、第2組織である血管51のCT値「40〜60」に対して高いオパシティ値(例えば(「0.9〜1」の範囲内の所定値)を設定するとともにそれ以外の組織のCT値(つまり血管のCT値「40〜60」以外のCT値)についてはオパシティ値「0」を設定する。但し、第2組織を明瞭に表示する画像を得るためのオパシティ値の設定は、この第2組織よりも視線方向奥側に隠れて存在する組織(第3組織,…,第n組織)についても高いオパシティ値(例えば(「0.9〜1」の範囲内の所定値)を設定する。この例では、表示対象として選択された組織が、頭蓋骨と血管の2つで第2組織までしかないので、血管のCT値「40〜60」に対して高いオパシティ値(例えば(「0.9〜1」の範囲内の所定値)を設定し、その他の組織のCT値に対して「0」を設定する。また、オパシティ値以外にもボリュームレンダリング処理するうえで必要な各種パラメータ(例えばシェーディング係数βなど)がこの処理で一緒に設定される。
【0080】
なお、オパシティ値のパラメータをユーザが手動操作で設定する方法の場合は、このS40の処理において、ユーザが表示対象として選択した物体別にオパシティ値の入力を要求する所定表示を画面4aに表示し、この要求に応答してユーザがマウス6等を用いて入力したデータに応じたオパシティ値を設定する。この設定されたオパシティ値が第2画像を得るために使われるパラメータとなる。
【0081】
S50では、第2画像を取得するためのオパシティ値の設定の下でボリュームレンダリング処理を実行して第2画像を取得する。図6(b)に示すようにレイが照射され、反射光R2を計算して第1組織である頭蓋骨50が透明となって第2組織である血管51が明瞭に表示された同図に示す第2画像32が得られる。ここで、オパシティ値「0」に設定された外側の頭蓋骨をレイが透過してしまうため、第2画像32は血管だけがくっきり見える画像となる。このボリュームレンダリング処理で得られた第2画像32(画像データ)は、メモリ部8bに記憶する。
【0082】
S60では、表示対象として選択された組織の画像をすべて取得したか否かを判断する。この例では、表示対象として選択された物体数(組織数)「N」が「2」であり、頭蓋骨50と血管51の2つの画像(第1画像31と第2画像32)を取得し終わっているので、必要な画像はすべて取得したと判断し、次のS80に進む。ここで、物体数(組織数)Nが3以上である場合は、さらにS70,S40,S50の処理を繰り返し、表示対象として選択された物体数(組織数)Nに一致する数の各組織の画像のすべてを取得し終わるまで処理を継続する。
【0083】
S80では、ブレンド比率を読み取る。つまり、ユーザが予め入力設定してメモリ部8bに記憶されていたブレンド比率の設定データを読み取る。なお、ブレンド比率のパラメータをユーザが手動操作で設定する方法の場合は、このS80の処理内容は次のようになる。すなわち、ユーザが表示対象として選択した物体が個別に明瞭に描かれた複数(N)の画像をアルファブレンディングする際のブレンド比率の入力を要求する所定表示を画面4aに表示する。そして、この要求に応答すべくユーザがキーボード5又はマウス6を用いてブレンド比率に関するデータを入力すると、その入力されたデータに応じたブレンド比率を設定する。ここで、ブレンド比率に関するデータとは、上記1),3)に示す設定方法により入力されるデータである。つまり、予め用意された複数の中からユーザが選ぶデフォルト値、ブレンド比率の数値そのもの、パラメータと対応付けられた番号や記号、文字、アイコン、入力選択子(ラジオボタン、プルダウンリストボックス等)、ランク値などである。ブレンド比率を確定するときはキーボード5又はマウス6を用いてその確定操作をする。このS80における手動操作で入力されるデータを基にブレンド比率を設定する処理(プログラム部)及びこの処理を実行するコンピュータ3が、第2設定手段を構成する。
【0084】
S90では、アルファブレンディング処理を実行する。すなわち、表示対象とされる各物体(各組織)が明瞭に描かれた第1〜第N画像をアルファブレンディングする。アルファブレンディング処理では、各組織の画像の画素値にその組織に設定されたブレンド比率を乗じた値を、第1〜第N画像間で加算し、その加算結果として得られた値を、アルファブレンディング後の画素値として採用する(式(1)〜(3)を参照)。このアルファブレンディング処理で得られた合成画像のデータ(画像データ)はメモリ部8bに一時的に記憶する。
【0085】
S100では、アルファブレンディング処理結果の画像を画面4aに表示する画像表示処理を実行する。すなわち、メモリ部8bに一時記憶していた画像データをメモリ部8bから読み出し、その読み出した画像データを画面4aに表示する画像表示処理を実行する。
【0086】
例えば骨を薄く血管をくっきり表示させたいときは、図7(a)に示すように骨と血管のブレンド比率を、例えば「0.25:0.75」と設定する。この場合、アルファブレンディング処理の結果、骨と血管のブレンド比率「0.25:0.75」で第1画像31と第2画像32がアルファブレンディングされ、同図に示すように骨50が薄く血管51がくっきり表示された画像35が画面4aに表示される。
【0087】
また、例えば骨と血管が共によく見えるように表示させたいときは、図7(b)に示すように骨と血管のブレンド比率を、例えば「0.5:0.5」と設定する。この場合、アルファブレンディング処理の結果、骨と血管のブレンド比率「0.5:0.5」で第1画像31と第2画像32がアルファブレンディングされ、同図に示すように骨50と血管51が共によく見える画像36が画面4aに表示される。
【0088】
さらに例えば骨をくっきり血管を薄く表示させたいときは、図7(c)に示すように骨と血管のブレンド比率を、例えば「0.75:0.25」と設定する。この場合、アルファブレンディング処理の結果、骨と血管のブレンド比率「0.75:0.25」で第1画像31と第2画像32がアルファブレンディングされ、同図に示すように骨50がくっきり血管51が薄く表示された画像37が画面4aに表示される。
【0089】
なお、明瞭に表示させるためにオパシティ値「0.9〜1」、透明に表示させるためにオパシティ値「0〜0.1」を設定したが、設定されるオパシティ値は、必要な明瞭さまたは必要な透明さで表示されるのであればこれらの値に限定されない。例えば、注目する物体(組織)を明瞭に表示させるためのオパシティ値は「0.8〜1」の範囲内の値が好ましいが、「0.6〜1」の範囲内の値でも許容範囲である。また、注目する物体(組織)を透明に表示させるためのオパシティ値は「0〜0.2」の範囲内の値が好ましいが、「0〜0.4」の範囲内の値でも許容範囲である。
【0090】
以上説明したように本実施形態によれば以下の効果が得られる。
(1)表示対象とする複数の組織をそれぞれ明瞭に表示する画像31,32を個別のボリュームレンダリング処理で取得し、明瞭な各画像31,32をアルファブレンディング処理により1つの画像36に合成する方法を採用したので、各組織が共によく見える画像36を提供できる。従来は、複数の組織が共によく見える画像を表示させるうえで微妙な設定が要求されるためオパシティ値の設定が難しかったが、本実施形態によれば、複数の組織の見え具合をブレンド比率で指定するだけの簡単な操作で、複数の組織が共によく見える所望の画像36を画面4aに表示させることができる。
【0091】
(2)アルファブレンディング処理を採用するので、各組織の不透明度の違う画像に変更したいときでも、ブレンド比率を変えるだけで簡単な操作で見たい画像に簡単に切り換えることもできる。
【0092】
(3)視線方向から見て一番手前に存在する物体(組織)Aを明瞭に表示させる画像(第1画像)31を取得するときは、その内側又は奥側の物体(組織)Bについてもオパシティ値を高く設定した。よって、外側又は手前の物体Aから内側又は奥側の物体Bのはみ出た部分を明瞭に表示できるとともに外側又は手前の物体Aに隠れる部分を半透明に表示させることができる。このため、実際の見え方に合致した画像36を提供することができる。
【0093】
(第2の実施形態)
前記第1の実施形態では、1台のワークステーションなどのコンピュータが単独でボリュームレンダリング画像処理を行ったが、本実施形態は、ボリュームレンダリング画像処理のうち少なくとも一の段階の処理については複数のコンピュータが分散処理で行う。つまり、ボリュームレンダリング画像処理方法(プログラム)を構成する各処理(段階)のうち少なくとも1つの段階(ステップ)を、複数のコンピュータが分散処理で行う。
【0094】
例えば複数台のワークステーションWSが接続された院内ネットワークにおいて、少なくとも1つの処理を複数台のワークステーションWSが分散処理で行う構成を採用できる。特にボリュームレンダリングは処理すべきデータ量が膨大であるため分散処理することで画像処理速度を向上でき、画像表示のリアルタイム性を確保し易くなる。
【0095】
ボリュームレンダリングを分散処理で行う場合には、ボクセルデータを分割する処理と、分割した各データを各コンピュータがボリュームレンダリングする処理と、その結果画像を1つのコンピュータに転送する処理と、その1つのコンピュータが各結果画像を1つの表示画像に合成する処理とが必要となる。この場合、データ分割の仕方によってアルファブレンディングを行うコンピュータの数も変化し、各結果画像を最終的に取得した1つのコンピュータがアルファブレンディングを行う場合と、各結果画像を生成した複数のコンピュータ自体がアルファブレンディングも分散処理で行う場合とがある。アルファブレンディング自体は軽い処理なので、ネットワークの転送量を減らすためにアルファブレンディングも分散して行えば、データ転送時間の短縮により画像処理速度の向上に寄与する。
【0096】
以下、少なくともボリュームレンダリングに分散処理を採用する場合の例を3つ示す。ボクセルデータ分割の仕方によって、アルファブレンドを1つのコンピュータによる単独処理とするか、複数のコンピュータによる分散処理とするかが決まる。なお、説明を簡単にするため、ここでは図12〜図14に示すように2台のワークステーションWS1,WS2を用いて、サイズ5 12x512の画像をつくる場合を例とする。画像処理対象とするボクセルデータには「外側物体A」と「内側物体B」が存在し、両物体A,Bの各結果画像(レンダリング画像)をアルファブレンドする。以下の各例では、ボリュームレンダリング(以下の例では単にレンダリングと称す)におけるオパシティ値の設定やアルファブレンディング(アルファブレンド)におけるブレンド比率の設定など各処理内容の詳細は、前記第1の実施形態と同様である。よって、ここでは、分散処理やデータ転送がどのように行われるかその手順を中心に述べる。
【0097】
(例1)「外側物体A」と「内側物体B」のレンダリングを別々のコンピュータに分けて処理する場合(図12)。この場合、アルファブレンドを1台のコンピュータで行うようにすれば、転送量が全体のレンダリング画像サイズ1つ分で済むので効率的である。処理の手順は以下のようになる。
(1-1)ワークステーションWS1は、物体Aのレンダリングを実行し、結果画像RAを生成する。一方、ワークステーションWS2は、物体Bのレンダリングを実行し、結果画像RBを生成する。
(1-2)ワークステーションWS2からワークステーションWS1に結果画像RBを転送する。このときの転送サイズは512x512となる。
(1-3)ワークステーションWS1は、結果画像RAとRBをアルファブレンドする。
【0098】
(例2)一方、空間的に2分割してそれぞれのコンピュータで物体Aの一部、物体Bの一部のレンダリングをする場合(図13)。この場合、アルファブレンドも分散させて行うほうが効率的である。転送量が全体のレンダリング画像サイズの半分で済む。処理の手順は以下のようになる。
(2-1)ワークステーションWS1は、物体Aの下半分のレンダリングを実行し、結果画像RA0を生成するとともに、物体Bの下半分のレンダリングを実行し、結果画像RB0を生成する。そして、各結果画像RA0とRB0をアルファブレンドし、結果画像RABを生成する。
(2-2)一方、ワークステーションWS2は、物体Aの上半分のレンダリングを実行し、結果画像RA1を生成するとともに、物体Bの上半分のレンダリングを実行し、結果画像RB1を生成する。そして、各結果画像RA1とRB1をアルファブレンドし、結果画像RAB1を生成する。
(2-3)ワークステーションWS2からワークステーションWS1に結果画像RAB1を転送する。このときの転送サイズは512x256で済む。
(2-4)ワークステーションWS1は、各結果画像RAB0とRAB1を結合して画像RABを生成する。
【0099】
(例3)アルファブレンディングを分散処理しない場合(図14)。この場合の処理の手順は以下のようになる。
(3-1)ワークステーションWS1は、物体Aの下半分のレンダリングを実行し、結果画像RA0を生成するとともに、物体Bの下半分のレンダリングを実行し、結果画像RB0を生成する。
(3-2)ワークステーションWS2は、物体Aの上半分のレンダリングを実行し、結果画像RA 1を生成するとともに、物体Bの上半分のレンダリングを実行し、結果画像RB1を生成する。
(3-3)ワークステーションWS2からワークステーションWS1に各結果画像RA1とRB1を転送する。このときの転送サイズは512x512となる。
(3-4)ワークステーションWS1は、各結果画像RA0とRA1を結合して結果画像RAを生成するとともに、結果画像RB0とRB1を結合して結果画像RBを生成する。
(3-5)さらにワークステーションWS1は、各結果画像RAとRBをアルファブレンドする。
【0100】
なお、上記3つの例は2つのコンピュータを用いた分散処理を説明したが、3つ以上の複数コンピュータを用いて上記各例と同様の分散処理を行うこともできる。例えば4つのコンピュータが、4分割(例えば上下左右の分割)したデータをそれぞれ外側物体Aと内側物体Bについてレンダリングして8つの結果画像を生成し、これら8つの結果画像RA0,RB0とRA1,RB1とRA2,RB2とRA3,RB3の2つずつを個々にアルファブレンドする。そして、得られたアルファブレンド後の4つの結果画像RU0,RU1,RL0,RL1を2つのコンピュータに半分ずつ集まるように転送し、2つのコンピュータが2つずつの画像(上側左右と下側左右の各画像)RU0,RU1とRL0,RL1を個々に結合して2つの画像RUとRLを生成する。さらに一つのコンピュータに集まるように一方の画像を他方のコンピュータへ転送してその1つのコンピュータが2つの結合画像(上側と下側の各画像)RUとRLを1つの最終画像に結合する。この場合、ボリュームレンダリングとアルファブレンドだけでなく画像結合(画像合成)についても最終処理を除く処理については分散処理が行われる。よって、前記第1の実施形態および上記各例から、ボリュームレンダリングとアルファブレンドと画像結合の各処理は、少なくとも一のコンピュータが行うことになる。この場合、各処理を行う少なくとも一のコンピュータは、各処理(段階)ごとに異なってもよいし同じでもよい。
【0101】
例えば図12〜図14の各例において、2つのコンピュータ3による分散処理の後、これら2つのコンピュータから他の1つのコンピュータに画像データを転送し、他の1つのコンピュータが2つのコンピュータから転送された各結果画像RA,RB(又はRAB0,RAB1)をアルファブレンドする構成でも構わない。さらにボリュームレンダリングを行うコンピュータと、アルファブレンドを行うコンピュータと、画像結合を行うコンピュータとが、すべて異なる構成でも構わない。
【0102】
もちろん画像処理速度上の効率を無視すれば、次の処理手順を採用しても構わない。すなわち1つのワークステーションWS1がレンダリングして得た物体Aと物体Bの結果画像RA,RBのそれぞれを2つずつの画像RA0,RA1とRB0,RB1に分割し、そのうちの2つの画像RA1,RB1を他の1つのワークステーションWS2に転送する。そして2つのワークステーションWS1,WS2が各結果画像RA0,RB0とRA1,RB1をアルファブレンドして結果画像RAB0,RAB1を得ると、ワークステーションWS2は結果画像RAB1をワークステーションWS1に転送し、さらにワークステーションWS1は各結果画像RAB0,RAB1を結合する。
【0103】
この第2の実施形態によれば、前記第1の実施形態と同様の効果が得られる他、複数のコンピュータによる分散処理を採用するため、画像処理速度向上を図ることができ、例えば画面に表示される画像のリアルタイム性を確保し易くなる。特に前記例2(図13)の方法であるとデータ転送量を減らせるので、画像処理速度向上に一層寄与する。
【0104】
なお、実施の形態は上記に限定されず、以下の変形例も採用できる。
・4次元画像データでもよい。4次元画像データは3次元画像データを時系列に並べて得られる。図15に示すように、同一物体の時刻の違う複数のものを1つの画像として描く。例えば心臓40の鼓動を0.1秒毎に3次元画像をとればそれが鼓動として見えてくる。具体的には各時刻のボリュームレンダリング画像(立体画像)を作り、時刻0(t=0)、時刻1(t=1)と時刻2(t=2)の各画像を、今回の発明を適用してアルファブレンディングする。同図では時刻tn〜時刻tn+2のように時刻の異なる3つの画像41a,41b,41cをアルファブレンディングして合成画像42を得ている。もちろん、画像取得の時間間隔や、合成する画像数は適宜設定できる。例えば時刻の異なる各物体の不透明度を同じにして色を違うものにすれば経時的なずれをみることができる。
【0105】
・ 前記実施形態(図11のフローチャート参照)では、1回目のボリュームレンダリング処理の後、2回目用のオパシティ値を設定して2回目のボリュームレンダリング処理を実行する処理手順を採った。これに対し、全てのボリュームレンダリング処理回数分のオパシティ値を予め先に設定してから、順次ボリュームレンダリングを実行する処理手順を採用することもできる。
【0106】
・ 少なくとも一部が重なり合う物体と、重なりの全くない物体とが表示対象として指定されているときは以下の処理方法を採用してもよい。まず少なくとも一部が重なり合う物体についてのみアルファブレンディング処理を適用する。そして、重なりの全くない物体については、少なくとも一部が重なり合う物体の不透明度を「0」に設定したうえで通常のボリュームレンダリング処理を実行する。その後、先のアルファブレンディング画像と、通常のボリュームレンダリング画像とを1つの画像に合成する。
【0107】
・ 表示対象とされる物体が3つ以上存在する場合で、視線方向から見てそのうち少なくとも3つが重なり合う場合は、その重なり合う3つ以上の物体の明瞭画像を個々に得るために3つ以上の物体個々にボリュームレンダリング処理する必要はない。例えば視線方向から見て手前又は外側寄りとなる複数の物体と、奥側又は内側寄りとなる複数の物体とに分け、ボリュームレンダリング処理を2回で済ますなど、少なくとも一部重なり合う物体の数より少ない回数のボリュームレンダリング処理で済ませても構わない。
【0108】
・ アルファブレンディングのブレンド比率は、一定値であることに限定されない。ブレンド比率は画像内でその値が変化し、画像内の場所によってブレンド比率が異なるような指定値であってもよい。
【0109】
・ 物体は、骨や血管などの組織に限定されない。CT撮影等が可能であれば、特に人体や動物、植物等の生物の組織に限らず、地質調査、鉱物探査、機械、装置類の構造材、電気回路の回路を見る画像処理に適用することもできる。
【0110】
以下、前記各実施形態及び変形例から把握される技術的思想を記載する。
(1)一つのコンピュータが単独処理で又は複数のコンピュータが単独処理と分散処理とのうち少なくとも分散処理を含む少なくとも一の処理で、3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理方法であって、少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体に対し入力手段により個々の物体が明瞭に描かれる画像を個別に得るべく個別に入力設定された所定のパラメータを基にボリュームレンダリング処理を個別に実行することで前記物体が個々に明瞭に描かれた複数の画像を取得してメモリに記憶する段階と、少なくとも一のコンピュータが、入力手段から入力設定された画像合成用の合成比率を基に前記メモリから読み出した前記複数の画像を1つの画像に合成する画像合成処理を実行する段階とを備えたことを特徴とするボリュームレンダリング画像処理方法。
【0111】
(2)3次元以上の画像データを基に少なくともボリュームレンダリング処理を、一つのコンピュータに単独処理で又は複数のコンピュータに単独処理と分散処理とのうち少なくとも分散処理を含む少なくとも一の処理で実行させるプログラムであって、少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体に対し入力手段により個々の物体が明瞭に描かれる画像を個別に得るべく個別に入力設定された所定のパラメータを基にボリュームレンダリング処理を個別に実行することで前記物体が個々に明瞭に描かれた複数の画像を取得してメモリに記憶する段階と、少なくとも一のコンピュータが、入力手段から入力設定された画像合成用の合成比率を基に前記メモリから読み出した前記複数の画像を1つの画像に合成する画像合成処理を実行する段階とをコンピュータに実行させることを特徴とするプログラム。
【0112】
(3)一つのコンピュータが単独処理で又は複数のコンピュータが単独処理と分散処理とのうち少なくとも分散処理を含む少なくとも一の処理で、3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理方法であって、少なくとも一のコンピュータが、表示対象とされるとともに視線方向において少なくとも一部が重なり合う物体について個別に不透明度を高くしてボリュームレンダリング処理を実行することで前記視線方向に重なり合う物体の明瞭な画像を個別に取得する段階と、少なくとも一のコンピュータが、前記個別に取得した複数の画像を1つの画像に合成する画像合成処理を実行する段階とを備えたことを特徴とするボリュームレンダリング画像処理方法。
【0113】
(4) 請求項1〜3及び前記技術的思想(1),(3)のいずれか一項に記載のボリュームレンダリング画像処理方法において、少なくとも一のコンピュータが、前記画像合成処理で得られた画像合成後の画像を画面に表示する表示処理を実行する段階とを備えたことを特徴とするボリュームレンダリング画像処理方法。
【0114】
(5) 請求項4に記載のボリュームレンダリング画像処理方法において、一のコンピュータが、前記アルファブレンディング処理により得られた画像を画面に表示する表示処理を実行する段階とを備えたことを特徴とするボリュームレンダリング画像処理方法。
【0115】
(6)請求項5〜8のいずれか一項に記載のボリュームレンダリング画像処理装置において、前記画像合成処理で得られた画像を画面に表示する表示処理を実行する表示処理手段とを備えたことを特徴とするボリュームレンダリング画像処理装置。
【0116】
(7)請求項9に記載のボリュームレンダリング画像処理装置において、前記アルファブレンディング処理により得られた画像を画面に表示する表示処理を実行する表示処理手段とを備えたことを特徴とするボリュームレンダリング画像処理装置。
【0117】
(8)請求項13〜16及び前記技術的思想(3)のいずれか一項に記載のプログラムにおいて、一のコンピュータが前記画像合成処理で得られた画像を画面に表示する表示処理を実行する段階とをコンピュータに実行させることを特徴とするプログラム。
【0118】
(9)請求項17に記載のプログラムにおいて、一のコンピュータが前記アルファブレンディング処理により得られた画像を画面に表示する表示処理を実行する段階とをコンピュータに実行させることを特徴とするプログラム。
【0119】
(10)請求項1〜18及び前記技術的思想(1)〜(9)のいずれか一項において、前記物体は、前記画像データにおける画素値で区分されるものである。
(11)請求項4において、前記第1画像を取得する前記ボリュームレンダリング処理は、前記表示対象とされる複数の物体のすべてについて不透明度を相対的に高く設定したうえで実行されることを特徴とするボリュームレンダリング画像処理方法。この発明によれば、視線方向から見て手前側又は外側にある物体だけでなく表示対象とされるすべての物体の不透明度が相対的に高くされたうえでボリュームレンダリング処理が実行されることで第1画像が取得される。この第1画像には、例えば視線方向から見て奥側又は内側にある物体のうち手前側又は外側にある物体からはみ出た部分も明瞭に描かれる。従って、アルファブレンディング処理された後の画像で、奥側又は内側にある物体のうち手前側又は外側にある物体からはみ出た部分までもが、奥側や内部に隠れた部分と同様に半透明に表示される不都合を回避できる。
【0120】
【発明の効果】
以上詳述したように本発明によれば、視線方向に重なる複数の物体(組織等)を共によく見える画像を提供することができる。
【図面の簡単な説明】
【図1】第1の実施形態における画像表示装置の概略構成図。
【図2】画像表示装置の概略構成を示すブロック図。
【図3】レイキャスティングを説明する模式図。
【図4】(a)「平行投影法」、(b)「透視投影法」を示す説明図。
【図5】ボリュームレンダリング処理を説明するブロック図。
【図6】(a),(b)はボリュームレンダリング処理を説明する画像図。
【図7】アルファブレンディング処理を説明する画像図。
【図8】(a)物体の位置関係図、(b)画像処理の説明図。
【図9】(a)物体の位置関係図、(b)画像処理の説明図。
【図10】(a)物体の位置関係図、(b)画像処理の説明図。
【図11】表示画像処理ルーチンを示すフローチャート。
【図12】画像処理の分散処理を示すブロック図。
【図13】画像処理の分散処理を示すブロック図。
【図14】画像処理の分散処理を示すブロック図。
【図15】4次元画像データを用いたアルファブレンディング処理を説明する画像図。
【図16】従来技術におけるレイキャスティングを説明する模式図。
【図17】従来技術のボリュームレンダリング処理を説明する画像図。
【符号の説明】
1…画像表示装置、2…データベース、3…ボリュームレンダリング画像処理装置、画像取得手段、画像合成手段、表示処理手段、第1設定手段、第2設定手段および検出手段としての計算機(コンピュータ)、4…表示装置、4a…画面、5…入力手段としてのキーボード、6…入力手段としてのマウス、7…コンピュータを構成するCPU、8…メモリ、8b…メモリ部、9…プログラム、31…第1画像、32…第2画像、35〜37,42…アルファブレンディング処理後の画像(合成画像)、41a…第1画像、41b…第2画像、41c…第3画像、50…物体、第1物体(第1組織)、外側の物体としての頭蓋骨(骨)、51…物体、第2物体(第2組織)、内側の物体としての血管、A…物体(外側の物体、手前側の物体),B…物体(内側の物体、奥側の物体)、αn…不透明度、WS1,WS2…ワークステーション、RA,RB…第1画像としての画像、RAB…アルファブレンディングで1つに合成された画像、RA0,RA1…第1画像としての画像、RB0,RB1…第2画像としての画像、RAB0,RAB1…アルファブレンディングで1つに合成された画像。
Claims (12)
- 一つのコンピュータが単独処理で又は複数のコンピュータが分散処理で、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理方法であって、
少なくとも一のコンピュータが、
前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、入力手段により入力されたパラメータであって、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定し、前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する段階と、
当該取得された複数の画像をメモリに記憶する段階と、
予め入力手段から入力設定された画像合成用のブレンド比率に基づいて、前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する段階とを備えたことを特徴とするボリュームレンダリング画像処理方法。 - 前記複数の物体は前記画像データの画素値で区分されることを特徴とする請求項1に記載のボリュームレンダリング画像処理方法。
- 前記少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断段階を備えることを特徴とする請求項1又は請求項2に記載のボリュームレンダリング画像処理方法。
- 前記ボリュームレンダリング処理において、
前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、
さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する段階
を備えたことを特徴とする請求項1乃至請求項3のいずれか一項に記載のボリュームレンダリング画像処理方法。 - 入力装置とメモリと表示装置とを有する一つのコンピュータ又は複数のコンピュータを備え、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行して画像を得るボリュームレンダリング画像処理装置であって、
前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定するために入力する第1の入力手段と、
前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する手段と、
当該取得された複数の画像をメモリに記憶する手段と、
画像合成用のブレンド比率を予め入力設定する第2の入力手段と、
前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する手段とを備えたことを特徴とするボリュームレンダリング画像処理装置。 - 前記複数の物体は前記画像データの画素値で区分されることを特徴とする請求項5に記載のボリュームレンダリング画像処理装置。
- 前記少なくとも一のコンピュータが、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断手段を備えることを特徴とする請求項5又請求項6に記載のボリュームレンダリング画像処理装置。
- 前記ボリュームレンダリング処理において、
前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、
さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する手段
を備えたことを特徴とする請求項1乃至請求項3のいずれか一項に記載のボリュームレンダリング画像処理装置。 - 一つのコンピュータに単独処理で又は複数のコンピュータに分散処理で、表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在する3次元以上の画像データを基に少なくともボリュームレンダリング処理を実行させて画像を得るボリュームレンダリング画像処理プログラムであって、
少なくとも一のコンピュータに、
前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体に対して、入力手段により入力されたパラメータであって、当該重なり合う複数の物体のいずれかが明瞭に描かれるように、当該重なり合う個々の物体ごとに異なる不透明度のパラメータを割り当てた組合せからなる不透明度パラメータを物体ごとに設定し、前記いずれかの物体に応じた所定の不透明度パラメータに基づき、ボリュームレンダリング処理をそれぞれ個別に実行することで、前記重なり合ういずれかの物体を明瞭に描くとともに、それぞれ物体ごとに異なる色彩を付した画像をそれぞれ取得する段階と、
当該取得された複数の画像をメモリに記憶する段階と、
予め入力手段から入力設定された画像合成用のブレンド比率に基づいて、 前記メモリに記憶された前記複数の画像を読み出して、前記物体に応じて付された異なる色彩に基づいて、前記複数の画像を前記ブレンド比率でアルファブレンディング処理することで少なくとも一部が重なり合う物体のうち任意の画像が明瞭に表示されるように1つの画像に合成する画像合成処理を実行する段階とを実行させることを特徴とするボリュームレンダリング画像処理プログラム。 - 前記複数の物体は前記画像データの画素値で区分させることを特徴とする請求項9に記載のボリュームレンダリング画像処理プログラム。
- 前記少なくとも一のコンピュータに、前記画像データにおいて表示対象とされる複数の物体のうち視線方向から見たときに少なくとも一部が重なり合う物体が存在するか否かを判断する判断段階を実行させることを特徴とする請求項9又は請求項10に記載のボリュームレンダリング画像処理プログラム。
- 前記ボリュームレンダリング処理において、
前記複数の物体のうち、視線方向から見て手前側にある物体の不透明度を相対的に高く設定したうえでボリュームレンダリング処理の演算を実行して手前側にある物体が明瞭となる第1画像を取得し、
さらに、前記表示対象とされる複数の物体のうち、視線方向から見て奥側にある物体の不透明度を相対的に高く設定するとともに、それ以外の物体の不透明度を相対的に低く設定したうえでボリュームレンダリング処理の演算を実行して奥側にある物体が明瞭となる第2画像を取得する段階
を実行させることを特徴とする請求項9乃至請求項11いずれか一項に記載のボリュームレンダリング画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003006202A JP4653938B2 (ja) | 2003-01-14 | 2003-01-14 | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003006202A JP4653938B2 (ja) | 2003-01-14 | 2003-01-14 | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004215846A JP2004215846A (ja) | 2004-08-05 |
JP4653938B2 true JP4653938B2 (ja) | 2011-03-16 |
Family
ID=32896651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003006202A Expired - Lifetime JP4653938B2 (ja) | 2003-01-14 | 2003-01-14 | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4653938B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8941646B2 (en) | 2010-01-15 | 2015-01-27 | Hitachi Medical Corporation | Ultrasonic diagnostic apparatus and ultrasonic image display method |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3943563B2 (ja) | 2004-08-11 | 2007-07-11 | ザイオソフト株式会社 | 画像表示方法及び画像表示プログラム |
JP5295562B2 (ja) * | 2004-08-17 | 2013-09-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | フレキシブル3次元回転血管造影−コンピュータ断層撮影融合方法 |
JP4267598B2 (ja) * | 2005-07-11 | 2009-05-27 | ザイオソフト株式会社 | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 |
JP4901212B2 (ja) * | 2005-12-28 | 2012-03-21 | 株式会社東芝 | 医用画像処理装置 |
JP5269298B2 (ja) * | 2006-06-20 | 2013-08-21 | 株式会社東芝 | X線診断装置 |
US7953262B2 (en) | 2007-02-05 | 2011-05-31 | General Electric Company | Vascular image extraction and labeling system and method |
JP4914249B2 (ja) * | 2007-03-05 | 2012-04-11 | 淳二 黒滝 | 経時変化記録画像による動画構造、動画作成用画像データ構造および経時変化記録画像による動画作成方法 |
JP2009082407A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 画像処理装置及び医用画像処理装置 |
WO2009107770A1 (ja) * | 2008-02-29 | 2009-09-03 | 株式会社 日立メディコ | 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法 |
JP5525697B2 (ja) * | 2008-03-31 | 2014-06-18 | 株式会社東芝 | 画像処理装置及びx線診断装置 |
KR100920135B1 (ko) * | 2008-04-01 | 2009-10-08 | 한국과학기술원 | 3차원 영상데이터 획득방법 및 장치 |
JP5492024B2 (ja) * | 2010-08-30 | 2014-05-14 | 富士フイルム株式会社 | 領域分割結果修正装置、方法、及びプログラム |
JP5257958B2 (ja) * | 2011-06-01 | 2013-08-07 | 株式会社日立メディコ | 画像表示装置、画像表示システムおよび画像表示方法 |
KR101337339B1 (ko) * | 2011-10-21 | 2013-12-06 | 삼성전자주식회사 | 엑스선 영상 장치 및 그 제어방법 |
JP5173050B2 (ja) * | 2012-06-04 | 2013-03-27 | 株式会社東芝 | 医用画像処理装置 |
FI128589B (fi) | 2016-12-30 | 2020-08-31 | Planmeca Oy | Tietokonetomografia ja kuvautuvaksi halutun anatomian asemointi |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62219075A (ja) * | 1986-03-20 | 1987-09-26 | Hitachi Medical Corp | 三次元画像の半透明表示方法 |
JPH0620065A (ja) * | 1992-07-06 | 1994-01-28 | Hitachi Medical Corp | 画像診断装置 |
JPH096986A (ja) * | 1995-06-19 | 1997-01-10 | Hitachi Ltd | マルチモダリティに対応した3次元画像合成表示装置 |
JPH1011604A (ja) * | 1996-06-19 | 1998-01-16 | Hitachi Medical Corp | ボリュームレンダリング法による陰影づけ方法及び装置 |
JP2000287964A (ja) * | 1999-04-02 | 2000-10-17 | Terarikon Inc | 三次元画像表示装置 |
JP2001043395A (ja) * | 1999-07-15 | 2001-02-16 | Mitsubishi Electric Inf Technol Center America Inc | ボリュームレンダリング装置および方法 |
JP2001061789A (ja) * | 1999-07-22 | 2001-03-13 | Biosense Inc | マッピングによる状態表示方法 |
JP2001101451A (ja) * | 1999-09-27 | 2001-04-13 | Zio Software Inc | 三次元画像高速表示装置および該高速表示装置を用いて三次元空間内の座標を三次元画像上で対話的に指定する方法 |
JP2001216517A (ja) * | 2000-02-04 | 2001-08-10 | Zio Software Inc | 物体認識方法 |
JP2001291090A (ja) * | 2000-04-06 | 2001-10-19 | Terarikon Inc | 三次元画像表示装置 |
JP2002183749A (ja) * | 2000-10-04 | 2002-06-28 | Terarikon Inc | グラフィックデータの勾配の補正方法 |
JP2002260009A (ja) * | 2001-03-02 | 2002-09-13 | Ziosoft Inc | 三次元画像形成方法及び三次元画像形成装置 |
JP3326154B2 (ja) * | 2000-03-30 | 2002-09-17 | ザイオソフト株式会社 | 輪郭抽出方法、画像形成方法及び画像形成装置 |
JP2002312809A (ja) * | 2001-04-12 | 2002-10-25 | Ziosoft Inc | 3次元画像表示方法 |
-
2003
- 2003-01-14 JP JP2003006202A patent/JP4653938B2/ja not_active Expired - Lifetime
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62219075A (ja) * | 1986-03-20 | 1987-09-26 | Hitachi Medical Corp | 三次元画像の半透明表示方法 |
JPH0620065A (ja) * | 1992-07-06 | 1994-01-28 | Hitachi Medical Corp | 画像診断装置 |
JPH096986A (ja) * | 1995-06-19 | 1997-01-10 | Hitachi Ltd | マルチモダリティに対応した3次元画像合成表示装置 |
JPH1011604A (ja) * | 1996-06-19 | 1998-01-16 | Hitachi Medical Corp | ボリュームレンダリング法による陰影づけ方法及び装置 |
JP2000287964A (ja) * | 1999-04-02 | 2000-10-17 | Terarikon Inc | 三次元画像表示装置 |
JP2001043395A (ja) * | 1999-07-15 | 2001-02-16 | Mitsubishi Electric Inf Technol Center America Inc | ボリュームレンダリング装置および方法 |
JP2001061789A (ja) * | 1999-07-22 | 2001-03-13 | Biosense Inc | マッピングによる状態表示方法 |
JP2001101451A (ja) * | 1999-09-27 | 2001-04-13 | Zio Software Inc | 三次元画像高速表示装置および該高速表示装置を用いて三次元空間内の座標を三次元画像上で対話的に指定する方法 |
JP2001216517A (ja) * | 2000-02-04 | 2001-08-10 | Zio Software Inc | 物体認識方法 |
JP3326154B2 (ja) * | 2000-03-30 | 2002-09-17 | ザイオソフト株式会社 | 輪郭抽出方法、画像形成方法及び画像形成装置 |
JP2001291090A (ja) * | 2000-04-06 | 2001-10-19 | Terarikon Inc | 三次元画像表示装置 |
JP2002183749A (ja) * | 2000-10-04 | 2002-06-28 | Terarikon Inc | グラフィックデータの勾配の補正方法 |
JP2002260009A (ja) * | 2001-03-02 | 2002-09-13 | Ziosoft Inc | 三次元画像形成方法及び三次元画像形成装置 |
JP2002312809A (ja) * | 2001-04-12 | 2002-10-25 | Ziosoft Inc | 3次元画像表示方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8941646B2 (en) | 2010-01-15 | 2015-01-27 | Hitachi Medical Corporation | Ultrasonic diagnostic apparatus and ultrasonic image display method |
Also Published As
Publication number | Publication date |
---|---|
JP2004215846A (ja) | 2004-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4653938B2 (ja) | ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム | |
JP6208731B2 (ja) | トモシンセシスデータセットから2d画像を生成するためのシステムおよび方法 | |
JP4683914B2 (ja) | 三次元データを視覚化する方法及びシステム | |
JP5400326B2 (ja) | トモシンセシス画像を表示するための方法 | |
US7529396B2 (en) | Method, computer program product, and apparatus for designating region of interest | |
US7782507B2 (en) | Image processing method and computer readable medium for image processing | |
US7817877B2 (en) | Image fusion processing method, processing program, and processing device | |
US7778451B2 (en) | Cylindrical projected picture generation method, program, and cylindrical projected picture generation device | |
CN101065062B (zh) | 图像处理系统和介入期间显示图像的方法 | |
US20090174729A1 (en) | Image display device and control method thereof | |
US7424140B2 (en) | Method, computer program product, and apparatus for performing rendering | |
JP4105176B2 (ja) | 画像処理方法および画像処理プログラム | |
WO2009107770A1 (ja) | 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法 | |
CN106170255A (zh) | 用于导航x射线引导的乳房活检的系统和方法 | |
US20090003668A1 (en) | Image processing method, image processing program, and image processing device | |
WO2012161193A1 (ja) | 医用画像診断装置、医用画像処理装置及び方法 | |
JP4394127B2 (ja) | 領域修正方法 | |
EP1923840B1 (en) | Picking on fused 3D volume rendered images and updating corresponding views according to a picking action | |
JP5289966B2 (ja) | インターベンショナル手順中、シルエットレンダリング及び画像を表示するための画像処理システム及び方法 | |
JP2007512064A (ja) | 3次元画像データにおけるナビゲーションのための方法 | |
JP4653324B2 (ja) | 画像表示装置、画像表示プログラム、画像処理装置、及び医用画像診断装置 | |
US7576741B2 (en) | Method, computer program product, and device for processing projection images | |
JP2019005558A (ja) | 手術決定支援用のインコンテキストフォトリアリスティック三次元視覚化 | |
JP2002544604A (ja) | 医用画像用半透明オーバーレイ | |
JP3499541B2 (ja) | 3次元画像表示方法、装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4653938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |