JP7206617B2 - Color map optimization device and volume rendering device for tomographic image display - Google Patents

Color map optimization device and volume rendering device for tomographic image display Download PDF

Info

Publication number
JP7206617B2
JP7206617B2 JP2018076473A JP2018076473A JP7206617B2 JP 7206617 B2 JP7206617 B2 JP 7206617B2 JP 2018076473 A JP2018076473 A JP 2018076473A JP 2018076473 A JP2018076473 A JP 2018076473A JP 7206617 B2 JP7206617 B2 JP 7206617B2
Authority
JP
Japan
Prior art keywords
opacity
signal value
value
histogram
voxel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018076473A
Other languages
Japanese (ja)
Other versions
JP2019180911A (en
Inventor
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018076473A priority Critical patent/JP7206617B2/en
Publication of JP2019180911A publication Critical patent/JP2019180911A/en
Priority to JP2023000255A priority patent/JP7521623B2/en
Application granted granted Critical
Publication of JP7206617B2 publication Critical patent/JP7206617B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Description

本発明は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するボリュームレンダリング装置、およびボリュームレンダリングに用いるカラーマップに対して最適化処理を行うカラーマップの最適化装置に関する。 The present invention relates to a volume rendering apparatus that generates a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus, and a color map optimization apparatus that performs optimization processing on a color map used for volume rendering. .

CT(Computer Tomography)、MRI(Magnetic Resonance Imaging)、PET(Positron Emission Tomography)などの技術を用いた画像診断システムは、医療分野等において広く利用されている。このような画像診断システムでは、断層画像撮影装置によって撮影された複数の断層画像に基づいて三次元画像モデルを構築し、これを二次元平面に投影することによりボリュームレンダリング像を生成し、ディスプレイ画面上に表示する処理が行われる。 Image diagnostic systems using technologies such as CT (Computer Tomography), MRI (Magnetic Resonance Imaging), and PET (Positron Emission Tomography) are widely used in the medical field and the like. In such a diagnostic imaging system, a three-dimensional image model is constructed based on a plurality of tomographic images taken by a tomographic imaging device, and is projected onto a two-dimensional plane to generate a volume rendering image, which is displayed on the display screen. The processing shown above is performed.

通常、断層画像撮影装置を用いた撮影によって得られる断層画像は、測定により得られた所定の信号値が付与された画素の集合体であり、画像としては、モノクロの階調画像になる。このため、ディスプレイへの画面表示に用いられるボリュームレンダリング像を生成するには、断層画像表示用カラーマップを用いて、個々の信号値を色値および不透明度に置き換える必要がある。一般的なカラーマップは、信号値と色値とを対応づけるカラーパレットと、信号値と不透明度とを対応づけるオパシティカーブと、を有しており、このカラーマップによって示される対応関係に基づいて、断層画像を構成する各画素に付与された信号値が、色値および不透明度に置き換えられる。 Generally, a tomographic image obtained by imaging using a tomographic imaging apparatus is a collection of pixels to which predetermined signal values obtained by measurement are assigned, and the image is a monochrome gradation image. Therefore, in order to generate a volume rendering image used for screen display on a display, it is necessary to use a tomographic image display color map to replace individual signal values with color values and opacity. A general color map has a color palette that associates signal values with color values, and an opacity curve that associates signal values with opacity. , the signal value given to each pixel constituting the tomographic image is replaced with the color value and the opacity.

医療用の画像診断システムでは、特定の人体組織の観察に適したボリュームレンダリング像を得るために、それぞれ固有のカラーマップが用意される。たとえば、骨を観察するためのボリュームレンダリング像を得るためには、骨観察用のカラーマップを用いたレンダリング処理を行って骨を可視化した表示を行い、特定の臓器を観察するためのボリュームレンダリング像を得るためには、当該臓器観察用のカラーマップを用いたレンダリング処理を行って当該臓器を可視化した表示を行うことなる。 Each medical imaging system prepares its own color map to obtain a volume rendering image suitable for viewing a particular human tissue. For example, in order to obtain a volume rendering image for observing bones, rendering processing using a color map for bone observation is performed to visualize the bones, and a volume rendering image for observing a specific organ is displayed. In order to obtain , a rendering process using a color map for observing the organ is performed to display the organ in a visualized manner.

たとえば、下記の特許文献1には、観察対象ごとに、それぞれ異なるオパシティカーブを定義するとともに、信号値がオーバーラップする部分については異なる色を設定して相互に識別表示させる方法が提案されている。また、特許文献2には、観察対象となる臓器部分を自動的に抽出する手法として、リージョングローイング法が開示されている。一方、特許文献3には、信号値のヒストグラムを基に、プリセットマップを自動生成する方法が提案されており、特許文献4には、カラーマップのパラメータとして、信号値だけでなく各種物理量や時間などの複数のパラメータをもたせる技術が提案されている。 For example, Patent Literature 1 below proposes a method in which different opacity curves are defined for each observation target, and different colors are set for portions where the signal values overlap to display them in a mutually distinguishable manner. . Further, Patent Document 2 discloses a region growing method as a method for automatically extracting an organ portion to be observed. On the other hand, Patent Document 3 proposes a method of automatically generating a preset map based on a histogram of signal values. Techniques have been proposed to provide a plurality of parameters such as .

特許第4922734号公報Japanese Patent No. 4922734 特許第4087517号公報Japanese Patent No. 4087517 特許第5576117号公報Japanese Patent No. 5576117 特表2008-518347号公報Japanese Patent Publication No. 2008-518347

しかしながら、上述した従来のボリュームレンダリング装置では、所望の観察対象を選択的に、かつ、鮮明に表示することが困難であるという問題がある。具体的には、従来のボリュームレンダリング装置では、ディスプレイ画面上にボリュームレンダリング像を表示させた場合、観察対象の解像度が低下してボケが生じたり、観察対象が他の対象物の中に埋もれて見にくくなったりする問題が生じている。 However, the conventional volume rendering apparatus described above has a problem that it is difficult to selectively and clearly display a desired observation target. Specifically, in a conventional volume rendering device, when a volume rendering image is displayed on a display screen, the resolution of the observation target decreases and blurring occurs, or the observation target is buried in other objects. There is a problem that it becomes difficult to see.

そこで本発明は、断層画像撮影装置によって撮影された断層画像群に基づいて、所望の観察対象を選択的に、かつ、鮮明に表示できるボリュームレンダリング像を生成することが可能なボリュームレンダリング装置を提供することを目的とし、また、そのようなボリュームレンダリング装置に利用可能なカラーマップの最適化装置を提供することを目的とする。 Accordingly, the present invention provides a volume rendering apparatus capable of generating a volume rendering image that can selectively and clearly display a desired observation target based on a group of tomographic images captured by a tomographic imaging apparatus. It is also an object of the present invention to provide a color map optimization apparatus that can be used in such a volume rendering apparatus.

(1) 本発明の第1の態様は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するために用いるカラーマップに対して、最適化処理を行う装置において、
所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力部と、
所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを、最適化処理の対象として入力するカラーマップ入力部と、
複数の断層画像を構成する個々の画素の信号値について、個々の信号値の出現頻度を示す信号値ヒストグラムを作成する信号値ヒストグラム作成部と、
信号値ヒストグラムに対してオパシティカーブによる重みづけを行うことにより、視界ヒストグラムを作成する視界ヒストグラム作成部と、
オパシティカーブを補正して補正オパシティカーブを作成し、オパシティカーブの代わりに補正オパシティカーブを含む補正カラーマップを出力するオパシティカーブ補正部と、
を設け、
オパシティカーブ補正部が、少なくとも、オパシティカーブに対して視界ヒストグラムを利用した補正を行う視界ヒストグラム考慮補正部を有するようにしたものである。
(1) A first aspect of the present invention provides an apparatus for optimizing a color map used to generate a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus,
a tomographic image input unit for inputting a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value;
A color map that inputs a color map that includes an opacity curve that associates opacity with each signal value within a predetermined range and a color palette that associates each predetermined color value with each other as a target for optimization processing. an input unit;
a signal value histogram creation unit that creates a signal value histogram indicating the frequency of appearance of each signal value for each pixel that constitutes a plurality of tomographic images;
a field of view histogram creation unit that creates a field of view histogram by weighting the signal value histogram with an opacity curve;
an opacity curve corrector that corrects the opacity curve to create a corrected opacity curve and outputs a corrected color map containing the corrected opacity curve instead of the opacity curve;
provided,
The opacity curve corrector has at least a view histogram consideration corrector that performs correction using a view field histogram on the opacity curve.

(2) 本発明の第の態様は、上述した第1の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、信号値ヒストグラムに対してオパシティカーブによる重みづけを行うことにより得られる視界ヒストグラムのピーク位置に比べて、信号値ヒストグラムに対して補正オパシティカーブによる重みづけを行うことにより得られる補正視界ヒストグラムのピーク位置の方が、オパシティカーブのピーク位置に近くなるように、オパシティカーブに対する補正を行うようにしたものである。
( 2 ) A second aspect of the present invention is the tomographic image display color map optimization device according to the first aspect described above, comprising:
The field histogram consideration correcting unit weights the signal value histogram using the corrected opacity curve compared to the peak position of the field of view histogram obtained by weighting the signal value histogram using the opacity curve. The correction to the opacity curve is performed so that the peak position of the corrected field of view histogram obtained is closer to the peak position of the opacity curve.

(3) 本発明の第の態様は、上述した第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、補正視界ヒストグラムのピーク位置が、オパシティカーブのピーク位置に一致するように、オパシティカーブに対する補正を行うようにしたものである。
( 3 ) A third aspect of the present invention is the apparatus for optimizing a color map for tomographic image display according to the second aspect described above, comprising:
The field-of-view-histogram-considered corrector corrects the opacity curve so that the peak position of the corrected field-of-view histogram coincides with the peak position of the opacity curve.

(4) 本発明の第の態様は、上述した第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、視界ヒストグラムの所定の信号値範囲内の最大値をVHmax
、当該最大値VHmax を与える信号値をSvhとし、オパシティカーブの上記所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとし、信号値Svhにおけるオパシティカーブの不透明度をOC(Svh)としたときに、信号値Socにおける補正視界ヒストグラムの値がVHmax になり、信号値Svhにおける補正視界ヒストグラムの値がVHmax ・OC(Svh)/OCmax になるように、オパシティカーブに対する補正を行うようにしたものである。
( 4 ) A fourth aspect of the present invention is the tomographic image display color map optimization device according to the third aspect described above, comprising:
A visual field histogram consideration correcting unit calculates the maximum value of the visual field histogram within a predetermined signal value range as VHmax
, the signal value giving the maximum value VHmax is Svh, the maximum value of the opacity curve within the predetermined signal value range is OCmax, the signal value giving the maximum value OCmax is Soc, the opacity of the opacity curve at the signal value Svh is OC(Svh), the value of the corrected field of view histogram at the signal value Soc is VHmax, and the value of the corrected field of view histogram at the signal value Svh is VHmax OC(Svh)/OCmax for the opacity curve This is for correction.

(5) 本発明の第の態様は、上述した第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、信号値Sにおけるオパシティカーブの不透明度をOC(S)、信号値Sにおける視界ヒストグラムの値をVH(S)として、信号値Sにおける補正係数γ(S)を、
γ(S)=(VHmax /OCmax )・(OC(S)/VH(S))
なる式で定義し、信号値Sにおける補正オパシティカーブの不透明度OCC(S)を、
OCC(S)=γ(S)・OC(S)
なる式によって算出するようにしたものである。
( 5 ) A fifth aspect of the present invention is the tomographic image display color map optimization apparatus according to the fourth aspect described above, comprising:
The visibility histogram consideration correcting unit assumes that the opacity of the opacity curve at the signal value S is OC(S), the value of the visibility histogram at the signal value S is VH(S), and the correction coefficient γ(S) at the signal value S is
γ(S)=(VHmax/OCmax)·(OC(S)/VH(S))
The opacity OCC (S) of the corrected opacity curve at the signal value S is defined by the following formula:
OCC(S)=γ(S)・OC(S)
It is calculated by the following formula.

(6) 本発明の第6の態様は、上述した第1の態様に係る断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記信号値ヒストグラムに対して前記オパシティカーブによる重みづけを行うことにより得られる視界ヒストグラムのピーク近傍の形状に比べて、前記信号値ヒストグラムに対して前記補正オパシティカーブによる重みづけを行うことにより得られる補正視界ヒストグラムのピーク近傍の形状の方が、平坦化されるように前記オパシティカーブに対する補正を行う、具体的には、前記オパシティカーブのピーク位置における前記補正視界ヒストグラムの値が、前記視界ヒストグラムのピーク位置における前記補正視界ヒストグラムの値に一致し、かつ、前記オパシティカーブのピーク位置から前記視界ヒストグラムのピーク位置に至る区間の間の値が前記視界ヒストグラムのピーク位置における前記補正視界ヒストグラムの値に一致するように、前記オパシティカーブに対する補正を行うものである。
(6) A sixth aspect of the present invention is the tomographic image display color map optimization device according to the first aspect described above,
The field-of-view-histogram-considering correcting unit performs weighting on the signal value histogram with the opacity curve, compared to the shape near the peak of the field of view histogram obtained by weighting the signal value histogram with the corrected opacity curve. The corrected field of view at the peak position of the opacity curve is corrected so that the shape near the peak of the corrected field of view histogram obtained by weighting is flattened. The value of the histogram matches the value of the corrected field of view histogram at the peak position of the field of view histogram , and the value between the peak position of the opacity curve and the peak position of the field of view histogram is the peak of the field of view histogram. A correction is made to the opacity curve to match the values of the corrected field histogram at the position .

(7) 本発明の第の態様は、上述した第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、視界ヒストグラムの所定の信号値範囲内の最大値をVHmax
、当該最大値VHmax を与える信号値をSvhとし、オパシティカーブの上記所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとしたときに、信号値Socにおける補正視界ヒストグラムの値および信号値Svhにおける補正視界ヒストグラムの値がいずれもVHmax になるように、オパシティカーブに対する補正を行うようにしたものである。
( 7 ) A seventh aspect of the present invention is the apparatus for optimizing a color map for tomographic image display according to the sixth aspect described above, comprising:
A visual field histogram consideration correcting unit calculates the maximum value of the visual field histogram within a predetermined signal value range as VHmax
, the signal value giving the maximum value VHmax is Svh, the maximum value of the opacity curve within the predetermined signal value range is OCmax, and the signal value giving the maximum value OCmax is Soc, the corrected visual field at the signal value Soc The opacity curve is corrected so that both the histogram value and the corrected visual field histogram value at the signal value Svh are VHmax.

(8) 本発明の第の態様は、上述した第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、信号値Sにおけるオパシティカーブの不透明度をOC(S)、信号値Sにおける視界ヒストグラムの値をVH(S)として、信号値Sにおける補正係数γ(S)を、
γ(S)=(VHmax /VH(S))
なる式で定義し、信号値Sにおける補正オパシティカーブの不透明度OCC(S)を、
OCC(S)=γ(S)・OC(S)
なる式によって算出するようにしたものである。
( 8 ) An eighth aspect of the present invention is the apparatus for optimizing a color map for tomographic image display according to the seventh aspect described above, comprising:
The field histogram consideration correction unit sets the opacity of the opacity curve at the signal value S to OC(S), the field histogram value at the signal value S to VH(S), and the correction coefficient γ(S) at the signal value S as
γ(S)=(VHmax/VH(S))
The opacity OCC (S) of the corrected opacity curve at the signal value S is defined by the following formula:
OCC(S)=γ(S)・OC(S)
It is calculated by the following formula.

(9) 本発明の第の態様は、上述した第1~第の態様に係る断層画像表示用カラーマップの最適化装置において、
断層画像入力部が、複数の断層画像をそれぞれ16ビットの信号値をもつモノクロ画像として入力した後、これらを8ビットの信号値をもつモノクロ画像に変換する階調変換処理を行い、変換後の断層画像を信号値ヒストグラム作成部に与える機能を有し、
階調変換処理において、入力した複数の断層画像の一部もしくは全部についての信号値の最小値Dmin と最大値Dmax とを求め、所定のコントラスト調整係数β(但し、0<β<0.3)を用いて下限値Lmin および上限値Lmax を、Lmin =Dmin +(Dmax -Dmin )・β、Lmax =Dmin +(Dmax -Dmin )・(1-β)なる式で求め、下限値Lmin
~上限値Lmax の範囲を0~255に線形変換し、下限値Lmin
未満の信号値は0に変換し、上限値Lmax を超える信号値は255に変換することにより、8ビットの信号値をもつモノクロ画像を生成するようにしたものである。
( 9 ) A ninth aspect of the present invention is the tomographic image display color map optimizing apparatus according to the first to eighth aspects described above,
After the tomographic image input unit inputs a plurality of tomographic images as monochrome images each having a 16-bit signal value, it performs a gradation conversion process for converting these to monochrome images having an 8-bit signal value. has a function of giving a tomographic image to the signal value histogram creation unit,
In the gradation conversion process, the minimum value Dmin and the maximum value Dmax of the signal values for some or all of the input tomographic images are obtained, and a predetermined contrast adjustment coefficient β (where 0<β<0.3) is obtained. , the lower limit Lmin and the upper limit Lmax are obtained by the formulas Lmin = Dmin + (Dmax - Dmin) · β, Lmax = Dmin + (Dmax - Dmin) · (1 - β), and the lower limit Lmin
~ upper limit value Lmax is linearly transformed to 0~255, lower limit value Lmin
Signal values less than Lmax are converted to 0, and signal values exceeding the upper limit Lmax are converted to 255, thereby generating a monochrome image having 8-bit signal values.

(10) 本発明の第10の態様は、上述した第、第、第または第の態様に係る断層画像表示用カラーマップの最適化装置において、
視界ヒストグラム考慮補正部が、視界ヒストグラムの所定の信号値範囲内の最大値VHmax
を求めるために、視界ヒストグラムの0でない値をもつ最小の信号値に1を加えた値以上、視界ヒストグラムの0でない値をもつ最大の信号値から1を減じた値以下の範囲を所定の信号値範囲とするようにしたものである。
( 10 ) A tenth aspect of the present invention is the tomographic image display color map optimizing apparatus according to the fourth , fifth , seventh or eighth aspect described above, comprising:
The visual field histogram consideration correction unit determines the maximum value VHmax within a predetermined signal value range of the visual field histogram.
In order to obtain It is designed to be a value range.

(11) 本発明の第11の態様は、上述した第1~第10の態様に係る断層画像表示用カラーマップの最適化装置において、
オパシティカーブ補正部が、視界ヒストグラム考慮補正部によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、補正係数γ(但し、0<γ<1)で累乗する補正を行う累乗補正部を更に有するようにしたものである
( 11 ) An eleventh aspect of the present invention is the tomographic image display color map optimizing apparatus according to the first to tenth aspects described above, comprising:
The opacity curve corrector corrects the opacity of a part or all of the opacity curve corrected by the field histogram consideration corrector to the power of a correction coefficient γ (where 0<γ<1). It is designed to further have a part

(12) 本発明の第12の態様は、上述した第1~第10の態様に係る断層画像表示用カラーマップの最適化装置において、
オパシティカーブ補正部が、視界ヒストグラム考慮補正部によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、当該不透明度が所定のしきい値T以上の場合は補正係数γ(但し、0<γ<1)で累乗する補正を行い、当該不透明度がしきい値T未満の場合は補正係数γの逆数で累乗する補正を行う累乗補正部を更に有するようにしたものである。
( 12 ) A twelfth aspect of the present invention is the tomographic image display color map optimizing apparatus according to the first to tenth aspects described above, comprising:
The opacity curve correction unit determines the opacity of a part or all of the opacity curve corrected by the field histogram consideration correction unit. 0<γ<1), and when the opacity is less than the threshold value T, a power correcting unit is further provided to perform correction by exponentiating the reciprocal of the correction coefficient γ.

(13) 本発明の第13の態様は、上述した第1~第12の態様に係る断層画像表示用カラーマップの最適化装置を、コンピュータにプログラムを組み込むことにより構成したものである。 ( 13 ) According to a thirteenth aspect of the present invention, the color map optimizing apparatus for tomographic image display according to the first to twelfth aspects described above is configured by incorporating a program into a computer.

(14) 本発明の第14の態様は、上述した第1~第12の態様に係る断層画像表示用カラーマップの最適化装置を組み込んで断層画像表示用ボリュームレンダリング装置を構成するようにし、
断層画像表示用カラーマップの最適化装置の構成要素である断層画像入力部、カラーマップ入力部、信号値ヒストグラム作成部、視界ヒストグラム作成部、オパシティカーブ補正部に加えて、
断層画像入力部が入力した複数の断層画像の各画素に付与された信号値を、オパシティカーブ補正部から出力される補正カラーマップを用いて、所定の色値および不透明度を示すボクセル値に変換し、断層画像の各画素位置に定義された各ボクセルにボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成部と、
所定の視線方向からボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理部と、
を更に設けるようにしたものである。
( 14 ) A fourteenth aspect of the present invention is to configure a tomographic image display volume rendering device by incorporating the tomographic image display color map optimizing device according to the first to twelfth aspects described above,
In addition to the tomographic image input section, color map input section, signal value histogram creation section, view histogram creation section, and opacity curve correction section, which are the components of the tomographic image display color map optimization device,
Signal values assigned to each pixel of multiple tomographic images input by the tomographic image input unit are converted into voxel values indicating predetermined color values and opacity using the correction color map output from the opacity curve correction unit. a voxel image creation unit that creates a voxel image consisting of a collection of voxels arranged in a three-dimensional space by assigning a voxel value to each voxel defined at each pixel position of the tomographic image;
a rendering processing unit that generates a volume rendering image showing, as a two-dimensional image, a state in which the voxel image is observed from a predetermined line-of-sight direction;
is further provided.

(15) 本発明の第15の態様は、上述した第14の態様に係る断層画像表示用ボリュームレンダリング装置において、
予め作成された複数通りの標準カラーマップを格納したカラーマップ格納部を更に設け、
カラーマップ入力部が、オペレータの選択指示に応じてカラーマップ格納部から所定の標準カラーマップを入力するようにしたものである。
( 15 ) A fifteenth aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth aspect described above, comprising:
further providing a color map storage unit storing a plurality of pre-created standard color maps;
A color map input unit inputs a predetermined standard color map from a color map storage unit according to an operator's selection instruction.

(16) 本発明の第16の態様は、上述した第14または第15の態様に係る断層画像表示用ボリュームレンダリング装置において、
オペレータの作成指示に基づいて、新たにカラーマップを作成するカラーマップ作成部を更に設け、
カラーマップ入力部が、カラーマップ作成部によって作成されたカラーマップを入力するようにしたものである。
( 16 ) A sixteenth aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth or fifteenth aspect described above, comprising:
further providing a color map creation unit for creating a new color map based on an operator's creation instruction,
The color map input unit inputs the color map created by the color map creation unit.

(17) 本発明の第17の態様は、上述した第16の態様に係る断層画像表示用ボリュームレンダリング装置において、
カラーマップ作成部が、複数の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、複数の信号値区間にそれぞれ対応づけられた色値と、をオペレータの作成指示として入力し、この作成指示に基づいて、所定範囲内の連続的な信号値についての不透明度を補間により求めてオパシティカーブを作成し、上記各信号値区間に上記各色値を対応づけたカラーパレットを作成するようにしたものである。
( 17 ) A seventeenth aspect of the present invention is the tomographic image display volume rendering device according to the sixteenth aspect described above, comprising:
A color map creation unit inputs a plurality of representative signal values, an opacity corresponding to each of these representative signal values, and a color value associated with each of a plurality of signal value intervals as an operator creation instruction, Based on this creation instruction, an opacity curve is created by interpolating the opacity for continuous signal values within a predetermined range, and a color palette is created in which each signal value interval is associated with each color value. It is the one that was made.

(18) 本発明の第18の態様は、上述した第17の態様に係る断層画像表示用ボリュームレンダリング装置において、
カラーマップ作成部が、小さい順に離散的に並べられた第1の代表信号値、第2の代表信号値、第3の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、をオペレータの作成指示として入力し、第1の代表信号値と第2の代表信号値との間の信号値区間および第2の代表信号値と第3の代表信号値との間の信号値区間については不透明度を線形補間し、第1の代表信号値未満の信号値区間については第1の代表信号値に対応する不透明度を与える補間を行い、第3の代表信号値を超える信号値区間については第3の代表信号値に対応する不透明度を与える補間を行うことによりオパシティカーブを作成するようにしたものである。
( 18 ) An eighteenth aspect of the present invention is the tomographic image display volume rendering device according to the seventeenth aspect described above, comprising:
A color map creation unit creates a first representative signal value, a second representative signal value, and a third representative signal value, which are discretely arranged in ascending order, and opacities respectively corresponding to these representative signal values. Input as an operator's creation instruction, regarding the signal value interval between the first representative signal value and the second representative signal value and the signal value interval between the second representative signal value and the third representative signal value linearly interpolates the opacity, performs interpolation to give an opacity corresponding to the first representative signal value for signal value intervals below the first representative signal value, and performs interpolation to give opacity corresponding to the first representative signal value for signal value intervals exceeding the third representative signal value. is to create an opacity curve by performing interpolation that gives an opacity corresponding to the third representative signal value.

(19) 本発明の第19の態様は、上述した第17の態様に係る断層画像表示用ボリュームレンダリング装置において、
カラーマップ作成部が、小さい順に離散的に並べられた第1の代表信号値および第2の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、をオペレータの作成指示として入力し、第1の代表信号値と第2の代表信号値との間の信号値区間については不透明度を線形補間し、第1の代表信号値未満の信号値区間については第1の代表信号値に対応する不透明度を与える補間を行い、第2の代表信号値を超える信号値区間については第2の代表信号値に対応する不透明度を与える補間を行うことによりオパシティカーブを作成するようにしたものである。
( 19 ) A nineteenth aspect of the present invention is the tomographic image display volume rendering device according to the seventeenth aspect described above, comprising:
The color map creation unit inputs the first representative signal value and the second representative signal value discretely arranged in ascending order and the opacity corresponding to each of these representative signal values as an operator creation instruction. , the opacity is linearly interpolated for the signal value interval between the first representative signal value and the second representative signal value, and the opacity is linearly interpolated for the signal value interval below the first representative signal value to the first representative signal value. An opacity curve is created by performing interpolation to give corresponding opacity, and performing interpolation to give opacity corresponding to the second representative signal value for a signal value section exceeding the second representative signal value. is.

(20) 本発明の第20の態様は、上述した第14~第19の態様に係る断層画像表示用ボリュームレンダリング装置において、
レンダリング処理部が、ボクセル画像を構成する個々のボクセルの不透明度を、当該ボクセルおよび当該ボクセルに隣接する隣接ボクセルの不透明度の平均値に置き換えるスムージング処理を行い、このスムージング処理を経た後のボクセル画像に基づいてボリュームレンダリング像を生成するようにしたものである。
( 20 ) A twentieth aspect of the present invention is the tomographic image display volume rendering apparatus according to the fourteenth to nineteenth aspects described above,
A rendering processing unit performs smoothing processing to replace the opacity of each voxel that constitutes a voxel image with the average value of the opacity of the voxel and adjacent voxels adjacent to the voxel, and the voxel image after undergoing this smoothing processing. It is designed to generate a volume rendering image based on.

(21) 本発明の第21の態様は、上述した第14~第20の態様に係る断層画像表示用ボリュームレンダリング装置において、
レンダリング処理部が、ボクセル画像を構成する個々のボクセルについて、不透明度の三次元勾配を示す勾配ベクトルを求め、所定方向を向いた光源ベクトルと勾配ベクトルとの向きを考慮して輝度値を算出し、個々のボクセルの色値に対して輝度値を乗じる補正を行う陰影付加処理を行い、陰影付加処理を経た後のボクセル画像に基づいてボリュームレンダリング像を生成するようにしたものである。
( 21 ) A twenty -first aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth to twentieth aspects described above,
A rendering processing unit obtains a gradient vector indicating a three-dimensional gradient of opacity for each voxel that constitutes a voxel image, and calculates a luminance value in consideration of the direction of the light source vector pointing in a predetermined direction and the direction of the gradient vector. , a shading process is performed to correct the color value of each voxel by multiplying the luminance value, and a volume rendering image is generated based on the voxel image after the shading process.

(22) 本発明の第22の態様は、上述した第21の態様に係る断層画像表示用ボリュームレンダリング装置において、
ボクセル画像作成部が、X軸方向に所定のX軸方向ピッチで、Y軸方向に所定のY軸方向ピッチで、Z軸方向に所定のZ軸方向ピッチで、それぞれ並んで配置された三次元格子状のボクセル集合体からなるボクセル画像を作成し、
レンダリング処理部が、ある1つの着目ボクセルのX軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すX軸差分値と、着目ボクセルのY軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すY軸差分値と、着目ボクセルのZ軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すZ軸差分値と、を算出し、X軸差分値にX軸方向ピッチに応じた係数を乗じた積をX軸方向成分とし、Y軸差分値にY軸方向ピッチに応じた係数を乗じた積をY軸方向成分とし、Z軸差分値にZ軸方向ピッチに応じた係数を乗じた積をZ軸方向成分とするベクトルを、着目ボクセルについての勾配ベクトルとするようにしたものである。
( 22 ) A twenty -second aspect of the present invention is the tomographic image display volume rendering apparatus according to the twenty -first aspect described above, comprising:
The voxel image generators are arranged side by side in the X-axis direction at a predetermined X-axis direction pitch, in the Y-axis direction at a predetermined Y-axis direction pitch, and in the Z-axis direction at a predetermined Z-axis direction pitch. Create a voxel image consisting of a grid-like voxel aggregate,
A rendering processing unit generates an X-axis difference value indicating a difference in opacity between a pair of adjacent voxels arranged on both sides of a voxel of interest along the X-axis direction, and A Y-axis difference value indicating the difference in opacity between a pair of arranged adjacent voxels, and a Z-axis difference value indicating a difference in opacity between a pair of adjacent voxels arranged on both sides of the voxel of interest along the Z-axis direction. , and the product of the X-axis difference value multiplied by the coefficient corresponding to the X-axis direction pitch is defined as the X-axis component, and the product of the Y-axis difference value multiplied by the coefficient corresponding to the Y-axis direction pitch is defined as the Y-axis direction component. A vector whose Z-axis direction component is the product of the Z-axis difference value multiplied by a coefficient corresponding to the Z-axis direction pitch is used as the gradient vector for the voxel of interest.

(23) 本発明の第23の態様は、上述した第14~第22の態様に係る断層画像表示用ボリュームレンダリング装置において、
ボクセル画像作成部が、XYZ三次元直交座標系上に配置されたボクセル集合体からなるボクセル画像を作成し、
レンダリング処理部が、所定の投影面上にボリュームレンダリング像を生成する際に、XY平面が投影面に対して平行となるようにXYZ三次元直交座標系を回転させる座標変換を行った後、投影面上の投影点から座標変換後のボクセル画像に対してZ軸に平行な方向に仮想光線を照射し、この仮想光線上の各ボクセルについての色値および不透明度に基づいて算出される色値を、投影点に位置する画素の画素値として与えることにより、ボリュームレンダリング像を生成するようにしたものである。
( 23 ) A twenty -third aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth to twenty -second aspects described above,
A voxel image creation unit creates a voxel image consisting of a voxel aggregate arranged on an XYZ three-dimensional orthogonal coordinate system,
When the rendering processing unit generates a volume rendering image on a predetermined projection plane, after performing coordinate conversion to rotate the XYZ three-dimensional orthogonal coordinate system so that the XY plane is parallel to the projection plane, projection is performed. A color value calculated based on the color value and opacity of each voxel on the virtual ray, which is projected from a projection point on the plane and irradiated with a virtual ray in a direction parallel to the Z-axis to the voxel image after coordinate transformation. is given as the pixel value of the pixel located at the projection point, a volume rendering image is generated.

(24) 本発明の第24の態様は、上述した第14~第22の態様に係る断層画像表示用ボリュームレンダリング装置において、
ボクセル画像作成部が、第1のXYZ三次元直交座標系上に配置されたボクセル集合体からなる三次元テクスチャ画像を作成し、
レンダリング処理部が、所定の投影面上にボリュームレンダリング像を生成する際に、XY平面が投影面に対して平行となるような第2のXYZ三次元直交座標系を定義し、この第2のXYZ三次元直交座標系上に、XY平面に平行なマッピング平面をZ軸方向に所定間隔をおいて複数定義し、第1のXYZ三次元直交座標系から第2のXYZ三次元直交座標系への座標変換を行うことにより、三次元テクスチャ画像を複数のマッピング平面にマッピングし、投影面上におけるXY座標値(x,y)を有する投影点の色値を、当該投影点から最も遠い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値から、最も近い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値までを、各画素の不透明度を考慮して順にブレンドして決定することにより、ボリュームレンダリング像を生成するようにしたものである。
( 24 ) A twenty -fourth aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth to twenty -second aspects described above,
A voxel image creation unit creates a three-dimensional texture image consisting of a voxel aggregate arranged on a first XYZ three-dimensional orthogonal coordinate system,
When the rendering processing unit generates a volume rendering image on a predetermined projection plane, it defines a second XYZ three-dimensional orthogonal coordinate system in which the XY plane is parallel to the projection plane. A plurality of mapping planes parallel to the XY plane are defined on the XYZ three-dimensional orthogonal coordinate system at predetermined intervals in the Z-axis direction, and from the first XYZ three-dimensional orthogonal coordinate system to the second XYZ three-dimensional orthogonal coordinate system. 3D texture image is mapped on a plurality of mapping planes, and the color value of the projection point having XY coordinate values (x, y) on the projection plane is mapped to the farthest position from the projection point From the color value of the pixel mapped to the position of the XY coordinate value (x, y) on a certain mapping plane, the color value of the pixel mapped to the position of the XY coordinate value (x, y) on the nearest mapping plane A volume rendering image is generated by sequentially blending up to the color value in consideration of the opacity of each pixel.

(25) 本発明の第25の態様は、上述した第14~第24の態様に係る断層画像表示用ボリュームレンダリング装置において、
三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率を設定する不透明度補正倍率設定部を更に設け、
ボクセル画像作成部が、個々のボクセルにボクセル値を付与する際に、補正カラーマップによって示される不透明度に、当該ボクセルの位置に応じて設定されている不透明度補正倍率を乗じる補正を行い、補正後の不透明度を含むボクセル値を当該ボクセルに付与するようにしたものである。
( 25 ) A twenty -fifth aspect of the present invention is the tomographic image display volume rendering device according to the fourteenth to twenty -fourth aspects described above,
further providing an opacity correction magnification setting unit for setting a predetermined opacity correction magnification according to the position in the three-dimensional space,
When the voxel image creation unit assigns a voxel value to each voxel, the opacity indicated by the correction color map is multiplied by the opacity correction magnification set according to the position of the voxel. A voxel value including subsequent opacity is given to the voxel.

(26) 本発明の第26の態様は、上述した第25の態様に係る断層画像表示用ボリュームレンダリング装置において、
ボクセル画像作成部が、各断層画像に対応するボクセルプレーンをそれぞれXY平面に平行となるように配置し、各ボクセルプレーンにボクセルを二次元配列して、XYZ三次元直交座標系上に三次元配列されたボクセル集合体からなるボクセル画像を作成し、
不透明度補正倍率設定部が、複数のボクセルプレーンを貫通し、Z軸に平行な基準貫通線を所定位置に定義し、個々のボクセルについて、当該ボクセルと基準貫通線とのX軸方向に関する距離およびY軸方向に関する距離に応じた不透明度補正倍率を設定するようにしたものである。
( 26 ) A twenty -sixth aspect of the present invention is the tomographic image display volume rendering device according to the twenty -fifth aspect described above, comprising:
The voxel image creation unit arranges the voxel planes corresponding to each tomographic image so as to be parallel to the XY plane, arranges the voxels in each voxel plane two-dimensionally, and arranges them three-dimensionally on the XYZ three-dimensional orthogonal coordinate system. create a voxel image consisting of a set of voxels,
An opacity correction magnification setting unit defines a reference penetration line that penetrates a plurality of voxel planes and is parallel to the Z-axis at a predetermined position, and for each voxel, determines the distance between the voxel and the reference penetration line in the X-axis direction and The opacity correction magnification is set according to the distance in the Y-axis direction.

(27) 本発明の第27の態様は、上述した第26の態様に係る断層画像表示用ボリュームレンダリング装置において、
不透明度補正倍率設定部が、個々のボクセルプレーン上に、基準貫通線との交点を中心点とし、X軸に平行な長軸とY軸に平行な短軸を有する複数の同心楕円を定義し、同一の楕円上に位置するボクセルには同一の不透明度補正倍率を設定し、かつ、中心点に近い楕円ほど大きな不透明度補正倍率を設定するようにしたものである。
( 27 ) A twenty- seventh aspect of the present invention is the tomographic image display volume rendering apparatus according to the twenty -sixth aspect described above, comprising:
An opacity correction magnification setting unit defines on each voxel plane a plurality of concentric ellipses centered at the point of intersection with the reference penetration line and having a major axis parallel to the X axis and a minor axis parallel to the Y axis. The same opacity correction magnification is set to voxels positioned on the same ellipse, and a larger opacity correction magnification is set to an ellipse closer to the center point.

(28) 本発明の第28の態様は、上述した第27の態様に係る断層画像表示用ボリュームレンダリング装置において、
不透明度補正倍率設定部が、楕円の長軸もしくは短軸の長さの2乗に反比例して減衰するような不透明度補正倍率を設定するようにしたものである。
( 28 ) A twenty- eighth aspect of the present invention is the tomographic image display volume rendering device according to the twenty -seventh aspect described above, comprising:
The opacity correction magnification setting unit sets an opacity correction magnification that attenuates in inverse proportion to the square of the length of the long axis or the short axis of the ellipse.

(29) 本発明の第29の態様は、上述した第14~第28の態様に係る断層画像表示用ボリュームレンダリング装置を、コンピュータにプログラムを組み込むことにより構成したものである。 ( 29 ) A twenty -ninth aspect of the present invention is the tomographic image display volume rendering apparatus according to the fourteenth to twenty-eighth aspects described above, configured by incorporating a program into a computer.

(30) 本発明の第30の態様は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するために用いるカラーマップに対して、最適化を行う断層画像表示用カラーマップの最適化方法において、
コンピュータが、所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力段階と、
コンピュータが、所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを、最適化処理の対象として入力するカラーマップ入力段階と、
コンピュータが、複数の断層画像を構成する個々の画素の信号値について、個々の信号値の出現頻度を示す信号値ヒストグラムを作成する信号値ヒストグラム作成段階と、
コンピュータが、信号値ヒストグラムに対してオパシティカーブによる重みづけを行うことにより、視界ヒストグラムを作成する視界ヒストグラム作成段階と、
コンピュータが、オパシティカーブを補正して補正オパシティカーブを作成し、オパシティカーブの代わりに補正オパシティカーブを含む補正カラーマップを作成する補正カラーマップ作成段階と、
を行い、
補正カラーマップ作成段階において、少なくとも、オパシティカーブに対して視界ヒストグラムを利用した補正を行うようにしたものである。
( 30 ) A thirtieth aspect of the present invention is a tomographic image display color that optimizes a color map used to generate a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus. In the map optimization method,
A tomographic image input step in which a computer inputs a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value;
A computer inputs a color map including an opacity curve in which opacity is associated with each signal value within a predetermined range and a color palette in which predetermined color values are associated with each other as a target for optimization processing. a color map input stage for
a signal value histogram creation step in which a computer creates a signal value histogram indicating the frequency of appearance of each signal value for each pixel constituting a plurality of tomographic images;
A visibility histogram creation step in which a computer creates a visibility histogram by weighting the signal value histogram with an opacity curve;
a correction color map creation stage in which the computer corrects the opacity curve to create a correction opacity curve and creates a correction color map containing the correction opacity curve instead of the opacity curve;
and
At the correction color map creation stage, at least the opacity curve is corrected using the field of view histogram.

(31) 本発明の第31の態様は、上述した第30の態様に係る断層画像表示用カラーマップの最適化方法を利用して、断層画像表示用カラーマップのデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造する、断層画像表示用カラーマップのデータが記録された情報記録媒体の製造方法において、
上記最適化方法を構成する各段階に加えて、更に、コンピュータが、補正カラーマップ作成段階で作成された補正カラーマップのデータを情報記録媒体に記録する補正カラーマップ記録段階を行うようにしたものである。
( 31 ) A thirty -first aspect of the present invention is a computer-readable color map in which tomographic image display color map data is recorded using the method for optimizing a tomographic image display color map according to the above-described thirtieth aspect. In a method for manufacturing an information recording medium on which color map data for tomographic image display is recorded,
In addition to the steps constituting the above optimization method, the computer further performs a correction color map recording step of recording the correction color map data created in the correction color map creation step on an information recording medium. is.

(32) 本発明の第32の態様は、上述した第30の態様に係る断層画像表示用カラーマップの最適化方法を構成する各段階を含む、断層画像表示用ボリュームレンダリング方法において、
コンピュータが、上記最適化方法における断層画像入力段階で入力した複数の断層画像の各画素に付与された信号値を、上記最適化方法における補正カラーマップ作成段階で作成された補正カラーマップを用いて、所定の色値および不透明度を示すボクセル値に変換し、断層画像の各画素位置に定義された各ボクセルに上記ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成段階と、
コンピュータが、所定の視線方向から上記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理段階と、
を更に行うようにしたものである。
( 32 ) A thirty -second aspect of the present invention is a volume rendering method for tomographic image display, comprising each step constituting the method for optimizing a color map for tomographic image display according to the above-described thirtieth aspect,
The computer uses the correction color map created in the correction color map creation step in the optimization method to convert the signal values assigned to each pixel of the plurality of tomographic images input in the tomographic image input step in the optimization method. , to a voxel value indicating a predetermined color value and opacity, and assigning the above voxel value to each voxel defined at each pixel position of the tomographic image, thereby creating a collection of voxels arranged in a three-dimensional space. a voxel image creation step of creating a voxel image consisting of
a rendering processing step in which a computer generates a volume rendering image showing a state in which the voxel image is observed from a predetermined viewing direction as a two-dimensional image;
is further performed.

(33) 本発明の第33の態様は、上述した第32の態様に係る断層画像表示用ボリュームレンダリング方法を利用して、ボリュームレンダリング像のデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造する、断層画像表示用ボリュームレンダリング像のデータが記録された情報記録媒体の製造方法において、
上記ボリュームレンダリング方法を構成する各段階に加えて、更に、コンピュータが、レンダリング処理段階で生成されたボリュームレンダリング像のデータを情報記録媒体に記録するボリュームレンダリング像記録段階を行うようにしたものである。
( 33 ) A thirty -third aspect of the present invention provides a computer-readable information recording medium on which volume rendering image data is recorded, using the volume rendering method for tomographic image display according to the thirty -second aspect. In a method for manufacturing an information recording medium on which data of a volume rendering image for displaying a tomographic image are recorded,
In addition to the steps constituting the volume rendering method, the computer further performs a volume rendering image recording step of recording the data of the volume rendering image generated in the rendering processing step on an information recording medium. .

本発明に係るボリュームレンダリング装置およびカラーマップの最適化装置によれば、断層画像撮影装置によって撮影された断層画像群に基づいて、所望の観察対象を選択的に、かつ、鮮明に表示できるボリュームレンダリング像を生成することが可能になる。 According to the volume rendering apparatus and the color map optimizing apparatus according to the present invention, volume rendering capable of selectively and clearly displaying a desired observation target based on a group of tomographic images captured by a tomographic imaging apparatus. images can be generated.

より具体的には、本願の基本的実施形態に係るカラーマップの最適化装置では、実際に撮影された特定の断層画像群に基づいて信号値ヒストグラムが作成され、この信号値ヒストグラムに対して、観察対象に応じたオパシティカーブによる重みづけを行うことにより視界ヒストグラムが作成される。そして、この視界ヒストグラムを利用して上記オパシティカーブに対する補正が行われる。このため、補正後のオパシティカーブを含むカラーマップは、上記特定の断層画像群に基づくボリュームレンダリング像を生成するために最適化されたものになり、得られるボリュームレンダリング像における観察対象の解像度を向上させ、当該観察対象を選択的に、かつ、鮮明に表示することができる。 More specifically, in the color map optimization device according to the basic embodiment of the present application, a signal value histogram is created based on a group of specific tomographic images actually taken, and for this signal value histogram, A visual field histogram is created by weighting with an opacity curve according to the observation target. Then, the field histogram is used to correct the opacity curve. Therefore, the color map containing the corrected opacity curve is optimized for generating a volume rendering image based on the specific tomographic image group, and the resolution of the observation target in the obtained volume rendering image is improved. It is possible to selectively and clearly display the observation target.

また、本願の基本的実施形態に係るボリュームレンダリング装置は、上記カラーマップの最適化装置を含んでおり、最適化されたカラーマップを用いてレンダリング処理を行うことができる。このため、生成されるボリュームレンダリング像における観察対象の解像度を向上させ、当該観察対象を選択的に、かつ、鮮明に表示することができる。 Further, the volume rendering device according to the basic embodiment of the present application includes the color map optimization device described above, and can perform rendering processing using the optimized color map. Therefore, the resolution of the observation target in the generated volume rendering image can be improved, and the observation target can be selectively and clearly displayed.

更に、本願の付加的実施形態に係るボリュームレンダリング装置では、三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率が設定され、カラーマップによって示される不透明度に対しては、上記不透明度補正倍率を乗じる補正が行われる。このため、生成されるボリュームレンダリング像における観察対象は、より観察しやすい態様で表示されるようになる。かくして、観察対象を選択的に、かつ、鮮明に表示することができる。 Furthermore, in the volume rendering device according to the additional embodiment of the present application, a predetermined opacity correction magnification is set according to the position in the three-dimensional space, and the opacity indicated by the color map is Correction is performed by multiplying the correction magnification. Therefore, the observation target in the generated volume rendering image is displayed in a manner that is easier to observe. Thus, the observation target can be selectively and clearly displayed.

人体を対象として撮影された具体的な断層画像群およびこれに基づいて生成されたボリュームレンダリング像を示す図である。FIG. 2 is a diagram showing a specific group of tomographic images taken of a human body and a volume rendering image generated based thereon; 一般的な断層画像群の画素構成を示す概念図である。FIG. 2 is a conceptual diagram showing a pixel configuration of a general tomographic image group; 特定の人体組織の観察に適したボリュームレンダリング像の具体例を示す図である。FIG. 10 is a diagram showing a specific example of a volume rendering image suitable for observing a specific human tissue; 信号値ヒストグラムHとカラーマップCの具体例を示す図である。3A and 3B are diagrams showing specific examples of a signal value histogram H and a color map C; FIG. 本発明で用いられるオパシティカーブOCと視界ヒストグラムVHとの関係を示すグラフである。4 is a graph showing the relationship between an opacity curve OC and a field of view histogram VH used in the present invention; 本発明の基本的実施形態に係るボリュームレンダリング装置100(カラーマップの最適化装置101を含む)の構成を示すブロック図である。1 is a block diagram showing the configuration of a volume rendering device 100 (including a color map optimization device 101) according to a basic embodiment of the present invention; FIG. カラーマップCの具体的なデータ構造を示す表である。4 is a table showing a specific data structure of color map C; 図6に示すカラーマップ作成部162におけるカラーマップCの作成指示入力作業後の表示画面の一例を示す図である。FIG. 7 is a diagram showing an example of a display screen after inputting an instruction to create a color map C in the color map creating unit 162 shown in FIG. 6; 図6に示すカラーマップ作成部162におけるカラーマップCの作成指示入力作業後の表示画面の別な一例を示す図である。FIG. 7 is a diagram showing another example of a display screen after inputting an instruction to create a color map C in the color map creating unit 162 shown in FIG. 6; 図6に示す視界ヒストグラム考慮補正部141で実施されるフィッテイング法による補正処理の原理を示すグラフである。FIG. 7 is a graph showing the principle of correction processing by a fitting method performed by a field-of-view histogram-considered correction unit 141 shown in FIG. 6. FIG. 図6に示す視界ヒストグラム考慮補正部141で実施されるフィッテイング法による補正処理に用いられる数式を説明する図である。7A and 7B are diagrams for explaining mathematical formulas used in correction processing by a fitting method performed by a field-of-view-histogram-considered correction unit 141 shown in FIG. 6; FIG. 図6に示す視界ヒストグラム考慮補正部141で実施される平坦化法による補正処理の原理を示すグラフである。FIG. 7 is a graph showing the principle of correction processing by a flattening method performed by a field-of-view histogram-considered correction unit 141 shown in FIG. 6. FIG. 図6に示す視界ヒストグラム考慮補正部141で実施される平坦化法による補正処理に用いられる数式を説明する図である。7A and 7B are diagrams for explaining mathematical expressions used for correction processing by a flattening method performed by a field-of-view-histogram-considered correction unit 141 shown in FIG. 6; FIG. 図6に示す累乗補正部142で実施される一律累乗補正処理の原理を示すグラフである。7 is a graph showing the principle of uniform power correction processing performed by a power correction unit 142 shown in FIG. 6; 図6に示す累乗補正部142で実施される一律累乗補正処理に用いられる数式を説明する図である。7A and 7B are diagrams for explaining mathematical expressions used in uniform power correction processing performed by a power correction unit 142 shown in FIG. 6; FIG. 図6に示す累乗補正部142で実施されるS字累乗補正処理の原理を示すグラフである。7 is a graph showing the principle of S-shaped power correction processing performed by a power correction unit 142 shown in FIG. 6; 図6に示す累乗補正部142で実施されるS字累乗補正処理に用いられる数式を説明する図である。7A and 7B are diagrams for explaining mathematical expressions used in S-shaped power correction processing performed by a power correction unit 142 shown in FIG. 6; 図6に示すボクセル画像作成部170で作成されるボクセル画像20のボクセル構成を示す概念図である。FIG. 7 is a conceptual diagram showing a voxel configuration of a voxel image 20 created by a voxel image creation unit 170 shown in FIG. 6; 図6に示すレンダリング処理部180で実施されるレンダリング処理の手順を示す流れ図である。FIG. 7 is a flowchart showing a procedure of rendering processing performed by a rendering processing unit 180 shown in FIG. 6; FIG. 図19に示すスムージング処理段階S2で行われるスムージング処理の具体的内容を説明する図である。FIG. 20 is a diagram for explaining specific contents of the smoothing process performed in the smoothing process step S2 shown in FIG. 19; 図19に示す陰影計算段階S3で行われる陰影計算の具体的内容を説明する図である。FIG. 20 is a diagram for explaining specific contents of shadow calculation performed in the shadow calculation step S3 shown in FIG. 19; 図19に示すボリュームレンダリング段階S6(レイキャスティング法)で行われるレンダリング処理の基本概念を説明する図である。FIG. 20 is a diagram illustrating the basic concept of rendering processing performed in the volume rendering stage S6 (ray casting method) shown in FIG. 19; 図19に示すボリュームレンダリング段階S8(3Dテクスチャマッピング法)で行われるレンダリング処理の基本概念を説明する図である。FIG. 20 is a diagram illustrating the basic concept of rendering processing performed in the volume rendering stage S8 (3D texture mapping method) shown in FIG. 19; 本発明の付加的実施形態に係るボリュームレンダリング装置100′(カラーマップの最適化装置101を含む)の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of a volume rendering device 100' (including a color map optimization device 101) according to an additional embodiment of the present invention; 図24に示す不透明度補正倍率設定部190で設定された不透明度補正倍率ξ(x,y)の具体例を示す図である。25 is a diagram showing a specific example of an opacity correction magnification ξ(x, y) set by an opacity correction magnification setting unit 190 shown in FIG. 24; FIG. 図6および図24に示す階調画像入力部110で行われる階調変換処理の基本手順を示す図である。FIG. 25 is a diagram showing a basic procedure of gradation conversion processing performed by the gradation image input unit 110 shown in FIGS. 6 and 24; FIG. 図6に示すボリュームレンダリング装置100によって生成されたボリュームレンダリング像の具体例を示す図である。7 is a diagram showing a specific example of a volume rendering image generated by the volume rendering device 100 shown in FIG. 6; FIG. 図6に示すボリュームレンダリング装置100によって生成されたボリュームレンダリング像の別な具体例を示す図である。7 is a diagram showing another specific example of a volume rendering image generated by the volume rendering device 100 shown in FIG. 6; FIG. 図24に示すボリュームレンダリング装置100′によって生成されたボリュームレンダリング像の具体例を示す図である。25 is a diagram showing a specific example of a volume rendering image generated by the volume rendering device 100' shown in FIG. 24; FIG. 図6および図24に示すボリュームレンダリング装置100,100′によって生成されたボリュームレンダリング像の更に別な具体例を示す図である。FIG. 25 is a diagram showing still another specific example of a volume rendering image generated by the volume rendering devices 100 and 100' shown in FIGS. 6 and 24; FIG.

以下、本発明を図示する実施形態に基づいて説明する。 Hereinafter, the present invention will be described based on illustrated embodiments.

<実施形態の目次>
§1. 一般的なボリュームレンダリングの手順とその問題点
1.1 ボリュームレンダリングの手順
1.2 従来技術の問題点とその要因
§2. 本発明の基本的実施形態
2.1 断層画像入力部110
2.2 カラーマップの入力部150,格納部161,作成部162
2.2.1 カラーマップ入力部150
2.2.2 カラーマップ格納部161
2.2.3 カラーマップ作成部162
2.3 信号値ヒストグラム作成部120
2.4 視界ヒストグラム作成部130
2.5 オパシティカーブ補正部140
2.6 ボクセル画像作成部170およびレンダリング処理部180
§3. カラーマップの最適化
3.1 視界ヒストグラム考慮補正部141
3.1.1 フィッテイング法
3.1.2 平坦化法
3.2 累乗補正部142
3.2.1 一律累乗補正
3.2.2 S字累乗補正
§4. ボリュームレンダリング像の作成
4.1 ボクセル画像作成部170
4.2 レンダリング処理部180
4.2.1 スムージング処理段階
4.2.2 陰影計算段階
4.2.3 ボリュームレンダリング段階
§5. 本発明の付加的実施形態
5.1 基本的実施形態への付加
5.2 独立した実施形態
§6. 階調変換処理
§7. 方法発明としての把握
§8. ボリュームレンダリング像の表示実例
<Contents of embodiment>
§1. General Volume Rendering Procedures and Their Problems 1.1 Volume Rendering Procedures 1.2 Problems of Conventional Techniques and Their Factors §2. 2. Basic embodiment of the present invention 2.1 Tomographic image input unit 110
2.2 Color map input unit 150, storage unit 161, creation unit 162
2.2.1 Color map input unit 150
2.2.2 Color map storage unit 161
2.2.3 Color map creation unit 162
2.3 Signal value histogram creation unit 120
2.4 Visibility Histogram Creation Unit 130
2.5 Opacity curve correction unit 140
2.6 Voxel Image Creation Unit 170 and Rendering Processing Unit 180
§3. 3. Optimization of color map 3.1 Visibility histogram consideration correction unit 141
3.1.1 Fitting method
3.1.2 Flattening method 3.2 Power correction unit 142
3.2.1 Uniform exponentiation correction
3.2.2 S-curve exponentiation correction §4. 4. Creation of Volume Rendering Image 4.1 Voxel Image Creation Unit 170
4.2 Rendering Processing Unit 180
4.2.1 Smoothing stage
4.2.2 Shadow calculation stage
4.2.3 Volume Rendering Stage §5. ADDITIONAL EMBODIMENTS OF THE PRESENT INVENTION 5.1 Additions to the Basic Embodiment 5.2 Independent Embodiments §6. Gradation conversion processing §7. Understanding as a method invention §8. Display example of volume rendering image

<<< §1. 一般的なボリュームレンダリングの手順とその問題点 >>>
はじめに、従来の一般的なボリュームレンダリングの手順と解決すべき問題点を簡単に説明する。
<<< §1. General volume rendering procedure and its problems >>>
First, we will briefly explain the procedure of conventional general volume rendering and the problems to be solved.

<1.1 ボリュームレンダリングの手順>
図1は、人体を対象として撮影された具体的な断層画像群およびこれに基づいて生成されたボリュームレンダリング像を示す図である。図1(a) は、実際に撮影された胸部CTの断層画像群10を並べて示したものであり、合計370枚の断層画像から構成されている。図1(b) は、これら370枚の中から1枚の断層画像11(図1(a) において太枠で示す画像)を抜き出して示したものである。
<1.1 Volume rendering procedure>
FIG. 1 is a diagram showing a specific tomographic image group photographed for the human body and a volume rendering image generated based thereon. FIG. 1(a) shows a group of tomographic images 10 of chest CT that were actually taken side by side, and is composed of a total of 370 tomographic images. FIG. 1(b) shows one tomographic image 11 (the image indicated by the thick frame in FIG. 1(a)) extracted from these 370 images.

CT等の断層画像撮影装置によって撮影された断層画像は、測定により得られた所定の信号値(たとえば、X線の透過率)が付与された画素の集合体であり、図示のとおり、モノクロの階調画像になる。この例の場合、断層画像11は、512行512列の行列状に並んだ画素の集合体によって構成されており、各画素には、それぞれ16ビットの信号値が付与されている。ボリュームレンダリング装置は、このような断層画像群10に基づいて、図1(c) に示すようなボリュームレンダリング像30を生成する役割を果たす。図1(c) に示すボリュームレンダリング像30は、出願図面の技術的な仕様上、モノクロ画像として示されているが、通常、様々な色によって着色されたカラー画像として表示される。 A tomographic image captured by a tomographic imaging apparatus such as a CT is a collection of pixels to which a predetermined signal value (for example, X-ray transmittance) obtained by measurement is assigned. It becomes a gradation image. In this example, the tomographic image 11 is composed of a set of pixels arranged in a matrix of 512 rows and 512 columns, and each pixel is given a 16-bit signal value. The volume rendering apparatus plays a role of generating a volume rendering image 30 as shown in FIG. 1(c) based on such tomographic image group 10. FIG. Although the volume rendering image 30 shown in FIG. 1(c) is shown as a monochrome image due to the technical specifications of the application drawing, it is normally displayed as a color image colored with various colors.

図2は、一般的な断層画像群10の画素構成を示す概念図である。本願では便宜上、図示のようなXYZ三次元直交座標系を定義して、断層画像群10の画素構成を説明する。図示の断層画像群10は、XY平面に平行な多数の断層画像によって構成されている。図2には一部の断層画像11,... ,16,17,18のみが示されているが、図1(a) に示す例の場合、実際には合計370枚の断層画像がZ軸方向に所定間隔(断層画像撮影装置による撮影間隔)をおいて積層されている。 FIG. 2 is a conceptual diagram showing the pixel configuration of a general tomographic image group 10. As shown in FIG. In the present application, for the sake of convenience, an XYZ three-dimensional orthogonal coordinate system as shown is defined, and the pixel configuration of the tomographic image group 10 is explained. The illustrated tomographic image group 10 is composed of a large number of tomographic images parallel to the XY plane. 2 shows only some of the tomographic images 11, . . . , 16, 17, 18, but in the case of the example shown in FIG. They are stacked in the axial direction at predetermined intervals (intervals between images taken by the tomographic imaging apparatus).

ここでは、この断層画像群10のX軸方向のサイズ(画素数)をSx、Y軸方向のサイズ(画素数)をSy、Z軸方向のサイズ(断層画像の層数)をSzとする。図2に示す例では、説明の便宜上、Sx=6、Sy=6、Sz=8になっているが、図1(a) に示す例の場合は、前述したとおり、Sx=512、Sy=512、Sz=370になる。以下、各断層画像11~18の特定の画素を、当該画素の位置(たとえば、中心点)を示す座標値(x,y,z)を用いて、画素S(x,y,z)と表すことにする。 Here, let Sx be the size (number of pixels) of the tomographic image group 10 in the X-axis direction, Sy be the size (number of pixels) of the Y-axis direction, and Sz be the size (number of layers of the tomographic images) of the Z-axis direction. In the example shown in FIG. 2, Sx=6, Sy=6, and Sz=8 for convenience of explanation, but in the case of the example shown in FIG. 512, Sz=370. Hereinafter, a specific pixel in each of the tomographic images 11 to 18 is represented as pixel S (x, y, z) using coordinate values (x, y, z) indicating the position (eg, center point) of the pixel. to decide.

前述したとおり、各画素S(x,y,z)には、所定の信号値S(ここに示す例の場合、16ビットのデータ)が付与されている。各画素S(x,y,z)の三次元位置は、撮影対象となった人体の三次元位置に対応しており、画素S(x,y,z)に付与された信号値Sは、人体の対応する位置に配置された微小部分についての測定値(たとえば、X線の透過率)を示している。そこで、各画素の信号値Sを、所定の色値および不透明度に置き換えれば、色値および不透明度が付与されたボクセル(断層画像上の画素に対応)を三次元空間上に配置した三次元画像モデル(ボクセル画像)を構築することができる。図1(c) に示すようなボリュームレンダリング像30は、この三次元画像モデルを所定の視線方向から観察した投影画像に相当する。 As described above, each pixel S (x, y, z) is given a predetermined signal value S (16-bit data in the example shown here). The three-dimensional position of each pixel S (x, y, z) corresponds to the three-dimensional position of the human body to be imaged, and the signal value S given to the pixel S (x, y, z) is Measured values (e.g. X-ray transmittance) are shown for minute parts placed at corresponding positions on the human body. Therefore, by replacing the signal value S of each pixel with a predetermined color value and opacity, a three-dimensional An image model (voxel image) can be constructed. A volume rendering image 30 as shown in FIG. 1(c) corresponds to a projection image obtained by observing this three-dimensional image model from a predetermined viewing direction.

もっとも、医療用の画像診断システムでは、診断対象に応じて、特定の人体組織の観察に適したボリュームレンダリング像が作成される。図3は、このようなボリュームレンダリング像の具体例を示す図である。図3(a) は、肺の観察に適したボリュームレンダリング像31の例を示す。図にハッチングを施して示す部分が、観察対象となる肺の部分であり、空白の部分がその周囲の部分である。同様に、図3(b) は、心臓の観察に適したボリュームレンダリング像32の例を示す。図にハッチングを施して示す部分が、観察対象となる心臓の部分であり、空白の部分がその周囲の部分である。 However, in a medical diagnostic imaging system, a volume rendering image suitable for observation of a specific human tissue is created according to the diagnosis target. FIG. 3 is a diagram showing a specific example of such a volume rendering image. FIG. 3(a) shows an example of a volume rendering image 31 suitable for lung observation. The hatched portion in the drawing is the lung portion to be observed, and the blank portion is the surrounding portion. Similarly, FIG. 3(b) shows an example of a volume rendered image 32 suitable for viewing the heart. The hatched portion in the drawing is the heart portion to be observed, and the blank portion is the surrounding portion.

もちろん、図3は、説明の便宜上、デフォルメした画像を示すものであり、実際には、観察対象となる部分(図3の場合はハッチング部分)とそれ以外の部分(図3の場合は空白部分)とが明確に区別された画像が得られるわけではないが、図3(a) に示すボリュームレンダリング像31では、肺の部分がより強調されて表示され、図3(b) に示すボリュームレンダリング像32では、心臓の部分がより強調されて表示されることになる。 Of course, FIG. 3 shows a deformed image for convenience of explanation. ) are not clearly distinguished from each other, but in the volume rendering image 31 shown in FIG. In the image 32, the portion of the heart is displayed more emphasized.

このように、特定の対象物の観察に適したボリュームレンダリング像を作成するために、個々の観察対象ごとに固有のカラーマップが用いられる。全く同一の断層画像群10に基づいて作成されたボリュームレンダリング像であっても、用いるカラーマップが異なれば、互いに異なる画像になる。図3(a) に示すボリュームレンダリング像31は、肺の観察に適したカラーマップを用いて作成された画像であり、図3(b) に示すボリュームレンダリング像32は、心臓の観察に適したカラーマップを用いて作成された画像である。 Thus, a unique color map is used for each individual viewing object to create a volume rendering image suitable for viewing that particular object. Even volume rendering images created based on exactly the same tomographic image group 10 will be different images if different color maps are used. A volume rendering image 31 shown in FIG. 3(a) is an image created using a color map suitable for observing the lungs, and a volume rendering image 32 shown in FIG. 3(b) is an image suitable for observing the heart. It is an image created using a color map.

続いて、具体的なカラーマップの構成と、その役割を説明する。図4は、信号値ヒストグラムHとカラーマップCの具体例を示す図である。信号値ヒストグラムHは、図4(a) に示すように、断層画像群を構成する各画素の信号値について、その出現頻度hを示すヒストグラムである。たとえば、図2に示す階層画像群10は、複数の階層画像を有しており、各階層画像にはそれぞれ複数の画素が配置されている。そして、これら多数の画素には、それぞれ所定の信号値Sが付与されている。信号値ヒストグラムHは、これら多数の画素について、各信号値の出現頻度を示すものである。当然ながら、信号値ヒストグラムHは、撮影対象となる被写体(患者)ごとに異なり、また、同一の被写体であっても撮影条件の違いによって異なる。 Next, the configuration of a specific color map and its role will be explained. 4A and 4B are diagrams showing specific examples of the signal value histogram H and the color map C. FIG. The signal value histogram H, as shown in FIG. 4(a), is a histogram showing the appearance frequency h of the signal value of each pixel constituting the tomographic image group. For example, the hierarchical image group 10 shown in FIG. 2 has multiple hierarchical images, and multiple pixels are arranged in each hierarchical image. A predetermined signal value S is assigned to each of these large numbers of pixels. The signal value histogram H indicates the appearance frequency of each signal value for these many pixels. As a matter of course, the signal value histogram H differs for each subject (patient) to be imaged, and even for the same subject, it varies depending on different imaging conditions.

ここに示す例の場合、各画素には、16ビットの信号値(-32768~+32767のダイナミックレンジ内の符号付きの値)が付与されているので、図4(a) に示す信号値ヒストグラムHの横軸(信号値S)の最小値Smin は-32768、最大値Smax は+32767になる。縦軸は出現頻度hであり、各信号値Sが付与されている画素の総数を示す。一般に、各断層画像に含まれる画素の信号値Sは、幅広い範囲に分布することになるが、人体を撮影対象とした断層画像の場合、個々の内臓、骨、皮膚、筋肉、脂肪などの組織ごとに、信号値Sの分布範囲が限定される。 In the example shown here, each pixel is given a 16-bit signal value (signed value within the dynamic range of -32768 to +32767), so the signal value histogram H shown in FIG. The minimum value Smin of the horizontal axis (signal value S) of is -32768, and the maximum value Smax is +32767. The vertical axis is the appearance frequency h, which indicates the total number of pixels to which each signal value S is assigned. In general, the signal values S of pixels included in each tomographic image are distributed over a wide range. , the distribution range of the signal value S is limited.

したがって、所望の対象物の観察に適したボリュームレンダリング像を作成するには、当該対象物の分布範囲に相当する信号値をもった画素については、より高い不透明度αを設定し、それ以外の範囲に相当する信号値をもった画素については、低い不透明度αを設定して、この不透明度αを考慮したボリュームレンダリングを行えばよい。また、当該対象物の分布範囲に相当する信号値をもった画素については、所定の色値を設定してボリュームレンダリングを行えば、当該対象物を当該色値に対応する色で表示することができる。カラーマップCは、この不透明度αおよび色値を設定する役割を果たす。 Therefore, in order to create a volume rendering image suitable for observation of a desired object, a higher opacity α is set for pixels having signal values corresponding to the distribution range of the object, and other pixels are A low opacity α may be set for pixels having signal values corresponding to the range, and volume rendering may be performed in consideration of this opacity α. For pixels having signal values corresponding to the distribution range of the object, if a predetermined color value is set and volume rendering is performed, the object can be displayed in a color corresponding to the color value. can. The colormap C serves to set this opacity α and color values.

図4(b) は、このようなカラーマップCの一例を示す図である。図示のとおり、このカラーマップCは、各信号値Sについて不透明度αを設定するオパシティカーブOC(符号OCは、Opacity Curve の略)と、各信号値Sについて色値(R,G,B)を設定するカラーパレットCP(符号CPは、Color Pallet の略)とを有している。 FIG. 4(b) is a diagram showing an example of such a color map C. As shown in FIG. As shown in the figure, this color map C has an opacity curve OC (symbol OC stands for Opacity Curve) that sets the opacity α for each signal value S, and color values (R, G, B) for each signal value S and a color palette CP (the symbol CP is an abbreviation for Color Pallet).

オパシティカーブOCは、図示のように、横軸を信号値S、縦軸を不透明度αにとったグラフとして定義することができるので、本願では、オパシティカーブOCをこのようなグラフとして示すことにする。図示の例の場合、オパシティカーブOCは、中央付近に三角形の山状部分をもつグラフとして定義されている。各画素に16ビットの信号値Sが付与されている断層画像を取り扱う場合、オパシティカーブOCの横軸の信号値Sの最小値Smin は-32768、最大値Smax は+32767になる。また、縦軸の不透明度αは、0≦α≦1の範囲の値に設定する。 Since the opacity curve OC can be defined as a graph with the horizontal axis representing the signal value S and the vertical axis representing the opacity α, the opacity curve OC is shown as such a graph in the present application. do. In the illustrated example, the opacity curve OC is defined as a graph having a triangular peak near the center. When handling a tomographic image in which a 16-bit signal value S is assigned to each pixel, the minimum value Smin of the signal value S on the horizontal axis of the opacity curve OC is -32768, and the maximum value Smax is +32767. The opacity α on the vertical axis is set to a value within the range of 0≦α≦1.

一方、カラーパレットCPは、図に横軸として示されている信号値Sを複数の区間に分割し、各信号値区間にそれぞれ所定の色値(R,G,B)を対応づけたものである。ここで、色値Rは赤色成分、色値Gは緑色成分、色値Bは青色成分を示し、各色成分は、たとえば8ビット(0~255)のデータで示される。図示の例の場合、横軸は、信号値区間I,II,III の3つの区間に分割されており、信号値Sについて、Smin ≦S<Saの部分が信号値区間I、Sa≦S≦Sbの部分が信号値区間II、Sb<S≦Smax の部分が信号値区間III に設定されている。そして、信号値区間Iについては色値(R1,B1,G1)が設定され、信号値区間IIについては色値(R2,B2,G2)が設定され、信号値区間III については色値(R3,B3,G3)が設定されている。 On the other hand, the color palette CP divides the signal value S shown as the horizontal axis in the figure into a plurality of intervals, and associates predetermined color values (R, G, B) with each signal value interval. be. Here, the color value R indicates a red component, the color value G indicates a green component, and the color value B indicates a blue component, and each color component is indicated by, for example, 8-bit (0 to 255) data. In the illustrated example, the horizontal axis is divided into three signal value intervals I, II, and III. The portion of Sb is set to the signal value section II, and the portion of Sb<S≤Smax is set to the signal value section III. Color values (R1, B1, G1) are set for the signal value interval I, color values (R2, B2, G2) are set for the signal value interval II, and color values (R3 , B3, G3) are set.

このようなカラーマップCを用いれば、図2に示す断層画像群10を構成する各画素S(x,y,z)に付与された信号値Sを、色値と不透明度との組み合わせ(R,G,B,α)に置き換えることができる。たとえば、図4(b) に示すカラーマップCを用いた場合、所定の信号値S1に対しては、オパシティカーブOCによって不透明度α1が対応づけられ、カラーパレットCPによって色値(R2,G2,B2)が対応づけられる。したがって、信号値S1が付与されている画素に対しては、色値と不透明度との組み合わせ(R2,G2,B2,α1)を付与することができる。同様に、信号値S2が付与されている画素に対しては、色値と不透明度との組み合わせ(R1,G1,B1,α2)を付与することができる。 If such a color map C is used, the signal value S given to each pixel S (x, y, z) constituting the tomographic image group 10 shown in FIG. , G, B, α). For example, when the color map C shown in FIG. 4(b) is used, the opacity α1 is associated with the predetermined signal value S1 by the opacity curve OC, and the color values (R2, G2, B2) are associated. Therefore, a combination of color value and opacity (R2, G2, B2, α1) can be assigned to a pixel to which signal value S1 is assigned. Similarly, a combination of color value and opacity (R1, G1, B1, α2) can be assigned to a pixel assigned signal value S2.

本願では、信号値Sが付与された断層画像上の各画素に、当該信号値Sに対応する色値と不透明度との組み合わせ(R,G,B,α)を割り付けたものをボクセルと呼び、このようなボクセルを三次元空間上に配置した三次元画像をボクセル画像と呼ぶことにする。このようなボクセル画像が得られれば、所定の視線方向を設定してレンダリング処理を行うことにより、当該ボクセル画像を上記視線方向から観察したときの二次元投影像を演算により求めることができる。こうして得られた二次元投影像が、図1(c) に例示するようなボリュームレンダリング像30である。 In the present application, a combination of color value and opacity (R, G, B, α) corresponding to the signal value S assigned to each pixel on the tomographic image to which the signal value S is assigned is called a voxel. , a three-dimensional image obtained by arranging such voxels in a three-dimensional space is called a voxel image. If such a voxel image is obtained, a two-dimensional projection image when the voxel image is observed from the above-mentioned line-of-sight direction can be calculated by performing rendering processing by setting a predetermined line-of-sight direction. The two-dimensional projection image thus obtained is a volume rendering image 30 as illustrated in FIG. 1(c).

図4(b) に示すカラーマップCの場合、オパシティカーブOCは、信号値区間IIにおける不透明度αが高くなるように設定されているため、Sa≦S≦Sbの範囲内の信号値Sが付与された画素(そのような信号特性を呈する人体組織等の部分)に対応するボクセルには、高い不透明度αが付与されることになり、当該画素は、ボリュームレンダリング像30上で、色値(R2,G2,B2)をもつ領域として顕著に表示される。これに対して、信号値区間I,III に属する信号値Sが付与された画素(そのような信号特性を呈する人体組織等の部分)に対応するボクセルには、低い不透明度α(換言すれば、高い透明度)が付与されることになる。当該画素は、ボリュームレンダリング像30上で、色値(R1,G1,B1)もしくは色値(R3,G3,B3)をもつ領域として表示されるが、透明度が高いため、それほど顕著には表示されない。 In the case of the color map C shown in FIG. 4(b), the opacity curve OC is set so that the opacity α in the signal value interval II is high, so that the signal value S within the range of Sa≦S≦Sb is A voxel corresponding to a given pixel (a portion of human tissue or the like exhibiting such a signal characteristic) will be given a high opacity α, and the pixel on the volume rendering image 30 will have a color value of It is prominently displayed as the region with (R2, G2, B2). On the other hand, voxels corresponding to pixels to which a signal value S belonging to signal value intervals I and III is assigned (portions of human tissue exhibiting such signal characteristics) have a low opacity α (in other words, , high transparency). The pixel is displayed as an area with color values (R1, G1, B1) or (R3, G3, B3) on the volume rendering image 30, but it is not so noticeable due to its high transparency. .

結局、図4(b) に示すカラーマップCを用いてボリュームレンダリングを行えば、Sa≦S≦Sbの範囲内の信号値Sを呈する特定の組織の部分を重点的に表示するボリュームレンダリング像30が得られることになり、当該特定の組織の部分の観察に適した画像表示を行うことができる。また、当該特定の組織の部分を、特定の色値(R2,G2,B2)によって提示することができる。このように、ボリュームレンダリングを行う際に、どのようなカラーマップCを用いるかによって、ディスプレイ画面上に表示されるボリュームレンダリング像30の特性は大きく異なることになり、診断対象となる組織の表示に適したカラーマップCを選択してボリュームレンダリングを行うことは非常に重要である。 As a result, if volume rendering is performed using the color map C shown in FIG. is obtained, and an image display suitable for observing the specific tissue portion can be performed. Also, the particular tissue portion can be represented by a particular color value (R2, G2, B2). As described above, the characteristics of the volume rendering image 30 displayed on the display screen greatly differ depending on what kind of color map C is used when volume rendering is performed. Selecting a suitable colormap C for volume rendering is very important.

なお、図4(b) に示すカラーマップCの形態は、典型的な一例を示すものであり、本発明において利用するカラーマップCの形態は、図示する例に限定されるものではない。また、「カラーマップ」や「カラーパレット」といった用語は、必ずしも一義的な意味で用いられている技術用語ではなく、たとえば、図示の「オパシティカーブOC」を「カラーマップ」と呼ぶケースや、図示の「カラーパレットCP」を「カラーマップ」と呼ぶケースもある。ただ、本願においては、断層画像の各画素に付与されている信号値Sに対して不透明度αを対応づけるものを「オパシティカーブOC」と呼び、信号値Sに対してディスプレイ画面上に表示する際の色値を対応づけるものを「カラーパレットCP」と呼び、「オパシティカーブOC」と「カラーパレットCP」の複合体を「カラーマップC」と呼ぶことにする。 The form of the color map C shown in FIG. 4(b) is a typical example, and the form of the color map C used in the present invention is not limited to the illustrated example. Also, terms such as "color map" and "color palette" are not necessarily technical terms used in a unique sense. In some cases, the "color palette CP" of is called a "color map". However, in the present application, the correspondence between the signal value S assigned to each pixel of the tomographic image and the opacity α is called an “opacity curve OC”, and the signal value S is displayed on the display screen. A mapping of actual color values is called a "color palette CP", and a complex of the "opacity curve OC" and the "color palette CP" is called a "color map C".

<1.2 従来技術の問題点とその要因>
既に述べたとおり、上述した基本手順に基づいてボリュームレンダリング像を作成する従来の一般的なボリュームレンダリング装置には、所望の観察対象を選択的に、かつ、鮮明に表示することが困難であるという問題がある。具体的には、従来のボリュームレンダリング装置によって作成されたボリュームレンダリング像を、実際にディスプレイ画面やプリント画面に出力させた場合、観察対象の解像度が低下してボケが生じたり、観察対象が他の対象物の中に埋もれて見にくくなったりする問題が生じることになる。本願発明者は、このような問題が生じる理由には、次のような要因が関係していると考えている。
<1.2 Problems and Factors of Conventional Technology>
As already mentioned, it is difficult to selectively and clearly display a desired observation target in a conventional general volume rendering apparatus that creates a volume rendering image based on the basic procedure described above. There's a problem. Specifically, when a volume rendering image created by a conventional volume rendering device is actually output to a display screen or a print screen, the resolution of the observed object decreases and blurring occurs, or the observed object becomes blurred. A problem arises in that the object is buried in the object and becomes difficult to see. The inventor of the present application believes that the following factors are related to the reason why such problems occur.

<要因1:視界ヒストグラムVHのオパシティカーブOCに対するズレ>
上述したとおり、一般的なボリュームレンダリングの処理には、図4(b) に示すようなカラーマップCが用いられ、このカラーマップCに含まれるオパシティカーブOCに基づいて、個々のボクセルに所定の不透明度αが付与される。したがって、オパシティカーブOCにおいて、高い不透明度αが設定された信号値Sをもつ画素は、低い不透明度αが設定された信号値Sをもつ画素に比べて、ボリュームレンダリング像上において、より顕著に表示されることになり、所定範囲の信号値Sをもつ対象物が選択的に表示される。
<Factor 1: Deviation of Visibility Histogram VH with respect to Opacity Curve OC>
As described above, a color map C as shown in FIG. 4B is used for general volume rendering processing, and based on the opacity curve OC included in this color map C, each voxel is given a predetermined Opacity α is given. Therefore, in the opacity curve OC, pixels with signal values S for which high opacity α is set are more conspicuous on the volume rendering image than pixels with signal values S for which low opacity α is set. Objects having signal values S within a predetermined range are selectively displayed.

いま、ある断層画像群10を構成する各画素について、その信号値Sの出現頻度hを示す信号値ヒストグラムHが、たとえば、図4(a) に示すようなものであったとしよう。ここで、この図4(a) に示す信号値ヒストグラムHと、図4(b) に示すオパシティカーブOCとの積を考えてみる。信号値ヒストグラムHもオパシティカーブOCも、横軸は、最小値Smin ~最大値Smax の範囲の信号値Sであるから、各信号値Sについて、それぞれ出現頻度hと不透明度αとの積h×αを求めれば、信号値ヒストグラムHとオパシティカーブOCとの積H×OCを定義することができる。 Suppose now that the signal value histogram H indicating the appearance frequency h of the signal value S for each pixel constituting a certain tomographic image group 10 is, for example, as shown in FIG. 4(a). Consider the product of the signal value histogram H shown in FIG. 4(a) and the opacity curve OC shown in FIG. 4(b). In both the signal value histogram H and the opacity curve OC, the horizontal axis is the signal value S in the range from the minimum value Smin to the maximum value Smax. If α is obtained, the product H×OC of the signal value histogram H and the opacity curve OC can be defined.

不透明度αは、いわばボリュームレンダリング像上における各ボクセルの表示度合を示すパラメータになるので(たとえば、α=0が付与されたボクセルは、完全な透明ボクセルとなるので、ボリュームレンダリング像上には全く表示されない)、上記積H×OCは、信号値ヒストグラムHを、この表示度合によって重みづけを行ったヒストグラムというべきものになる。別言すれば、上記積H×OCは、ボリュームレンダリング像を観察したときに、各信号値Sをもつ画素が、観察者の視界内の画像として貢献する度合いを示す指標になる。そこで本願では、この信号値ヒストグラムHとオパシティカーブOCとの積H×OCを、視界ヒストグラムVH(符号VHは、Visibility Histogramの略)と呼ぶことにする。 Since the opacity α is, so to speak, a parameter indicating the degree of display of each voxel on the volume rendering image (for example, a voxel to which α=0 is given becomes a completely transparent voxel, so it does not appear on the volume rendering image at all. not displayed), the product H×OC can be said to be a histogram obtained by weighting the signal value histogram H according to the degree of display. In other words, the product H×OC is an index indicating the degree to which the pixels having the respective signal values S contribute to the image within the field of view of the observer when the volume rendering image is observed. Therefore, in the present application, the product H×OC of the signal value histogram H and the opacity curve OC is called a visibility histogram VH (the symbol VH stands for Visibility Histogram).

視界ヒストグラムVHの形状は、信号値ヒストグラムHの形状とオパシティカーブOPの形状との双方に依存する。このため、一般的には、視界ヒストグラムVHの位置や形状とオパシティカーブOPの位置や形状とは一致しない。図5は、オパシティカーブOCと視界ヒストグラムVHとの関係を示すグラフである。ここで、図5(a)に実線で示されているオパシティカーブOCは、図4(b) に示すオパシティカーブOCと同じものであり、一点鎖線で示されている視界ヒストグラムVHは、図4(a) に示す信号値ヒストグラムHと図4(b) に示すオパシティカーブOCとの積H×OCを示す。 The shape of the field of view histogram VH depends on both the shape of the signal value histogram H and the shape of the opacity curve OP. Therefore, generally, the position and shape of the field of view histogram VH do not match the position and shape of the opacity curve OP. FIG. 5 is a graph showing the relationship between the opacity curve OC and the field of view histogram VH. Here, the opacity curve OC shown by the solid line in FIG. 5(a) is the same as the opacity curve OC shown in FIG. 4(a) shows the product H*OC of the signal value histogram H shown in FIG. 4(b) and the opacity curve OC shown in FIG. 4(b).

なお、図5において、オパシティカーブOCの縦軸はグラフの左側に示すとおり、0≦α≦1の範囲をとり、視界ヒストグラムVHの縦軸はグラフの右側に示すとおり、任意尺度(画素の総数に応じて定まる)である。また、図5(a) に描かれている視界ヒストグラムVHの形状は、図4(a) に示す信号値ヒストグラムHと図4(b) に示すオパシティカーブOCとの積H×OCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。 In FIG. 5, the vertical axis of the opacity curve OC has a range of 0≦α≦1 as shown on the left side of the graph, and the vertical axis of the field of view histogram VH has an arbitrary scale (total number of pixels) as shown on the right side of the graph. ). The shape of the field of view histogram VH shown in FIG. 5(a) is the product of the signal value histogram H shown in FIG. 4(a) and the opacity curve OC shown in FIG. 4(b). It is not exactly shown and is distorted for convenience of explanation.

通常、カラーマップC内に用意されるオパシティカーブOCは、所定位置にピークをもち、所定の信号値範囲にわたる山形の隆起形状をなす。このため、視界ヒストグラムVHも、所定位置にピークをもった山形の隆起形状をなす。そして、一般的には、オパシティカーブOCのピーク位置(図示の例の場合、Soc)と視界ヒストグラムVHのピーク位置(図示の例の場合、Svh)とは一致せず、両者間には、若干の「ズレ」が生じる。これは、図5(a) に示すオパシティカーブOCが、特定の観察対象(たとえば、肺)を観察するのに適した標準的な不透明度αの分布を示すものであるのに対して、視界ヒストグラムVHは、特定の患者個人の断層画像群の信号値ヒストグラムHを加味して得られるものであることを考えれば当然である。 Normally, the opacity curve OC prepared in the color map C has a peak at a predetermined position and forms a mountain-shaped protuberance over a predetermined signal value range. Therefore, the field of view histogram VH also forms a mountain-shaped protuberance with a peak at a predetermined position. In general, the peak position of the opacity curve OC (Soc in the illustrated example) and the peak position of the field of view histogram VH (Svh in the illustrated example) do not match, and there is a slight difference between the two. "deviation" occurs. This is because the opacity curve OC shown in FIG. It is natural to consider that the histogram VH is obtained by taking into consideration the signal value histogram H of the tomographic image group of a specific individual patient.

このように、多数の患者の断層画像群に対して、標準的な不透明度αの分布を示すオパシティカーブOCを共通に用いたとしても、信号値ヒストグラムHは個々の患者ごとに異なるため、視界ヒストグラムVHも個々の患者ごとに異なる。そして、視界ヒストグラムVHのオパシティカーブOCに対する位置の「ズレ」の程度も、個々の患者ごとに異なる。本願発明者は、このようなオパシティカーブOCと視界ヒストグラムVHとの位置の「ズレ」が、観察対象の解像度の低下を来し、ボケが生じる一因になるものと考えている。 Thus, even if the opacity curve OC showing the standard opacity α distribution is commonly used for a group of tomographic images of many patients, the signal value histogram H differs for each individual patient. Histogram VH is also different for each individual patient. The degree of "deviation" of the position of the field of view histogram VH with respect to the opacity curve OC also differs for each individual patient. The inventor of the present application believes that such a positional "deviation" between the opacity curve OC and the field of view histogram VH causes a decrease in the resolution of the observation target, and is one of the causes of blurring.

たとえば、所望の観察対象を表示させるために、標準的には、図5(a) に示すように、信号値Socをピーク位置とする山に応じたボクセルを表示すべきであるのに、実際には、信号値Svhをピーク位置とする山に応じたボクセルが表示されてしまうと、観察対象外のボクセルが混在して表示されることになり、結果的に、当該観察対象についての解像度が低下し、ボケが生じるものと推察される。このように、オパシティカーブOCと視界ヒストグラムVHとの「ズレ」が、ボリュームレンダリング像上における観察対象のボケの一因になるとの報告は、たとえば、Shengzhou Luoによる博士論文 "Transfer Function Optimization for Volume Visualization Based on Visibility and Saliency", Dissertation for Degree of PhD., University of Dublin, Trinity College, Sep. 2016 においてもなされている。 For example, in order to display the desired observation object, as shown in FIG. If a voxel corresponding to a mountain whose peak position is the signal value Svh is displayed, voxels outside the observation target are mixed and displayed, and as a result, the resolution of the observation target is reduced. It is inferred that this will decrease and blur will occur. For example, Shengzhou Luo's Ph.D. Based on Visibility and Saliency", Dissertation for Degree of PhD., University of Dublin, Trinity College, Sep. 2016.

このような理論によれば、たとえば、図5(b) に示す例のように、視界ヒストグラムVHのグラフとして、そのピーク位置Svhが、オパシティカーブOCのピーク位置Socに一致するような理想的なグラフが得られれば、両者の横軸に関する位置的な「ズレ」はなくなり、観察対象の解像度の低下を防ぎ、ボケを解消することができる。実際、後述する方法によって、視界ヒストグラムVHのピーク位置SvhをオパシティカーブOCのピーク位置Socに近づける補正を行うことにより、ボリュームレンダリング像上の観察対象の解像度の低下を抑制し、観察対象をより鮮明に表示することが可能になった。 According to such a theory, for example, as in the example shown in FIG. If the graph can be obtained, the positional "deviation" between the horizontal axes of the two disappears, preventing deterioration of the resolution of the observed object and eliminating blurring. In fact, by correcting the peak position Svh of the field of view histogram VH closer to the peak position Soc of the opacity curve OC by a method described later, the reduction in resolution of the observation target on the volume rendering image is suppressed, and the observation target is made clearer. It is now possible to display on

このように、「視界ヒストグラムVHのオパシティカーブOCに対するズレを要因とするボケ」を解消するための具体的な手法については、§3.1「視界ヒストグラム考慮補正部141」において詳述する。 A specific method for eliminating the "bokeh caused by deviation of the field of view histogram VH from the opacity curve OC" will be described in detail in §3.1 "field of view histogram consideration correction unit 141".

<要因2:Weber-Fechnerの法則>
一般に、ヒトの感覚器の感度が対数特性をもつことは、Weber-Fechnerの法則として知られている。たとえば、ヒトの視覚系では、ヒトが感じる感覚量は、不透明度などの物理量に基づいて定まる刺激の強さの対数に比例することになる。そこで本願発明者は、オパシティカーブOCとして、たとえば、図5に示すような線形特性をもつ形状(三角形の山状形状)のカーブを採用すると、実際にヒトが感じる感覚量の変化が非線形になり、観察対象の輪郭にボケを生じさせる一因になるのではないかと考えている。
<Factor 2: Weber-Fechner Law>
Generally, it is known as the Weber-Fechner law that the sensitivity of human sensory organs has a logarithmic characteristic. For example, in the human visual system, the amount of sensation that a person perceives is proportional to the logarithm of the stimulus intensity, which is determined based on a physical quantity such as opacity. Therefore, the inventors of the present application adopted a curve having a linear characteristic (triangular mountain shape) as shown in FIG. , I think that it may be one of the causes of blurring in the outline of the observation target.

このような理論によれば、Weber-Fechnerの法則に基づくボケの要因を取り除くためには、オパシティカーブOCとして、上記ヒトの感覚器の感度の対数特性を考慮したカーブを採用する必要がある。実際、後述する方法によって、オパシティカーブOCの形状を対数特性を考慮した形状に補正することにより、ボリュームレンダリング像上の観察対象の解像度の低下を抑制し、観察対象をより鮮明に表示することが可能になった。 According to such a theory, in order to remove blurring factors based on the Weber-Fechner law, it is necessary to adopt a curve that considers the logarithmic characteristics of the sensitivity of the human sensory organs as the opacity curve OC. In fact, by correcting the shape of the opacity curve OC to a shape that considers the logarithmic characteristics by a method described later, it is possible to suppress the deterioration of the resolution of the observation target on the volume rendering image and display the observation target more clearly. became possible.

このように、「Weber-Fechnerの法則に基づくボケ」を解消するための具体的な手法については、§3.2「累乗補正部142」において詳述する。 A specific method for eliminating the "bokeh based on the Weber-Fechner's law" will be described in detail in §3.2 "Power Correction Unit 142".

<要因3:近接信号値をもつ別体の混在>
既に述べたとおり、人体を撮影対象とした断層画像に含まれる画素の信号値は、内臓、骨、皮膚、筋肉、脂肪などの組織ごとに、それぞれ分布範囲が限定される。このため、所望の観察対象となる特定の組織について、その固有の信号値分布範囲に隆起部分を有するオパシティカーブOCを用意すれば、当該所望の観察対象の観察に適したボリュームレンダリング像を作成することができる。
<Factor 3: Mixture of Different Objects with Proximity Signal Values>
As described above, the distribution range of the signal values of pixels included in a tomographic image of the human body is limited for each tissue such as internal organs, bones, skin, muscle, and fat. Therefore, by preparing an opacity curve OC having a raised portion in its own signal value distribution range for a specific tissue to be a desired observation target, a volume rendering image suitable for observation of the desired observation target can be created. be able to.

しかしながら、実際には、観察対象とは異なる別組織、あるいは、空気や水などの体内物質の中に、信号値の分布範囲が近接している別体が存在すると、ボリュームレンダリング像上には、観察対象の組織とともに、当該別体が混在した状態で表示されることになる。また、断層画像撮影装置による撮影を行う際には、通常、患者を寝かせる寝台や患者を固定するベルトなどが用いられるため、寝台やベルトなどの材質に、観察対象となる組織に近い信号値を呈するものが含まれていると、これらの材料も観察対象に混在した形で表示されることになる。 However, in reality, if there is another body with a close distribution range of signal values in another tissue different from the observation target, or in body substances such as air and water, on the volume rendering image, Together with the tissue to be observed, the separate body is displayed in a mixed state. In addition, when performing imaging with a tomographic imaging system, a bed on which the patient lies and a belt to fix the patient are usually used. These materials will also be displayed in a mixed form in the observation object if they are included.

このように、観察対象が呈する信号値に近似する信号値を呈する別体が存在すると、当該別体が観察対象と混在した状態で表示されるため、結果的に、観察対象が不鮮明になってしまう。このように、近接信号値をもつ別体の混在により観察対象が不鮮明になることを解消するための具体的な手法については、§5「本発明の付加的実施形態」において詳述する。 In this way, when there is a separate object exhibiting a signal value similar to the signal value exhibited by the observation object, the object is displayed in a mixed state with the observation object, resulting in an obscure observation object. put away. Concrete techniques for solving the blurring of the observation target due to the mixture of different objects having proximity signal values will be described in detail in Section 5 "Additional Embodiments of the Present Invention".

<<< §2. 本発明の基本的実施形態 >>>
続いて、本発明の基本的実施形態を説明する。図6は、本発明の基本的実施形態に係るボリュームレンダリング装置100の構成を示すブロック図である。このボリュームレンダリング装置100は、CT、MRI、PETなどの断層画像撮影装置50によって撮影された断層画像群10(たとえば、図1(a) 参照)に基づいてボリュームレンダリング像30(たとえば、図1(c) 参照)を作成する機能をもった装置である。このボリュームレンダリング装置100によって作成されたボリュームレンダリング像30は、ディスプレイ装置60に与えられ、ディスプレイ画面上に表示される。もちろん、必要に応じて、ボリュームレンダリング像30をプリンタで出力することも可能である。
<<< §2. Basic embodiment of the present invention >>>
Next, a basic embodiment of the invention will be described. FIG. 6 is a block diagram showing the configuration of the volume rendering device 100 according to the basic embodiment of the invention. This volume rendering apparatus 100 is a volume rendering image 30 (for example, FIG. 1 ( c) It is a device that has the function of creating A volume rendering image 30 created by the volume rendering device 100 is provided to the display device 60 and displayed on the display screen. Of course, it is also possible to output the volume rendering image 30 with a printer, if necessary.

この基本的実施形態に係るボリュームレンダリング装置100は、図に実線枠で囲われた各ブロックの集合体によって構成されるが、その中でも、本発明の特徴的な構成要素は、図に一点鎖線で囲って示すカラーマップの最適化装置101の部分である。カラーマップの最適化装置101は、断層画像撮影装置50によって撮影された断層画像群10に基づいてボリュームレンダリング像30を生成するために用いるカラーマップCに対して最適化処理を行う装置であり、最適化処理の対象となるカラーマップCを入力して、最適化処理を施した補正カラーマップCCを出力する機能を果たす。ここで、「最適化」とは、対象となるカラーマップCを、断層画像撮影装置50から与えられた断層画像群10に適したものに補正することを意味する。 A volume rendering apparatus 100 according to this basic embodiment is composed of an assembly of blocks surrounded by a solid line frame in the drawing. A portion of the color map optimizer 101 is shown circled. The color map optimization device 101 is a device that performs optimization processing on the color map C used for generating the volume rendering image 30 based on the tomographic image group 10 captured by the tomographic imaging device 50. It has the function of inputting the color map C to be optimized and outputting the corrected color map CC subjected to the optimization processing. Here, “optimization” means correcting the target color map C to be suitable for the group of tomographic images 10 given from the tomographic imaging apparatus 50 .

図示のとおり、カラーマップの最適化装置101は、階層画像入力部110、信号値ヒストグラム作成部120、視界ヒストグラム作成部130、オパシティカーブ補正部140、カラーマップ入力部150によって構成される。 As shown in the figure, the color map optimization device 101 includes a hierarchical image input unit 110 , a signal value histogram creation unit 120 , a field of view histogram creation unit 130 , an opacity curve correction unit 140 and a color map input unit 150 .

一方、ボリュームレンダリング装置100は、上述したカラーマップの最適化装置101をそっくり含む装置である。具体的には、図示のボリュームレンダリング装置100は、カラーマップの最適化装置101に、更に、カラーマップ格納部161、カラーマップ作成部162、ボクセル画像作成部170、レンダリング処理部180を付加することにより構成される。カラーマップの最適化装置101は、カラーマップ格納部161に格納されているカラーマップC、もしくはカラーマップ作成部162で作成されたカラーマップCを取り込み、取り込んだカラーマップCを最適化するための補正を行い、補正後に得られた補正カラーマップCCを出力する。 On the other hand, the volume rendering device 100 is a device that includes the color map optimization device 101 described above. Specifically, the volume rendering device 100 shown in the drawing further includes a color map storage unit 161, a color map creation unit 162, a voxel image creation unit 170, and a rendering processing unit 180 in addition to the color map optimization device 101. Consists of The color map optimization device 101 takes in the color map C stored in the color map storage unit 161 or the color map C created by the color map creation unit 162, and optimizes the color map C that has been taken in. Correction is performed, and a corrected color map CC obtained after correction is output.

なお、図6に示すカラーマップの最適化装置101およびこれを含むボリュームレンダリング装置100は、実際には、コンピュータに所定のプログラムを組み込むことにより構成されており、図に個々のブロックとして示されている各構成要素の機能は、コンピュータのハードウェアとソフトウェアとの組み合わせによって実現される。以下、各構成要素の具体的な機能を順に説明する。 Note that the color map optimization device 101 and the volume rendering device 100 including this shown in FIG. 6 are actually configured by installing a predetermined program in a computer, and are shown as individual blocks in the figure. The functions of each component in the system are realized by a combination of computer hardware and software. Specific functions of each component will be described in order below.

<2.1 断層画像入力部110>
断層画像入力部110は、所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する役割を果たす構成要素である。既に説明したように、断層画像撮影装置50によって撮影された断層画像群10は、たとえば、図2に示すように、三次元座標系上に定義された多数の画素S(x,y,z)の集合体によって構成され、個々の画素には、それぞれ信号値Sが付与されている。
<2.1 Tomographic Image Input Unit 110>
The tomographic image input unit 110 is a component that plays a role of inputting a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value. As already explained, the group of tomographic images 10 captured by the tomographic imaging apparatus 50 includes, for example, a large number of pixels S (x, y, z) defined on a three-dimensional coordinate system, as shown in FIG. A signal value S is assigned to each pixel.

断層画像入力部110が入力した断層画像群10は、信号値ヒストグラム作成部120およびボクセル画像作成部170に与えられる。信号値ヒストグラム作成部120に与えられた断層画像群10は、カラーマップCの最適化処理を行うための材料として利用され、ボクセル画像作成部170に与えられた断層画像群10は、ボクセル画像20の作成に利用される。 The tomographic image group 10 input by the tomographic image input unit 110 is given to the signal value histogram creating unit 120 and the voxel image creating unit 170 . The tomographic image group 10 given to the signal value histogram creating unit 120 is used as a material for performing the optimization processing of the color map C, and the tomographic image group 10 given to the voxel image creating unit 170 is used as the voxel image 20 used to create

現在利用されている一般的な断層画像撮影装置50は、16ビットの信号値Sをもつ画素の集合体からなる断層画像を出力する。この場合、断層画像入力部110は、複数の断層画像をそれぞれ16ビットの信号値Sをもつモノクロ画像として入力することになり、以後、ボリュームレンダリング装置100内での各処理は、この16ビットの信号値Sをもつ断層画像に基づいて実行されることになる。 A general tomographic imaging apparatus 50 currently in use outputs a tomographic image composed of a set of pixels having a signal value S of 16 bits. In this case, the tomographic image input unit 110 inputs a plurality of tomographic images as monochrome images each having a 16-bit signal value S. Thereafter, each process in the volume rendering apparatus 100 is performed using this 16-bit signal value S. It will be performed on the basis of the tomographic image with signal value S.

なお、断層画像入力部110に、必要に応じて、入力した断層画像の階調を落とすための階調変換処理機能を設けておくこともできる。たとえば、16ビットの信号値を8ビットの信号値に変換する機能を設けておけば、以後の処理を8ビットの信号値をもつ画素を用いて実行することができるようになり、処理負担は大幅に軽減される。このような階調変換処理については、§6「階調変換処理」において述べる。 Note that the tomographic image input unit 110 may be provided with a gradation conversion processing function for reducing the gradation of the input tomographic image, if necessary. For example, if a function for converting a 16-bit signal value to an 8-bit signal value is provided, subsequent processing can be executed using pixels having 8-bit signal values, reducing the processing load. greatly reduced. Such gradation conversion processing will be described in Section 6 “Gradation Conversion Processing”.

<2.2 カラーマップの入力部150,格納部161,作成部162>
続いて、カラーマップ入力部150、カラーマップ格納部161、カラーマップ作成部162について説明する。
<2.2 Color Map Input Unit 150, Storage Unit 161, Creation Unit 162>
Next, the color map input unit 150, the color map storage unit 161, and the color map creation unit 162 will be explained.

<2.2.1 カラーマップ入力部150>
カラーマップ入力部150は、カラーマップ格納部161に格納されているカラーマップC、もしくはカラーマップ作成部162で作成されたカラーマップCを、最適化処理の対象として入力する構成要素である。
<2.2.1 Color map input unit 150>
The color map input unit 150 is a component that inputs the color map C stored in the color map storage unit 161 or the color map C created by the color map creation unit 162 as an optimization target.

ここに示すボリュームレンダリング装置100では、カラーマップ格納部161とカラーマップ作成部162との双方が設けられており、カラーマップ入力部220は、そのいずれからでもカラーマップCを入力することができる。もちろん、カラーマップ格納部161およびカラーマップ作成部162は、必ずしも双方を設ける必要はなく、どちらか一方だけを設けるようにしてもかまわない。また、カラーマップ入力部150に、外部装置からカラーマップCを入力する機能を設けておけば、必ずしも、ボリュームレンダリング装置100の内部にカラーマップ格納部161やカラーマップ作成部162を設ける必要はない。 The volume rendering apparatus 100 shown here is provided with both a color map storage unit 161 and a color map creation unit 162, and the color map input unit 220 can input the color map C from either of them. Of course, the color map storage unit 161 and the color map creation unit 162 do not necessarily have to be provided with both, and only one of them may be provided. Further, if the color map input unit 150 is provided with a function of inputting the color map C from an external device, it is not always necessary to provide the color map storage unit 161 and the color map creation unit 162 inside the volume rendering apparatus 100. .

本願にいうカラーマップCは、§1で述べたとおり、所定範囲内の信号値Sに対して、それぞれ不透明度αを対応づけたオパシティカーブOCと、それぞれ所定の色値(R,G,B)を対応づけたカラーパレットCPと、を含むデジタルデータである。カラーマップCの具体例は、たとえば、図4(b) に例示したとおりである。 As described in Section 1, the color map C referred to in the present application includes an opacity curve OC in which opacity α is associated with each signal value S within a predetermined range, and predetermined color values (R, G, B ) are associated with the color palette CP. A specific example of the color map C is as illustrated in FIG. 4(b).

図4(b) に示す例の場合、信号値Smin ~Smax の全範囲について、不透明度αと色値(R,G,B)とが対応づけられているが、必ずしも、信号値Sがとる全範囲について、不透明度αと色値(R,G,B)とを対応づける必要はない。たとえば、最小値Smin 近傍の低領域信号値や最大値Smax 近傍の高領域信号値については、実際のレンダリング処理に利用しない運用を採る場合、これらの信号値についてまで不透明度αと色値(R,G,B)とを対応づける必要はない。また、ここに示す例の場合、最適化処理には、16ビットの信号値Sをそのまま用いているため、Smin =-32768、Smax =+32767になるが、後述する階調変換処理によって、これを8ビットに間引いて用いる場合は、Smin =0、Smax =255に設定すれば足りる。 In the example shown in FIG. 4(b), the opacity α and the color values (R, G, B) are associated with each other over the entire range of signal values Smin to Smax. There is no need to associate opacity α with color values (R, G, B) for the entire range. For example, regarding the low-region signal value near the minimum value Smin and the high-region signal value near the maximum value Smax, if an operation is adopted in which these signal values are not used in actual rendering processing, even these signal values have an opacity α and a color value (R , G, B) need not be associated. In the case of the example shown here, since the 16-bit signal value S is used as it is in the optimization processing, Smin =-32768 and Smax =+32767. When thinning to 8 bits for use, it is sufficient to set Smin=0 and Smax=255.

なお、図4(b) では、説明の便宜上、カラーマップCをグラフの形態で示すが、実際のカラーマップCは、たとえば、図7に示す表のように、個々の信号値Sについて、それぞれ(R,G,B,α)の値を対応づけるデジタルデータであればよい。図7に示す例は、16ビットの信号値S(-32768~+32767)のそれぞれについて、色値R,G,Bの値と不透明度αの値とを対応づけたものであり、色値R,G,Bは、0~255の8ビットデータで示され、不透明度αは、0≦α≦1の範囲の数値として示されている(実際は、αも0~255のデータになる)。ここで、色値R,G,Bを対応づけた部分がカラーパレットCPに相当し、不透明度αを対応づけた部分がオパシティカーブOPに相当する。 In FIG. 4(b), the color map C is shown in the form of a graph for convenience of explanation. Any digital data that associates the values of (R, G, B, α) may be used. The example shown in FIG. 7 associates the color values R, G, and B with the opacity α for each 16-bit signal value S (−32768 to +32767). , G, and B are represented by 8-bit data from 0 to 255, and the opacity α is represented as a numerical value within the range of 0≦α≦1 (actually, α is also data from 0 to 255). Here, the portion to which the color values R, G, and B are associated corresponds to the color palette CP, and the portion to which the opacity α is associated corresponds to the opacity curve OP.

このように、カラーマップ入力部150が入力するカラーマップCは、実際には、図7に例示するようなデジタルデータであるが、以下、説明の便宜上、カラーマップCを、図4(b) に示すように、横軸に信号値Sをとったグラフの形態で示すことにする。すなわち、オパシティカーブOCは、縦軸に不透明度αをとったグラフを構成する線で示すことにし、カラーパレットCPは、横軸上に設定された個々の信号値区間についての色値(R,G,B)で示すことにする。 Thus, the color map C input by the color map input unit 150 is actually digital data as illustrated in FIG. , in the form of a graph with the signal value S on the horizontal axis. That is, the opacity curve OC is indicated by lines forming a graph with the opacity α on the vertical axis, and the color palette CP is the color values (R, G, B).

図6において、カラーマップ入力部150のブロックから下方に向かう矢印に付された「C(OC&CP)」なる記号は、オパシティカーブOCとカラーパレットCPとを含むカラーマップCが、カラーマップ入力部150から出力されることを示している。図示のとおり、オパシティカーブOCは視界ヒストグラム作成部130に与えられ、オパシティカーブOCとカラーパレットCPとを含むカラーマップCは、オパシティカーブ補正部140に与えられる。 In FIG. 6, the symbol "C (OC & CP)" attached to the arrow pointing downward from the block of the color map input unit 150 indicates that the color map C including the opacity curve OC and the color palette CP is the color map input unit 150. indicates that the output is from As shown, the opacity curve OC is provided to the field of view histogram creation unit 130, and the color map C including the opacity curve OC and the color palette CP is provided to the opacity curve correction unit 140.

<2.2.2 カラーマップ格納部161>
カラーマップ格納部161は、予め作成された複数通りの標準カラーマップCを格納した構成要素である。1組のカラーマップCの実体が、図7に例示するようなデジタルデータであることは既に説明したとおりである。カラーマップ格納部161には、このようなデジタルデータが複数組用意されている。
<2.2.2 Color map storage unit 161>
The color map storage unit 161 is a component that stores a plurality of standard color maps C created in advance. As already explained, the substance of a set of color maps C is digital data as illustrated in FIG. A plurality of sets of such digital data are prepared in the color map storage unit 161 .

§1で述べたとおり、カラーマップCは、断層画像群10に基づいて、特定の対象物の観察に適したボリュームレンダリング像30を作成するために利用される。特定のカラーマップCを用いれば、オパシティカーブOCで山状に隆起した区間の信号値Sを示す組織を、カラーパレットCPで指定された色によって選択的に表示させることができる。カラーマップ格納部161には、たとえば、肺の観察用の標準カラーマップC1、心臓の観察用の標準カラーマップC2、骨の観察用の標準カラーマップC3、... などの複数通りの標準カラーマップが格納されている。これら複数通りの標準カラーマップC1,C2,C3,... には、それぞれ異なる山状隆起部分をもったオパシティカーブOCと、異なる色値を指定するカラーパレットCPとが含まれている。 As described in .sctn.1, the color map C is used to create a volume rendering image 30 suitable for observation of a specific object based on the group of tomographic images 10. FIG. By using a specific color map C, it is possible to selectively display the tissue showing the signal value S in the mountain-like section of the opacity curve OC with the color specified by the color palette CP. The color map storage unit 161 stores a plurality of standard colors such as a standard color map C1 for lung observation, a standard color map C2 for heart observation, a standard color map C3 for bone observation, and so on. map is stored. These multiple standard color maps C1, C2, C3, .

カラーマップ入力部150は、オペレータの選択指示に応じて、カラーマップ格納部161から所定の標準カラーマップCを入力する処理を実行する。オペレータは、たとえば、肺の観察に適したボリュームレンダリング像30を作成して、ディスプレイ装置60に表示させたいと考えた場合には、カラーマップ入力部150に対して、肺の観察用の標準カラーマップC1を選択する旨の選択指示を与えればよい。 The color map input unit 150 executes a process of inputting a predetermined standard color map C from the color map storage unit 161 according to the operator's selection instruction. For example, when the operator wants to create a volume rendering image 30 suitable for lung observation and display it on the display device 60, the operator inputs the standard color for lung observation to the color map input unit 150. A selection instruction to select the map C1 may be given.

もっとも、こうして用意された種々の標準カラーマップCは、あくまでも特定の観察対象(たとえば、肺)を観察するのに適した標準的な不透明度αの分布を示すオパシティカーブOCを含むものであるため、必ずしも、特定の患者個人の断層画像群10に基づいて、当該患者の特定の観察対象(たとえば、肺)をディスプレイ装置60上に表示するために最適なカラーマップにはなっていない。カラーマップの最適化装置101は、このような標準カラーマップCを最適化して、補正カラーマップCCとして出力する役割を果たす。 However, since the various standard color maps C prepared in this manner contain an opacity curve OC indicating a standard distribution of opacity α suitable for observing a specific observation target (for example, lungs), they are not necessarily , based on the tomographic image group 10 of a specific patient, the color map is not optimal for displaying a specific observation target (for example, lungs) of the patient on the display device 60 . The color map optimization device 101 plays a role of optimizing such a standard color map C and outputting it as a corrected color map CC.

<2.2.3 カラーマップ作成部162>
一方、カラーマップ作成部162は、オペレータの作成指示に基づいて、新たにカラーマップCを作成する機能をもった構成要素である。カラーマップ入力部150は、こうしてカラーマップ作成部162によって新たに作成されたカラーマップCを入力する機能も有している。
<2.2.3 Color map creation unit 162>
On the other hand, the color map creation unit 162 is a component having a function of creating a new color map C based on the operator's creation instruction. The color map input unit 150 also has a function of inputting the color map C newly created by the color map creation unit 162 in this way.

カラーマップ作成部162に対する作成指示の形態や、この作成指示に基づいてカラーマップCを作成するアルゴリズムは任意のものでかまわないが、ここでは、オペレータの作業負担を軽減することができる簡便な作成指示の形態と、当該形態で与えられた作成指示に基づいてカラーマップCを作成する具体的なアルゴリズムを採用した実施例を例示しておく。 The format of the creation instruction to the color map creation unit 162 and the algorithm for creating the color map C based on this creation instruction may be arbitrary. An embodiment employing a form of instruction and a specific algorithm for creating the color map C based on the creation instruction given in the form will be exemplified.

ここに示す実施例は、カラーマップ作成部162が、複数の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、複数の信号値区間にそれぞれ対応づけられた色値と、をオペレータの作成指示として入力し、この作成指示に基づいて、所定範囲内の連続的な信号値についての不透明度を補間により求めてオパシティカーブOCを作成し、上記信号値区間に上記色値を対応づけたカラーパレットCPを作成することを基本概念として採用するものである。以下、このような基本概念に基づく2つの実施例を示す。 In the embodiment shown here, the color map generation unit 162 generates a plurality of representative signal values, opacities respectively corresponding to these representative signal values, and color values respectively corresponding to a plurality of signal value intervals. An opacity curve OC is created by interpolating the opacity of continuous signal values within a predetermined range based on the operator's creation instruction, and the color value is associated with the signal value interval. The basic concept of this method is to create a color palette CP attached to each color. Two examples based on this basic concept are shown below.

第1の実施例は、オペレータによるオパシティカーブOCの作成指示を3点指定入力により行うものである。図8は、このような作成指示入力作業後の表示画面の一例を示す図である。この図8に示すグラフは、図4(b) に示すグラフに準じたものであり、オパシティカーブOCは、横軸を信号値S、縦軸を不透明度αとする折れ線グラフとして表示されている。一方、カラーパレットCPは、信号値Sを示す横軸を複数の区間に分割し、各信号値区間にそれぞれ所定の色値(R,G,B)を対応づけたものとして表示されている。 In the first embodiment, the operator instructs the generation of the opacity curve OC by specifying three points. FIG. 8 is a diagram showing an example of a display screen after such creation instruction input work. The graph shown in FIG. 8 is based on the graph shown in FIG. 4(b), and the opacity curve OC is displayed as a line graph with the signal value S on the horizontal axis and the opacity α on the vertical axis. . On the other hand, the color palette CP is displayed by dividing the horizontal axis indicating the signal value S into a plurality of sections and associating predetermined color values (R, G, B) with each signal value section.

図は、オペレータの作成指示に応じて、既にカラーマップCが作成された状態を示している。オペレータが作成指示を入力する前は、ディスプレイ画面上に、横軸(信号値S)と縦軸(不透明度α)のみが設定された空の二次元座標系が表示されている。オパシティカーブOCの作成指示は、この空の二次元座標系上において、3つの指定点の位置を指定する入力を行えばよい。ここでは、図示のとおり、3つの指定点Q1,Q2,Q3の位置が入力されたものとしよう。各点の位置入力は、たとえば、ディスプレイ画面に表示された空の二次元座標系上において、マウス等のポインティングデバイスを用いたクリック操作などによって行うことができる。 The drawing shows a state in which the color map C has already been created according to the operator's creation instruction. Before the operator inputs a creation instruction, an empty two-dimensional coordinate system in which only the horizontal axis (signal value S) and vertical axis (opacity α) are set is displayed on the display screen. An instruction to create the opacity curve OC may be given by specifying the positions of three specified points on this empty two-dimensional coordinate system. Here, it is assumed that the positions of three specified points Q1, Q2, and Q3 are input as shown in the figure. The position input of each point can be performed, for example, by a click operation using a pointing device such as a mouse on an empty two-dimensional coordinate system displayed on the display screen.

上述したとおり、空の二次元座標系の横軸は信号値S、縦軸は不透明度αを示しているので、この空の二次元座標系上で1つの指定点Qの位置を指定する入力は、当該指定点Qの横軸座標sおよび縦軸座標αを指定する入力になる。したがって、図示の例の場合、指定点Q1の入力により座標値(s1,α1)が定まり、指定点Q2の入力により座標値(s2,α2)が定まり、指定点Q3の入力により座標値(s3,α3)が定まることになる。図示されているオパシティカーブOCは、これらの座標値に基づいて自動的に作成されたものである。 As described above, the horizontal axis of the empty two-dimensional coordinate system indicates the signal value S, and the vertical axis indicates the opacity α. is an input that specifies the horizontal axis coordinate s and the vertical axis coordinate α of the specified point Q. Therefore, in the illustrated example, the input of the designated point Q1 determines the coordinate values (s1, α1), the input of the designated point Q2 determines the coordinate values (s2, α2), and the input of the designated point Q3 determines the coordinate values (s3 , α3) are determined. The illustrated opacity curve OC is automatically created based on these coordinate values.

ここで、上記座標値s1,s2,s3を、それぞれ第1の代表信号値s1、第2の代表信号値s2、第3の代表信号値s3と呼ぶことにすれば、この第1の実施例に係るカラーマップ作成部162は、小さい順に離散的に並べられた第1の代表信号値s1、第2の代表信号値s2、第3の代表信号値s3と、これら各代表信号値にそれぞれ対応する不透明度α1,α2,α3とを、オペレータの作成指示として入力する機能をもっている。 Here, if the coordinate values s1, s2 and s3 are respectively called a first representative signal value s1, a second representative signal value s2 and a third representative signal value s3, the first embodiment The color map creation unit 162 according to , the first representative signal value s1, the second representative signal value s2, and the third representative signal value s3 discretely arranged in ascending order, and corresponding to each representative signal value It has a function of inputting the opacity α1, α2, α3 to be used as an operator's creation instruction.

そして、このカラーマップ作成部162は、第1の代表信号値s1と第2の代表信号値s2との間の信号値区間および第2の代表信号値s2と第3の代表信号値s3との間の信号値区間については不透明度αを線形補間する。図8において、指定点Q1とQ2との間の線分は、このような線形補間により作成されたグラフに相当する。また、このカラーマップ作成部162は、第1の代表信号値s1未満の信号値区間Iについては、第1の代表信号値s1に対応する不透明度α1を与える補間を行う。その結果、信号値区間Iについては、不透明度α1を示す水平グラフが描かれる。同様に、第3の代表信号値s3を超える信号値区間III については、第3の代表信号値s3に対応する不透明度α3を与える補間を行う。その結果、信号値区間III については、不透明度α3を示す水平グラフが描かれる。 Then, the color map creating section 162 creates a signal value interval between the first representative signal value s1 and the second representative signal value s2 and between the second representative signal value s2 and the third representative signal value s3. For the signal value interval between, the opacity α is linearly interpolated. In FIG. 8, the line segment between designated points Q1 and Q2 corresponds to a graph created by such linear interpolation. Further, the color map creating unit 162 performs interpolation to give opacity α1 corresponding to the first representative signal value s1 for the signal value interval I less than the first representative signal value s1. As a result, for the signal value interval I, a horizontal graph showing opacity α1 is drawn. Similarly, for the signal value section III exceeding the third representative signal value s3, interpolation is performed to give opacity α3 corresponding to the third representative signal value s3. As a result, a horizontal graph showing opacity α3 is drawn for the signal value interval III.

かくして、図示のような三角形状の山形隆起をもつオパシティカーブOCが作成される。ここで、指定点Q1,Q3は、3つの信号値区間I,II,III の境界を示し、指定点Q2は、オパシティカーブOCのピーク位置を示すことになる。このため、上記入力を行うことにより、3つの信号値区間I,II,III が画定される。 Thus, an opacity curve OC having triangular ridges as shown is created. Here, the specified points Q1 and Q3 indicate the boundaries of the three signal value intervals I, II and III, and the specified point Q2 indicates the peak position of the opacity curve OC. Therefore, three signal value intervals I, II, and III are demarcated by performing the above inputs.

続いて、カラーマップ作成部162は、これら各信号値区間I,II,III のそれぞれについて、所定の色値(R,G,Bの組み合わせ)を定めるための指示入力をオペレータに要求する。オペレータは、この要求に応じて、各信号値区間に適した色値の指定を行う。具体的には、この場合、信号値区間IIに属する画素が観察対象となるので、信号値区間Iについては、背景に適した色値(R1,G1,B1)を指定し、信号値区間IIについては、観察対象に適した色値(R2,G2,B2)を指定し、信号値区間III については、背景に適した色値(R3,G3,B3)を指定すればよい。 Subsequently, the color map generator 162 requests the operator to input an instruction to determine a predetermined color value (a combination of R, G, and B) for each of these signal value intervals I, II, and III. In response to this request, the operator designates color values suitable for each signal value interval. Specifically, in this case, pixels belonging to the signal value interval II are to be observed. For signal value section III, color values (R2, G2, B2) suitable for the observation object should be designated, and for signal value section III, color values (R3, G3, B3) suitable for the background may be designated.

このような色値の具体的な入力態様は公知の技術であるため、ここでは詳しい説明は省略する。こうして入力された各信号値区間I,II,III の色値を示す情報が、カラーパレットCPということになり、オパシティカーブOCとカラーパレットCPとにより、カラーマップCが構成される。 Since such a specific manner of inputting color values is a well-known technique, detailed description thereof will be omitted here. The information indicating the color values of the respective signal value intervals I, II, and III thus inputted is the color palette CP, and the color map C is constructed by the opacity curve OC and the color palette CP.

一方、第2の実施例は、オペレータによるオパシティカーブOCの作成指示を2点指定入力により行うものである。図9(a) ,(b) は、いずれも、このような作成指示入力作業後の表示画面の一例を示す図であり、オペレータの作成指示に応じて、既にカラーマップCが作成された状態を示している。この第2の実施例では、オペレータによる作成指示が、空の二次元座標系上において行われる点は第1の実施例と同様であるが、指定点Q1(s1,α1)と指定点Q2(s2,α2)の2点のみが指定される。すなわち、座標値s1,s2を、それぞれ第1の代表信号値s1および第2の代表信号値s2と呼ぶことにすれば、この第2の実施例に係るカラーマップ作成部162は、小さい順に離散的に並べられた第1の代表信号値s1および第2の代表信号値s2と、これら各代表信号値にそれぞれ対応する不透明度α1,α2とを、オペレータの作成指示として入力する機能をもっている。 On the other hand, in the second embodiment, the operator instructs to create the opacity curve OC by specifying two points. 9(a) and 9(b) are both diagrams showing an example of the display screen after such creation instruction input work, and the state in which the color map C has already been created according to the operator's creation instruction. is shown. The second embodiment is the same as the first embodiment in that the operator gives a creation instruction on an empty two-dimensional coordinate system. s2, α2) are specified. That is, if the coordinate values s1 and s2 are called a first representative signal value s1 and a second representative signal value s2, respectively, the color map creation unit 162 according to the second embodiment can It has a function of inputting the first representative signal value s1 and the second representative signal value s2 arranged in a linear fashion and the opacities α1 and α2 respectively corresponding to these representative signal values as an operator's creation instruction.

そして、このカラーマップ作成部162は、第1の代表信号値s1と第2の代表信号値s2との間の信号値区間については不透明度を線形補間し、第1の代表信号値s1未満の信号値区間については第1の代表信号値s1に対応する不透明度α1を与える補間を行い、第2の代表信号値s2を超える信号値区間については第2の代表信号値s2に対応する不透明度α2を与える補間を行うことによりオパシティカーブOCを作成する。 Then, this color map creation unit 162 linearly interpolates the opacity for the signal value interval between the first representative signal value s1 and the second representative signal value s2, and For the signal value interval, interpolation is performed to give the opacity α1 corresponding to the first representative signal value s1, and for the signal value interval exceeding the second representative signal value s2, the opacity corresponding to the second representative signal value s2 is performed. Create an opacity curve OC by performing interpolation that gives α2.

なお、この第2の実施例の場合、オパシティカーブOCのグラフの形態は、指定点Q1,Q2についての不透明度の大小関係によって異なってくる。具体的には、図9(a) に示すように、α1<α2の場合、第1の代表信号値s1未満の区間を信号値区間Iとし、s1以上の区間を信号値区間IIとすれば、信号値区間Iは平地部分に相当するグラフになり、信号値区間IIは傾斜部分および高地部分に相当するグラフになる。この場合、信号値区間IIに属する画素が観察対象となるので、信号値区間Iについては、背景に適した色値(R1,G1,B1)を指定し、信号値区間IIについては、観察対象に適した色値(R2,G2,B2)を指定すればよい。 In the case of the second embodiment, the form of the graph of the opacity curve OC differs depending on the magnitude relation of the opacities of the specified points Q1 and Q2. Specifically, as shown in FIG. 9(a), when α1<α2, the section below the first representative signal value s1 is defined as the signal value section I, and the section above the first representative signal value s1 is defined as the signal value section II. , the signal value interval I becomes a graph corresponding to the flat land portion, and the signal value interval II becomes a graph corresponding to the slope portion and the highland portion. In this case, pixels belonging to the signal value interval II are to be observed. Therefore, for the signal value interval I, color values (R1, G1, B1) suitable for the background are specified, and for the signal value interval II, the observation target is A color value (R2, G2, B2) suitable for .

一方、α1>α2の場合、第2の代表信号値s2以下の区間を信号値区間Iとし、s2を超える区間を信号値区間IIとすれば、信号値区間Iは高地部分および傾斜部分に相当するグラフになり、信号値区間IIは平地部分に相当するグラフになる。この場合、信号値区間Iに属する画素が観察対象となるので、信号値区間Iについては、観察対象に適した色値(R1,G1,B1)を指定し、信号値区間IIについては、背景に適した色値(R2,G2,B2)を指定すればよい。 On the other hand, if α1>α2, the signal value interval I is the interval below the second representative signal value s2, and the signal value interval II is the interval exceeding the second representative signal value s2. , and the signal value section II becomes a graph corresponding to the flat part. In this case, pixels belonging to the signal value interval I are to be observed. Therefore, for the signal value interval I, color values (R1, G1, B1) suitable for the observation object are specified, and for the signal value interval II, the background A color value (R2, G2, B2) suitable for .

こうして入力された各信号値区間I,IIの色値を示す情報が、カラーパレットCPということになり、オパシティカーブOCとカラーパレットCPとにより、カラーマップCが構成される。 The information indicating the color values of the respective signal value intervals I and II input in this manner is the color palette CP, and the color map C is configured by the opacity curve OC and the color palette CP.

カラーマップ格納部161に格納されているカラーマップCが、予め作成された標準的なカラーマップであるのに対して、カラーマップ作成部162によって作成されたカラーマップCは、オペレータの指示に基づいて作成されたオーダーメイドのカラーマップになる。しかも、上述した第1の実施例や第2の実施例を採用すれば、オペレータによる単純な入力操作により、非常に自由度の高いカラーマップを簡単に作成することができる。 While the color map C stored in the color map storage unit 161 is a standard color map created in advance, the color map C created by the color map creation unit 162 is based on the operator's instructions. It becomes a custom-made color map created by Moreover, by adopting the above-described first and second embodiments, it is possible to easily create a color map with a very high degree of freedom through a simple input operation by the operator.

このように、カラーマップ作成部162によって新たに作成されたカラーマップCの自由度は非常に高いものになるが、特定の患者個人の断層画像群10に含まれる情報を反映して作成したものではないので、やはり当該特定の患者の観察対象をディスプレイ装置60上に表示するための最適なカラーマップにはなっていない。カラーマップの最適化装置101は、このように新たに作成されたカラーマップCを最適化して、補正カラーマップCCとして出力する役割も果たす。 In this way, the color map C newly created by the color map creating unit 162 has a very high degree of freedom, but it is created by reflecting the information contained in the tomographic image group 10 of a specific individual patient. Therefore, it is not the optimal color map for displaying the observation target of the particular patient on the display device 60 either. The color map optimization device 101 also plays a role of optimizing the newly created color map C and outputting it as a corrected color map CC.

<2.3 信号値ヒストグラム作成部120>
図6に示す信号値ヒストグラム作成部120は、断層画像入力部110から与えられた複数の断層画像を構成する個々の画素S(x,y,z)の信号値Sについて、個々の信号値の出現頻度hを示す信号値ヒストグラムHを作成する処理を行う。断層画像入力部110から与えられる断層画像群10は、図2に例示したように、XY平面に平行な多数の断層画像11,... ,16,17,18によって構成され、各断層画像に配置された個々の画素S(x,y,z)には、所定の信号値Sが付与されている。上述した例の場合、信号値Sは16ビットのデータによって表現され、最小値Smin (-32768)から最大値Smax (+32767)の範囲内の値をとる。
<2.3 Signal Value Histogram Creation Unit 120>
The signal value histogram creating unit 120 shown in FIG. A process of creating a signal value histogram H indicating the appearance frequency h is performed. , 16, 17, 18 parallel to the XY plane. A predetermined signal value S is assigned to each arranged pixel S(x, y, z). In the above example, the signal value S is represented by 16-bit data and takes values within the range from the minimum value Smin (-32768) to the maximum value Smax (+32767).

信号値ヒストグラム作成部120は、これら個々の信号値Sについて、それぞれ断層画像群10内の出現頻度hを求め、図4(a) に示すような信号値ヒストグラムHを作成する処理を行う。別言すれば、信号値ヒストグラム作成部120が行う処理は、図2に示す断層画像群10を構成する多数の画素の中から、特定の信号値をもった画素の数をカウントする処理ということができる。したがって、図4(a) に示す信号値ヒストグラムHのグラフの縦軸に示す出現頻度hは、特定の信号値Sをもつ画素の総数ということになる。 The signal value histogram creating unit 120 obtains the frequency h of appearance in the tomographic image group 10 for each of these signal values S, and performs processing to create a signal value histogram H as shown in FIG. 4(a). In other words, the process performed by the signal value histogram generator 120 is a process of counting the number of pixels having a specific signal value out of the large number of pixels forming the tomographic image group 10 shown in FIG. can be done. Therefore, the appearance frequency h shown on the vertical axis of the graph of the signal value histogram H shown in FIG.

<2.4 視界ヒストグラム作成部130>
視界ヒストグラム作成部130は、図6に示すように、信号値ヒストグラム作成部120によって作成された信号値ヒストグラムHと、カラーマップ入力部150によって入力されたカラーマップC内のオパシティカーブOCとに基づいて、両者の積「H×OC」を演算する処理を行う。この積「H×OC」は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行ったヒストグラムに相当するものである。§1.2でも述べたとおり、本願では、この積「H×OC」を「視界ヒストグラムVH(符号VHは、Visibility Histogramの略)」と呼ぶ。
<2.4 Visibility Histogram Creation Unit 130>
The field of view histogram creation unit 130, as shown in FIG. Then, a process of calculating the product "H×OC" of both is performed. This product "H×OC" corresponds to a histogram obtained by weighting the signal value histogram H with the opacity curve OC. As described in §1.2, in the present application, this product "H×OC" is called "visibility histogram VH (symbol VH stands for Visibility Histogram)".

図4に示すとおり、信号値ヒストグラムHもオパシティカーブOCも、横軸は、最小値Smin ~最大値Smax の範囲の信号値Sである。そこで、視界ヒストグラム作成部130は、各信号値Sについて、それぞれ出現頻度hと不透明度αとの積h×αを求める演算を行うことにより、たとえば、図5(a) に一点鎖線で示すような視界ヒストグラムVHを作成する処理を行う。前述したとおり、この視界ヒストグラムVHは、ボリュームレンダリング像を観察したときに、各信号値Sをもつ画素が、観察者の視界内の画像として貢献する度合いを示す指標になる。 As shown in FIG. 4, in both the signal value histogram H and the opacity curve OC, the horizontal axis is the signal value S in the range from the minimum value Smin to the maximum value Smax. Therefore, for each signal value S, the field of view histogram creating unit 130 calculates the product h×α of the appearance frequency h and the opacity α, for example, as indicated by the dashed line in FIG. 5(a). A process for creating a field of view histogram VH is performed. As described above, the field-of-view histogram VH serves as an index indicating the extent to which pixels having the respective signal values S contribute to the image within the field of view of the observer when observing the volume rendering image.

<2.5 オパシティカーブ補正部140>
上述したとおり、信号値ヒストグラムHが、断層画像撮影装置50による撮影結果をそのまま示すヒストグラムであるのに対して、視界ヒストグラムVHは、特定の観察対象の表示に適したオパシティカーブOCによる重みづけを行ったヒストグラムになる。本発明に係るカラーマップの最適化装置101の特徴は、このような視界ヒストグラムVHに基づいて、カラーマップCに含まれるオパシティカーブOCを補正して、実際に撮影によって得られた特定の断層画像群10に用いるのに最適な補正カラーマップを作成する点にある。
<2.5 Opacity curve correction unit 140>
As described above, the signal value histogram H is a histogram directly representing the imaging result of the tomographic imaging apparatus 50, whereas the field of view histogram VH is weighted by the opacity curve OC suitable for displaying a specific observation target. It becomes the histogram that went. A feature of the color map optimization apparatus 101 according to the present invention is that the opacity curve OC included in the color map C is corrected based on such a field histogram VH, and a specific tomographic image actually obtained by imaging is obtained. The point is to create an optimum correction color map for use with the group 10. FIG.

図6に示すように、オパシティカーブ補正部140には、カラーマップ入力部150から補正対象となるカラーマップC(オパシティカーブOCとカラーパレットCP)が与えられ、視界ヒストグラム作成部130から視界ヒストグラムVHが与えられる。そして、オパシティカーブ補正部140は、与えられたカラーマップCに含まれているオパシティカーブOCを補正して補正オパシティカーブOCC(末尾のCは、corrected の意)を作成し、オパシティカーブOCの代わりに補正オパシティカーブOCCを含む補正カラーマップCC(末尾のCは、corrected の意)を出力する。しかも、オパシティカーブ補正部140は、少なくとも、オパシティカーブOCに対して視界ヒストグラムVHを利用した補正を行う。 As shown in FIG. 6 , the opacity curve correction unit 140 is supplied with a color map C (opacity curve OC and color palette CP) to be corrected from the color map input unit 150 , and the visibility histogram VH from the visibility histogram creation unit 130 . is given. Then, the opacity curve correction unit 140 corrects the opacity curve OC included in the given color map C to create a corrected opacity curve OCC (C at the end means corrected), and replaces the opacity curve OC with output a corrected color map CC (C at the end means corrected) including the corrected opacity curve OCC. Moreover, the opacity curve correction unit 140 performs correction using at least the field of view histogram VH on the opacity curve OC.

図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、オパシティカーブ補正部140は、視界ヒストグラム考慮補正部141と累乗補正部142とを有している。ここで、視界ヒストグラム考慮補正部141は、オパシティカーブOCに対して視界ヒストグラムVHを利用した補正を行う構成要素であり、累乗補正部142は、視界ヒストグラム考慮補正部141によって補正されたオパシティカーブに対して更に累乗補正を行う構成要素である。この視界ヒストグラム考慮補正部141によって行われる補正については、§3.1「視界ヒストグラム考慮補正部141」において詳述し、累乗補正部142によって行われる補正については、§3.2「累乗補正部142」において詳述する。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. Here, the field of view histogram consideration correction unit 141 is a component that performs correction using the field of view histogram VH on the opacity curve OC, and the exponentiation correction unit 142 corrects the opacity curve corrected by the field of view histogram consideration correction unit 141. It is a component that further performs exponentiation correction. The correction performed by the field histogram-considered correction unit 141 will be described in detail in §3.1 “Field-of-view histogram-considered correction unit 141”, and the correction performed by the power correction unit 142 will be described in §3.2 “Power correction unit 142”.

結局、この図6に示す基本的実施形態の場合、オパシティカーブ補正部140から最終的に出力される補正カラーマップCCに含まれる補正オパシティカーブOCCは、補正対象となるカラーマップCに含まれていたオパシティカーブOCに、視界ヒストグラム考慮補正部141による補正を加え、更に、累乗補正部142による補正を加えたものになる。もっとも、本発明に係るカラーマップの最適化装置では、視界ヒストグラム考慮補正部141による補正は必須であるが、累乗補正部142による補正は任意である。したがって、オパシティカーブ補正部140は、少なくとも、視界ヒストグラム考慮補正部141を有していれば足り、累乗補正部142を省略しても、本発明の効果は得られる。 6, the corrected opacity curve OCC included in the corrected color map CC finally output from the opacity curve correction unit 140 is included in the color map C to be corrected. The resulting opacity curve OC is corrected by the field-of-view histogram consideration correction unit 141 and further corrected by the exponentiation correction unit 142 . Of course, in the color map optimization apparatus according to the present invention, the correction by the view histogram consideration correction unit 141 is essential, but the correction by the exponentiation correction unit 142 is optional. Therefore, the opacity curve correction unit 140 needs to have at least the field histogram consideration correction unit 141, and the effects of the present invention can be obtained even if the exponentiation correction unit 142 is omitted.

なお、ここに示す実施形態の場合、オパシティカーブ補正部140は、補正対象となるカラーマップCに含まれていたオパシティカーブOCを補正オパシティカーブOCCに補正する処理を行うが、カラーパレットCPについては補正を行わない。したがって、オパシティカーブ補正部140から出力される補正カラーマップCCに含まれるカラーパレットCPは、カラーマップ入力部150から与えられたカラーパレットCPと同一のものになる。 In the case of the embodiment shown here, the opacity curve correction unit 140 performs a process of correcting the opacity curve OC included in the color map C to be corrected to the corrected opacity curve OCC. No correction. Therefore, the color palette CP included in the corrected color map CC output from the opacity curve correction section 140 is the same as the color palette CP provided from the color map input section 150. FIG.

<2.6 ボクセル画像作成部170およびレンダリング処理部180>
最後に、図6に示すボクセル画像作成部170およびレンダリング処理部180について説明する。
<2.6 Voxel Image Creation Unit 170 and Rendering Processing Unit 180>
Finally, the voxel image creating unit 170 and rendering processing unit 180 shown in FIG. 6 will be described.

ボクセル画像作成部170は、断層画像入力部110が入力した複数の断層画像の各画素S(x,y,z)に付与された信号値Sを、オパシティカーブ補正部140から出力される補正カラーマップCCを用いて、所定の色値および不透明度を示すボクセル値(R,G,B,α)に変換し、断層画像の各画素位置に定義された各ボクセルV(x,y,z)に当該ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像20を作成する処理を行う。このボクセル画像作成部170が実行する具体的な処理については、§4.1「ボクセル画像作成部170」において詳述する。 The voxel image generating unit 170 converts the signal values S assigned to the respective pixels S (x, y, z) of the plurality of tomographic images input by the tomographic image input unit 110 into the correction colors output from the opacity curve correcting unit 140 . Each voxel V(x, y, z) defined at each pixel position of the tomographic image is transformed into voxel values (R, G, B, α) indicating a predetermined color value and opacity using the map CC. , the voxel image 20 composed of a collection of voxels arranged in a three-dimensional space is created. Specific processing executed by the voxel image creating unit 170 will be described in detail in §4.1 “Voxel image creating unit 170”.

一方、レンダリング処理部180は、ボクセル画像作成部170によって作成されたボクセル画像20を所定の視線方向から観察した状態を二次元画像として示すボリュームレンダリング像30を生成する処理を行う。ボクセル画像20を構成する個々のボクセルには、補正カラーマップCCに基づいて色値(R,G,B)と不透明度αとが付与されているので、これら色値と不透明度に基づいてレンダリング処理が行われる。このレンダリング処理によって生成されるボリュームレンダリング像30は、所定の観察対象の観察に適し、かつ、当該観察対象を所定の色で表現した二次元画像になる。このレンダリング処理部180が実行する具体的な処理については、§4.2「レンダリング処理部180」において詳述する。 On the other hand, the rendering processing unit 180 performs a process of generating a volume rendering image 30 showing a state in which the voxel image 20 created by the voxel image creating unit 170 is observed from a predetermined viewing direction as a two-dimensional image. Color values (R, G, B) and opacity α are assigned to the individual voxels that make up the voxel image 20 based on the corrected color map CC, so rendering is performed based on these color values and opacity. processing takes place. The volume rendering image 30 generated by this rendering process is a two-dimensional image suitable for observation of a predetermined observation target and expressing the observation target in a predetermined color. Specific processing executed by the rendering processing unit 180 will be described in detail in §4.2 “Rendering processing unit 180”.

<<< §3. カラーマップの最適化 >>>
この§3では、図6に示すカラーマップの最適化装置101に含まれているオパシティカーブ補正部140によるカラーマップの最適化のための具体的な補正処理の内容を説明する。図示のとおり、オパシティカーブ補正部140には、視界ヒストグラム考慮補正部141と累乗補正部142とが含まれている。以下、これらについての説明を順に行う。
<<< §3. Optimize Color Map >>>
In this §3, specific correction processing for color map optimization by the opacity curve correction unit 140 included in the color map optimization device 101 shown in FIG. 6 will be described. As illustrated, the opacity curve correction unit 140 includes a view histogram consideration correction unit 141 and a power correction unit 142 . These will be described in order below.

<3.1 視界ヒストグラム考慮補正部141>
視界ヒストグラム考慮補正部141は、既に述べたとおり、与えられたカラーマップCに含まれているオパシティカーブOCを補正して補正オパシティカーブOCCを作成し、オパシティカーブOCの代わりに補正オパシティカーブOCCを含む補正カラーマップCCを出力する機能を果たす。ここで重要な点は、オパシティカーブOCに対する補正が、視界ヒストグラムVHを利用して行われる点である。
<3.1 Visibility Histogram Consideration Correction Unit 141>
As described above, the field of view histogram consideration correction unit 141 corrects the opacity curve OC included in the given color map C to create the corrected opacity curve OCC, and replaces the opacity curve OC with the corrected opacity curve OCC. function to output a corrected color map CC containing The important point here is that the correction for the opacity curve OC is performed using the field of view histogram VH.

このように、視界ヒストグラムVHを利用して補正を行う理由は、§1.2において、従来技術の問題点の要因1として説明したように、視界ヒストグラムVHのピーク位置とオパシティカーブOCのピーク位置とのズレを解消するためである。たとえば、図5(a) に示す例の場合、オパシティカーブOCのピーク位置Socと、視界ヒストグラムVHのピーク位置Svhとの間には、若干のズレが生じている。これは、オパシティカーブOCが、所定の観察対象を観察するのに適した不透明度αの分布を示す標準的なグラフであるのに対して、視界ヒストグラムVHには、特定の患者個人の断層画像群の信号値ヒストグラムHの情報が含まれているためである。 The reason why the field of view histogram VH is used for correction in this way is that the peak position of the field of view histogram VH and the peak position of the opacity curve OC are explained as factor 1 of the problem of the prior art in §1.2. This is to eliminate the discrepancy between For example, in the example shown in FIG. 5(a), there is a slight deviation between the peak position Soc of the opacity curve OC and the peak position Svh of the field of view histogram VH. While the opacity curve OC is a standard graph showing the distribution of the opacity α suitable for observing a predetermined observation target, the field of view histogram VH shows the tomographic image of a specific individual patient. This is because the information of the signal value histogram H of the group is included.

そして、このようなピーク位置SocとSvhとのズレが、ボリュームレンダリング像30上における観察対象のボケを生じさせる要因のひとつになると推察されることは、既に§1.2で述べたとおりである。たとえば、図5(b) に示す例のように、ピーク位置SocとSvhとが一致するようになれば、観察対象のボケは改善される。視界ヒストグラム考慮補正部141は、このようなピーク位置のズレが解消されるように、オパシティカーブOCに対する補正を行うことになる。 As already described in § 1.2, it is presumed that the deviation between the peak positions Soc and Svh is one of the factors that cause blurring of the observation target on the volume rendering image 30. . For example, as in the example shown in FIG. 5(b), if the peak positions Soc and Svh match, the blurring of the observed object is improved. The field-of-view histogram-considered correction unit 141 corrects the opacity curve OC so as to eliminate such a shift in peak position.

別言すれば、視界ヒストグラム考慮補正部141によって行う補正処理の基本概念は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHの分布形状に比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムOCCの分布形状の方が、「予め定めた所定形状」に近くなるように、オパシティカーブOCに対する補正を行うことにある。ここで「予め定めた所定形状」とは、「ピーク位置SocとSvhとのズレがより小さくなる形状」ということになる。 In other words, the basic concept of the correction processing performed by the field-of-view histogram consideration correction unit 141 is that the signal value histogram VH obtained by weighting the signal value histogram H with the opacity curve OC is compared to the distribution shape of the field-of-view histogram VH. The opacity curve OC is corrected so that the distribution shape of the corrected field of view histogram OCC obtained by weighting the value histogram H with the corrected opacity curve OCC is closer to the "predetermined predetermined shape". That's what it is. Here, the "predetermined shape" means "a shape that minimizes the deviation between the peak positions Soc and Svh".

そもそも視界ヒストグラムVHは、信号値ヒストグラムHとオパシティカーブOCとの積として定義されるものであるから、視界ヒストグラムVHに対して直接的な補正を行うことはできないが、オパシティカーブOCに対して補正を行えば、当該補正は、間接的に視界ヒストグラムVHにも影響を及ぼすことになる。そこで、視界ヒストグラム考慮補正部141は、オパシティカーブOCに対して補正を行うことにより補正オパシティカーブOCCを作成し、信号値ヒストグラムHと補正オパシティカーブOCCとの積として定義される補正視界ヒストグラムVHC(末尾のCは、corrected の意)の形状が、「予め定めた所定形状」に近づくようにする。 Since the field of view histogram VH is originally defined as the product of the signal value histogram H and the opacity curve OC, the field of view histogram VH cannot be directly corrected. , the correction indirectly affects the field of view histogram VH. Therefore, the field of view histogram consideration correction unit 141 creates a corrected opacity curve OCC by correcting the opacity curve OC, and the corrected field of view histogram VHC ( The C at the end means "corrected") so that the shape approaches "a predetermined shape".

別言すれば、視界ヒストグラム考慮補正部141は、補正視界ヒストグラムVHCの形状を、「予め定めた所定形状」に近づけるような特定の方法で、オパシティカーブOCに対して補正を行い、補正オパシティカーブOCCを作成することになる。ここでは、この特定の方法として、フィッテイング法と平坦化法の2種類を具体例として挙げておく。 In other words, the field of view histogram consideration correction unit 141 corrects the opacity curve OC by a specific method that brings the shape of the corrected field of view histogram VHC closer to the "predetermined predetermined shape". An OCC will be created. Here, two types of specific methods, a fitting method and a flattening method, are given as specific examples.

<3.1.1 フィッテイング法>
図10は、図6に示す視界ヒストグラム考慮補正部141で実施されるフィッテイング法による補正処理の原理を示すグラフである。ここでは、信号値ヒストグラム作成部120によって、図10(a) に示すような信号値ヒストグラムHが作成され、カラーマップ入力部150によって、図10(b) に示すようなオパシティカーブOCを含むカラーマップCが入力され、視界ヒストグラム作成部130によって、H×OCなる積として、図10(c) に一点鎖線で示すような視界ヒストグラムVHが作成された場合を考えてみる。
<3.1.1 Fitting method>
FIG. 10 is a graph showing the principle of the correction process by the fitting method performed by the field-of-view-histogram-considered correction unit 141 shown in FIG. Here, the signal value histogram generator 120 generates a signal value histogram H as shown in FIG. Consider a case where the map C is input and the field of view histogram generator 130 generates the field of view histogram VH as the product of H×OC as indicated by the dashed line in FIG. 10(c).

図10(c) に示すとおり、オパシティカーブOCも視界ヒストグラムVHも、山状に隆起した形状のグラフになっているが、オパシティカーブOCのピーク位置Socと、視界ヒストグラムVHのピーク位置Svhとの間には、横軸上でズレが生じている。そこで、このズレを解消するために、図10(b) に示すオパシティカーブOCに対して何らかの補正処理を施し、図10(d) に示すような形状をもつ補正オパシティカーブOCCを作成したものとしよう。そして、図10(a) に示す信号値ヒストグラムHと図10(d) に示す補正オパシティカーブOCCとの積H×OCCを求め、この積H×OCCを補正視界ヒストグラムVHCと呼んだ場合に、図10(e) に一点鎖線で示すような補正視界ヒストグラムVHCが作成されたものとしよう。 As shown in FIG. 10(c), both the opacity curve OC and the field of view histogram VH are graphs in the form of raised mountains. There is a deviation on the horizontal axis between them. Therefore, in order to eliminate this deviation, some correction processing is performed on the opacity curve OC shown in FIG. 10(b) to create a corrected opacity curve OCC having a shape as shown in FIG. specification. Then, when the product H×OCC of the signal value histogram H shown in FIG. 10(a) and the corrected opacity curve OCC shown in FIG. Assume that a corrected field of view histogram VHC as indicated by the dashed line in FIG. 10(e) is created.

図10(e) に示すとおり、オパシティカーブOCも補正視界ヒストグラムVHCも、山状に隆起した形状のグラフになっており、しかもオパシティカーブOCのピーク位置Socと、補正視界ヒストグラムVHCのピーク位置Svhc とは一致しており、図10(c) に示すSocとSvhとの間のズレは解消されている。別言すれば、補正視界ヒストグラムVHCの山状の隆起形状は、オパシティカーブOCの山状の隆起形状にフィットしたものになっている。 As shown in FIG. 10(e), both the opacity curve OC and the corrected visual field histogram VHC are graphs in the form of raised mountains. , and the deviation between Soc and Svh shown in FIG. 10(c) is eliminated. In other words, the peak shape of the corrected field of view histogram VHC fits the peak shape of the opacity curve OC.

ここで述べるフィッティング法の基本原理は、このように、オパシティカーブOCの山状の隆起形状にフィットするような形状をもつ補正視界ヒストグラムVHCが得られるように(図10(e) のような補正視界ヒストグラムVHCが得られるように)、オパシティカーブOCに対する補正処理(図10(b) から図10(d) への補正処理)を行い、補正オパシティカーブOCCを得ることにある。結局、図10(a) ,(b) ,(c) と変遷する白抜矢印に示すように、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHのピーク位置SvhがオパシティカーブOCのピーク位置Socに対してズレを生じていたとしても、図10(a) ,(d) ,(e) と変遷する黒塗矢印に示すように、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCのピーク位置Svhc がオパシティカーブOCのピーク位置Socに一致するようにすればよい。 The basic principle of the fitting method described here is to obtain a corrected field of view histogram VHC having a shape that fits the mountain-like protuberant shape of the opacity curve OC (correction as shown in FIG. 10(e)). 10(b) to 10(d)) to obtain the corrected opacity curve OCC. 10(a), (b), and (c), the peak position Svh of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC is the peak position Svh of the opacity curve OC. 10(a), (d), and (e), the signal value histogram H is multiplied by the corrected opacity curve OCC, The peak position Svhc of the corrected field of view histogram VHC obtained by the above method should coincide with the peak position Soc of the opacity curve OC.

別言すれば、視界ヒストグラム考慮補正部141は、図10(e) に示すような補正視界ヒストグラムVHCが得られるように、図10(b) に示すオパシティカーブOCに対して所定の補正を施し、図10(d) に示す補正オパシティカーブOCCを作成する補正処理を行うことになる。この補正オパシティカーブOCCに基づいて作成された補正視界ヒストグラムVHCについては、図10(e) に示すように、ピーク位置Svhc がオパシティカーブOCのピーク位置Socに一致するため、両者のズレに起因して生じるボリュームレンダリング像30上における観察対象のボケを抑制することができる。 In other words, the field of view histogram consideration correction unit 141 performs a predetermined correction on the opacity curve OC shown in FIG. 10(b) so as to obtain the corrected field of view histogram VHC as shown in FIG. 10(e). , a correction process for creating a corrected opacity curve OCC shown in FIG. 10(d). As for the corrected visual field histogram VHC created based on this corrected opacity curve OCC, as shown in FIG. 10(e), the peak position Svhc matches the peak position Soc of the opacity curve OC. It is possible to suppress the blurring of the observation target on the volume rendering image 30 caused by the

なお、図10(c) に示す視界ヒストグラムVHは、図10(a) に示す信号値ヒストグラムHと図10(b) に示すオパシティカーブOCとの積H×OCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。同様に、図10(e) に示す補正視界ヒストグラムVHCは、図10(a) に示す信号値ヒストグラムHと図10(d) に示す補正オパシティカーブOCCとの積H×OCCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。後に示す図12,図14,図16についても同様である。 The field of view histogram VH shown in FIG. 10(c) does not accurately represent the product H×OC of the signal value histogram H shown in FIG. 10(a) and the opacity curve OC shown in FIG. 10(b). It is deformed for convenience of explanation. Similarly, the corrected field of view histogram VHC shown in FIG. 10(e) is the product H×OCC of the signal value histogram H shown in FIG. 10(a) and the corrected opacity curve OCC shown in FIG. 10(d). It is deformed for convenience of explanation, not for illustration. The same applies to FIGS. 12, 14 and 16 shown later.

このように、補正方法としてフィッテイング法を採用した視界ヒストグラム考慮補正部141は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHの分布形状(図10(c) の一点鎖線のグラフ)に比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムVHCの分布形状(図10(e) の一点鎖線のグラフ)の方が、予め定めた所定形状に近くなるように、オパシティカーブOCに対する補正を行うことになる。ここで「予め定めた所定形状」とは、前述したとおり「ピーク位置SocとSvhとのズレがより小さくなる形状」である。 In this way, the field-of-view histogram consideration correction unit 141 that employs the fitting method as a correction method obtains the distribution shape of the field-of-view histogram VH obtained by weighting the signal value histogram H using the opacity curve OC ( c), the distribution shape of the corrected field of view histogram VHC obtained by weighting the signal value histogram H with the corrected opacity curve OCC (the dashed-dotted line graph in FIG. 10(e)). ) corrects the opacity curve OC so as to be closer to a predetermined shape. Here, the "predetermined shape" is, as described above, "a shape that minimizes the deviation between the peak positions Soc and Svh".

より具体的に説明すれば、フィッテイング法を採用した視界ヒストグラム考慮補正部141は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHのピーク位置Svhに比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムVHCのピーク位置Svhc の方が、オパシティカーブOCのピーク位置Socに近くなるように、オパシティカーブOCに対する補正を行えばよい。 More specifically, the field-of-view histogram consideration correction unit 141 that employs the fitting method compares the peak position Svh of the field-of-view histogram VH obtained by weighting the signal value histogram H with the opacity curve OC. Then, the opacity curve OC is adjusted so that the peak position Svhc of the corrected field of view histogram VHC obtained by weighting the signal value histogram H with the corrected opacity curve OCC is closer to the peak position Soc of the opacity curve OC. should be corrected.

なお、図10に示す例は、視界ヒストグラム考慮補正部141が、補正視界ヒストグラムVHCのピーク位置Svhc が、オパシティカーブOCのピーク位置Socに一致するように、オパシティカーブOCに対する補正を行って補正オパシティカーブOCCを作成しているが、ピーク位置Svhc は、必ずしもピーク位置Socに一致させる必要はなく、ピーク位置Svhに比べてピーク位置Svhc の方が、よりオパシティカーブOCのピーク位置Socに近くなるような補正が行われていれば、本発明の作用効果は得られる。すなわち、両ピーク位置のズレ量をより小さくすることができれば、ボリュームレンダリング像30上における観察対象のボケを低減させることができる。 In the example shown in FIG. 10, the field histogram consideration correcting unit 141 corrects the opacity curve OC so that the peak position Svhc of the corrected field histogram VHC matches the peak position Soc of the opacity curve OC, and corrects the corrected opacity curve OC. Although the curve OCC is created, the peak position Svhc does not necessarily have to match the peak position Soc. The effect of the present invention can be obtained as long as the correct correction is performed. That is, if the amount of shift between the two peak positions can be made smaller, blurring of the observation target on the volume rendering image 30 can be reduced.

続いて、図10(b) に示すオパシティカーブOCを、図10(d) に示す補正オパシティカーブOCCに補正する具体的な処理方法の一例を説明する。図6に示すように、補正ヒストグラム考慮補正部141には、視界ヒストグラム作成部130において作成された視界ヒストグラムVHと、カラーマップ入力部150が入力したオパシティカーブOCと、が与えられる。そこで、補正ヒストグラム考慮補正部141は、図10(c) に示す視界ヒストグラムVHを利用して、図10(b) に示すオパシティカーブOCに対する補正を行い、図10(d) に示す補正オパシティカーブOCCを作成する処理を行うことになる。 Next, an example of a specific processing method for correcting the opacity curve OC shown in FIG. 10(b) to the corrected opacity curve OCC shown in FIG. 10(d) will be described. As shown in FIG. 6, the corrected histogram consideration correction unit 141 is provided with the field of view histogram VH created by the field of view histogram creation unit 130 and the opacity curve OC input by the color map input unit 150 . Therefore, the corrected histogram consideration correction unit 141 uses the field of view histogram VH shown in FIG. 10(c) to correct the opacity curve OC shown in FIG. Processing for creating OCC is performed.

この処理は、実際には、数式を用いた演算によって行うことができる。図11は、視界ヒストグラム考慮補正部141で実施されるフィッテイング法による補正処理に用いられる数式を説明する図である。この数式の演算には、オパシティカーブOCと視界ヒストグラムVHとが必要になる。そこで、図11(a) には、具体的なオパシティカーブOCのグラフと視界ヒストグラムVHのグラフを示す。このグラフに示すオパシティカーブOCおよび視界ヒストグラムVHは、それぞれ図10(c) に示すオパシティカーブOCおよび視界ヒストグラムVHに対応するものであるが、ここでは説明の便宜上、いずれも単純な二等辺三角形の形状をもつグラフに置き換えられている。 This processing can actually be performed by computation using mathematical formulas. 11A and 11B are diagrams for explaining mathematical formulas used in the correction process by the fitting method performed by the field-of-view-histogram-considered correction unit 141. FIG. Calculation of this formula requires the opacity curve OC and the field of view histogram VH. Therefore, FIG. 11(a) shows a specific graph of the opacity curve OC and the graph of the field of view histogram VH. The opacity curve OC and the field of view histogram VH shown in this graph respectively correspond to the opacity curve OC and the field of view histogram VH shown in FIG. It has been replaced by a graph with a shape.

すなわち、図11(a) に示すオパシティカーブOCは、ピーク位置Socに頂点をもつ二等辺三角形であり、視界ヒストグラムVHは、ピーク位置Svhに頂点をもつ二等辺三角形である。両者のピーク位置Soc,Svhは、横軸上においてズレを生じている。いま、図示のとおり、オパシティカーブOCのピーク値をOCmax とし、視界ヒストグラムVHのピーク値をVHmax とする。ここで、OCmax が、グラフの左側の縦軸に示す不透明度αを単位とする数値であるのに対して、VHmax は、グラフの右側の縦軸に示す積H×OCを単位とする数値であるため、両者の絶対値を比較することに意味はないが、横軸の信号値Sは共通したパラメータであるため、ピーク位置Soc,Svhを比較することは十分に意味のあることになる。 That is, the opacity curve OC shown in FIG. 11A is an isosceles triangle with its apex at the peak position Soc, and the field of view histogram VH is an isosceles triangle with its apex at the peak position Svh. Both peak positions Soc and Svh are shifted on the horizontal axis. Now, let OCmax be the peak value of the opacity curve OC, and VHmax be the peak value of the visual field histogram VH, as shown in the figure. Here, OCmax is a numerical value whose unit is the opacity α shown on the vertical axis on the left side of the graph, whereas VHmax is a numerical value whose unit is the product H×OC shown on the vertical axis on the right side of the graph. Therefore, it is meaningless to compare the absolute values of both, but since the signal value S on the horizontal axis is a common parameter, it is sufficiently meaningful to compare the peak positions Soc and Svh.

いま、任意の信号値SにおけるオパシティカーブOCの不透明度(αの値)をOC(S)、任意の信号値Sにおける視界ヒストグラムVHの値をVH(S)として、信号値Sにおける補正係数γ(S)を、図11(b) に示すように、
γ(S)=(VHmax /OCmax )・(OC(S)/VH(S)) 式(1)
なる式で定義すれば、任意の信号値Sにおける補正オパシティカーブOCCの不透明度(αの値)を示す値OCC(S)は、図11(b) に示すように、
OCC(S)=γ(S)・OC(S) 式(2)
なる式によって算出することができる。
Now, let OC(S) be the opacity (value of α) of the opacity curve OC at an arbitrary signal value S, and VH(S) be the value of the field of view histogram VH at an arbitrary signal value S, then the correction coefficient γ at the signal value S (S), as shown in FIG. 11(b),
γ(S)=(VHmax/OCmax)·(OC(S)/VH(S)) Equation (1)
If defined by the following formula, the value OCC(S) indicating the opacity (value of α) of the corrected opacity curve OCC at an arbitrary signal value S is as shown in FIG.
OCC(S)=γ(S)・OC(S) Formula (2)
It can be calculated by the following formula.

式(2)に示すとおり、補正係数γ(S)は、オパシティカーブOCを補正オパシティカーブOCCに変換するためのパラメータとしての役割を果たし、任意の信号値SにおけるオパシティカーブOCで示される不透明度OC(S)は、補正係数γ(S)を乗じることにより不透明度OCC(S)に補正される。補正オパシティカーブOCCは、このようにして補正された不透明度OCC(S)を示すグラフになる。 As shown in equation (2), the correction coefficient γ(S) serves as a parameter for converting the opacity curve OC into the corrected opacity curve OCC, and the opacity indicated by the opacity curve OC at any signal value S OC(S) is corrected to opacity OCC(S) by multiplying it by a correction factor γ(S). The corrected opacity curve OCC becomes a graph showing the opacity OCC(S) corrected in this way.

なお、式(1)は、VH(S)=0の場合は定義できないので、VH(S)=0となる信号値Sについては、補正係数γ(S)は定義されず、式(2)の演算は実行されない。すなわち、VH(S)=0となる信号値Sについての不透明度OC(S)は、補正されることなしにそのまま不透明度OCC(S)になる。 Note that since equation (1) cannot be defined when VH(S)=0, the correction coefficient γ(S) is not defined for the signal value S at which VH(S)=0, and equation (2) operation is not performed. That is, the opacity OC(S) for the signal value S at which VH(S)=0 becomes the opacity OCC(S) as it is without being corrected.

また、実用上は、補正係数γ(S)に所定の上限値を定め(たとえば、上限値=10)、式(1)により算出された補正係数γ(S)の値が上限値を超える場合は、補正係数γ(S)の値を上限値に置き換える処理を行うのが好ましい。また、補正オパシティカーブOCCで示される不透明度(αの値)は上限値が1であるから、式(2)により算出された値OCC(S)が1を超える場合は、OCC(S)の値を上限値1に置き換える処理を行う必要がある。 In practice, a predetermined upper limit value is set for the correction coefficient γ(S) (for example, the upper limit value is 10), and when the value of the correction coefficient γ(S) calculated by Equation (1) exceeds the upper limit value Preferably, the value of the correction coefficient γ(S) is replaced with the upper limit value. Further, since the upper limit of the opacity (α value) indicated by the corrected opacity curve OCC is 1, when the value OCC(S) calculated by the formula (2) exceeds 1, the value of OCC(S) It is necessary to perform processing to replace the value with the upper limit value of 1.

補正係数γ(S)を定義する式(1)の意味は、信号値S=Socの場合および信号値S=Svhの場合を考えてみれば容易に理解できる。 The meaning of equation (1) defining the correction coefficient γ(S) can be easily understood by considering the cases of signal value S=Soc and signal value S=Svh.

たとえば、信号値S=Socの場合の補正係数γ(Soc)の値は、図11(b) に示すように、
γ(Soc)=(VHmax /OCmax )・(OC(Soc)/VH(Soc)) 式(3)
で与えられる。ここで、図11(a) に示すとおり、OC(Soc)=OCmax であり、VH(Soc)=aであるから、式(3)に示すγ(Soc)は、
γ(Soc)=(VHmax /a)
になる。
For example, the value of the correction coefficient γ(Soc) when the signal value S=Soc is as shown in FIG.
γ(Soc)=(VHmax/OCmax)·(OC(Soc)/VH(Soc)) Equation (3)
is given by Here, as shown in FIG. 11(a), OC(Soc)=OCmax and VH(Soc)=a, so γ(Soc) shown in Equation (3) is
γ(Soc)=(VHmax/a)
become.

これは、位置Socにおいて、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHの値よりも、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCの値の方が、γ(Soc)倍(すなわち、(VHmax /a)倍)になる(大きくなる)ことを意味しており、補正視界ヒストグラムVHCの位置Socにおける値は、a・(VHmax /a)=VHmax になることを意味する。 At the position Soc, the value of the corrected field of view histogram VHC obtained by multiplying the signal value histogram H by the corrected opacity curve OCC is higher than the value of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC. is γ(Soc) times (that is, (VHmax/a) times). means to become

一方、信号値S=Svhの場合の補正係数γ(Svh)の値は、図11(b) に示すように、
γ(Svh)=(VHmax /OCmax )・(OC(Svh)/VH(Svh)) 式(4)
で与えられる。ここで、図11(a) に示すとおり、OC(Svh)=bであり、VH(Svh)=VHmax であるから、式(4)に示すγ(Svh)は、
γ(Svh)=(b/OCmax )
になる。
On the other hand, the value of the correction coefficient γ (Svh) when the signal value S=Svh is as shown in FIG.
γ(Svh)=(VHmax/OCmax)·(OC(Svh)/VH(Svh)) Equation (4)
is given by Here, since OC(Svh)=b and VH(Svh)=VHmax as shown in FIG. 11(a), γ(Svh) shown in Equation (4) is
γ(Svh)=(b/OCmax)
become.

これは、位置Svhにおいて、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHの値よりも、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCの値の方が、γ(Svh)倍(すなわち、(b/OCmax )倍)になる(小さくなる)ことを意味しており、補正視界ヒストグラムVHCの位置Svhにおける値は、VHmax ・(b/OCmax )になることを意味する。 At the position Svh, the value of the corrected field of view histogram VHC obtained by multiplying the signal value histogram H by the corrected opacity curve OCC is higher than the value of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC. is multiplied by γ(Svh) (that is, (b/OCmax) times), and the value at the position Svh of the corrected field of view histogram VHC is VHmax·(b/OCmax). means that

このように、補正視界ヒストグラムVHCは、位置Socにおいてピーク値VHmax をもち、位置Svhにおいて、VHmax ・(b/OCmax )なる値をもつことになる。以上、信号値S=Socの場合および信号値S=Svhの場合のみを考えたが、補正係数γ(S)は、信号値Sの変化に応じて連続的に変化する量であるので、結局、補正視界ヒストグラムVHCのグラフは、位置Socにおいてピーク値VHmax をもち、その値が連続的に変化する山状形状になることが理解できよう。すなわち、補正視界ヒストグラムVHCのピーク位置Svhc は、オパシティカーブOCのピーク位置Socに一致することになり、補正視界ヒストグラムVHCの形状は、オパシティカーブOCの形状にフィットしたものになる。 Thus, the corrected field of view histogram VHC has a peak value VHmax at the position Soc and a value of VHmax·(b/OCmax) at the position Svh. In the above, only the case of signal value S=Soc and the case of signal value S=Svh were considered. , the graph of the corrected field of view histogram VHC has a peak value VHmax at the position Soc and has a mountain-like shape in which the value changes continuously. That is, the peak position Svhc of the corrected field of view histogram VHC coincides with the peak position Soc of the opacity curve OC, and the shape of the corrected field of view histogram VHC fits the shape of the opacity curve OC.

なお、図11(a) に示す例では、説明の便宜上、視界ヒストグラムVHをピーク位置Svhに頂点をもつ単純な二等辺三角形で示した。もちろん、実際に得られる視界ヒストグラムVHは、このような単純な三角形になるわけではないが、一般的には、左右にゆくほど徐々に値を減じてゆく山状形状になることが多い。ただ、横軸(信号値Sの軸)の左端や右端には、山状形状の中央部分に現れるピークとは全く別個に、急峻なピークが現れるケースがある。このような左右両端付近に現れるピークは、断層画像撮影装置50から得られる断層画像群10の各画素がもつ信号値を処理する際に採用した固有のアルゴリズムに起因したノイズ成分と言うべきものである。 In the example shown in FIG. 11(a), for convenience of explanation, the field of view histogram VH is shown as a simple isosceles triangle having an apex at the peak position Svh. Of course, the field of view histogram VH that is actually obtained does not have such a simple triangular shape, but generally has a mountain-like shape in which the values gradually decrease toward the left and right. However, there are cases where sharp peaks appear at the left and right ends of the horizontal axis (the axis of the signal value S), completely separate from the peaks appearing in the central portion of the mountain shape. Such peaks appearing in the vicinity of both left and right ends can be said to be noise components caused by a unique algorithm adopted when processing the signal values of each pixel of the group of tomographic images 10 obtained from the tomographic imaging apparatus 50. be.

たとえば、後に§6「階調変換処理」で説明するように、16ビットの信号値を8ビットに圧縮する処理を実行すると、圧縮処理の下限値Lmin に相当する画素値の出現頻度hや、圧縮処理の上限値Lmax に相当する画素値の出現頻度hが、異常に高くなることがある。これは、16ビットで表されていた信号値のうち、圧縮処理の下限値Lmin 未満に相当する信号値が下限値Lmin に置き換えられ、圧縮処理の上限値Lmax を超える値に相当する信号値が上限値Lmax に置き換えられるためである。そのため、図4(a) に示すような信号値ヒストグラムHにおいて、最小値Smin や最大値Smax をもつ画素の出現頻度hが異常に高くなり、左右両端付近に予期せぬピークが現れるケースが生じることになる。 For example, as will be described later in Section 6 "Gradation conversion processing", when processing for compressing a 16-bit signal value to 8 bits is executed, the occurrence frequency h of pixel values corresponding to the lower limit value Lmin of compression processing, The appearance frequency h of the pixel value corresponding to the upper limit value Lmax of the compression process may become abnormally high. This is because, of the signal values represented by 16 bits, the signal values corresponding to less than the lower limit value Lmin of the compression processing are replaced with the lower limit value Lmin, and the signal values corresponding to the values exceeding the upper limit value Lmax of the compression processing are replaced with the lower limit value Lmin. This is because it is replaced with the upper limit value Lmax. Therefore, in the signal value histogram H as shown in FIG. 4(a), the appearance frequency h of pixels having the minimum value Smin and the maximum value Smax becomes abnormally high, and unexpected peaks appear near both left and right ends. It will be.

そこで、実用上は、図11(a) に示す視界ヒストグラムVHにおいて、最大値VHmax を呈するピーク位置Svhを探索する際には、信号値Sの全範囲を探索範囲とせずに、所定の信号値範囲内(たとえば、左右両端の近傍部分を除外した範囲内)を探索範囲とするのが好ましい。具体的には、視界ヒストグラム考慮補正部141は、視界ヒストグラムVHの所定の信号値範囲内の最大値VHmax を求めるために、当該視界ヒストグラムVHの0でない値をもつ最小の信号値に1を加えた値以上、当該視界ヒストグラムの0でない値をもつ最大の信号値から1を減じた値以下の範囲を当該所定の信号値範囲とする処理を行えばよい。そうすれば、信号値S軸上の左右両端付近に出現した予期せぬピーク位置を外した信号値範囲を、最大値VHmax の探索範囲とすることができる。 Therefore, in practice, when searching for the peak position Svh exhibiting the maximum value VHmax in the visual field histogram VH shown in FIG. It is preferable to set the search range within the range (for example, within the range excluding the neighboring portions on the left and right ends). Specifically, in order to obtain the maximum value VHmax within the predetermined signal value range of the field of view histogram VH, the field of view histogram consideration correction unit 141 adds 1 to the minimum signal value of the field of view histogram VH having a value other than 0. A range equal to or greater than the value obtained by subtracting 1 from the maximum signal value having a value other than 0 in the field of view histogram may be set as the predetermined signal value range. By doing so, the search range for the maximum value VHmax can be the signal value range excluding the unexpected peak positions appearing near the left and right ends on the signal value S axis.

結局、図11に示す具体的なフィッテイング法による補正処理は、視界ヒストグラムVHの所定の信号値範囲内の最大値をVHmax 、当該最大値VHmax を与える信号値をSvhとし、オパシティカーブOCの当該所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとし、信号値SvhにおけるオパシティカーブOCの不透明度をOC(Svh)としたときに(図11の場合、OC(Svh)=b)、信号値Socにおける補正視界ヒストグラムVHCの値がVHmax になり、信号値Svhにおける補正視界ヒストグラムVHCの値がVHmax ・OC(Svh)/OCmax (図11の場合、VHmax ・b/OCmax )になるように、オパシティカーブOCに対する補正を行い、補正オパシティカーブOCCを得る処理ということができる。 11, the maximum value within a predetermined signal value range of the field of view histogram VH is defined as VHmax, the signal value giving the maximum value VHmax is defined as Svh, and the opacity curve OC is defined as Let OCmax be the maximum value within a predetermined signal value range, Soc be the signal value giving the maximum value OCmax, and OC(Svh) be the opacity of the opacity curve OC at the signal value Svh (in the case of FIG. 11, OC (Svh)=b), the value of the corrected field of view histogram VHC at the signal value Soc is VHmax, and the value of the corrected field of view histogram VHC at the signal value Svh is VHmax·OC(Svh)/OCmax (in the case of FIG. 11, VHmax·b /OCmax) to obtain a corrected opacity curve OCC.

<3.1.2 平坦化法>
続いて、平坦化法による補正処理を説明する。図12は、図6に示す視界ヒストグラム考慮補正部141が平坦化法による補正処理を行う場合の原理を示すグラフである。ここでも、信号値ヒストグラム作成部120によって、図12(a) に示すような信号値ヒストグラムHが作成され、カラーマップ入力部150によって、図12(b) に示すようなオパシティカーブOCを含むカラーマップCが入力され、視界ヒストグラム作成部130によって、H×OCなる積として、図12(c) に一点鎖線で示すような視界ヒストグラムVHが作成された場合を考えてみる。図12(a) ~(c) は、図10(a) ~(c) と全く同じグラフであり、補正処理に用いる材料は、前述したフィッティング法の場合と全く同じになる。
<3.1.2 Planarization method>
Next, correction processing by the flattening method will be described. FIG. 12 is a graph showing the principle when the field-of-view-histogram-considered correction unit 141 shown in FIG. 6 performs correction processing using the flattening method. Again, the signal value histogram generator 120 generates a signal value histogram H as shown in FIG. Consider a case where the map C is input and the field of view histogram generator 130 generates the field of view histogram VH as the product of H×OC as indicated by the dashed line in FIG. 12(c). FIGS. 12(a)-(c) are exactly the same graphs as FIGS. 10(a)-(c), and the materials used in the correction process are exactly the same as in the fitting method described above.

図12(c) に示すとおり、オパシティカーブOCのピーク位置Socと、視界ヒストグラムVHのピーク位置Svhとの間には、横軸上でズレが生じている。前述したフィッティング法では、このズレを解消するために、視界ヒストグラムVHのピーク位置Svhを移動させてオパシティカーブOCのピーク位置Socに一致させる、という方法を採用していた。ここで述べる平坦化法では、視界ヒストグラムVHのピーク位置Svhを移動させるのではなく、視界ヒストグラムVHのピーク近傍の形状を平坦化することにより、結果的に、ピーク位置Soc,Svh間のズレを解消するという方法を採用する。 As shown in FIG. 12(c), there is a deviation on the horizontal axis between the peak position Soc of the opacity curve OC and the peak position Svh of the field of view histogram VH. In order to eliminate this deviation, the fitting method described above employs a method of moving the peak position Svh of the field of view histogram VH to match the peak position Soc of the opacity curve OC. In the flattening method described here, instead of moving the peak position Svh of the field of view histogram VH, by flattening the shape near the peak of the field of view histogram VH, as a result, the deviation between the peak positions Soc and Svh is reduced. Adopt a method of dissolution.

この平坦化法では、図12(b) に示すオパシティカーブOCに対する補正処理により、図12(d) に示すような補正オパシティカーブOCCを作成する。この補正オパシティカーブOCCは、次のような特徴をもったカーブになるようにする。すなわち、図12(a) に示す信号値ヒストグラムHと図12(d) に示す補正オパシティカーブOCCとの積H×HCCを求め、この積H×HCCを補正視界ヒストグラムVHCと呼んだ場合に、図12(e) に一点鎖線で示すように、ピーク近傍の形状が平坦化された補正視界ヒストグラムVHCが作成されるようにする。 In this flattening method, a corrected opacity curve OCC as shown in FIG. 12(d) is created by correcting the opacity curve OC shown in FIG. 12(b). This corrected opacity curve OCC is designed to have the following characteristics. That is, when the product H×HCC of the signal value histogram H shown in FIG. 12(a) and the corrected opacity curve OCC shown in FIG. As indicated by the one-dot chain line in FIG. 12(e), a corrected field of view histogram VHC in which the shape near the peak is flattened is created.

図12(e) に示すとおり、オパシティカーブOCが、ピーク位置Socを頂点とする三角形の山状隆起部を有するグラフであるのに対して、補正視界ヒストグラムVHCは、上部が平坦化された台形状隆起部を有するグラフになっている。しかも平坦部(台形の上辺)は、オパシティカーブOCのピーク位置Socから視界ヒストグラムVHのピーク位置Svhに至る信号値区間を包含する位置に配置されている。別言すれば、補正視界ヒストグラムVHCのグラフ上におけるピーク位置Socの対応点J1およびピーク位置Svhの対応点J2は、いずれも平坦部(台形の上辺)に属している。 As shown in FIG. 12(e), the opacity curve OC is a graph having a triangular ridge with the peak position Soc as the apex, whereas the corrected field of view histogram VHC is a graph with a flattened top. The graph has shape ridges. Moreover, the flat portion (the upper side of the trapezoid) is arranged at a position that includes the signal value section from the peak position Soc of the opacity curve OC to the peak position Svh of the field of view histogram VH. In other words, the point J1 corresponding to the peak position Soc and the point J2 corresponding to the peak position Svh on the graph of the corrected visual field histogram VHC both belong to the flat portion (the upper side of the trapezoid).

ここで述べる平坦化法の基本原理は、このように、上部が平坦化された補正視界ヒストグラムVHCが得られるように(図12(e) のような補正視界ヒストグラムVHCが得られるように)、オパシティカーブOCに対する補正処理(図12(b) から図12(d) への補正処理)を行い、補正オパシティカーブOCCを得ることにある。結局、図12(a) ,(b) ,(c) と変遷する白抜矢印に示すように、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHのピーク位置SvhがオパシティカーブOCのピーク位置Socに対してズレを生じていたとしても、図12(a) ,(d) ,(e) と変遷する黒塗矢印に示すように、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCの上部が平坦化され、少なくとも、ピーク位置Socの対応点J1からピーク位置Svhの対応点J2に至る区間が、平坦部に含まれるような補正が行われればよい。 The basic principle of the flattening method described here is to obtain a corrected field of view histogram VHC whose upper part is flattened (to obtain a corrected field of view histogram VHC as shown in FIG. 12(e)). To obtain a corrected opacity curve OCC by performing correction processing for the opacity curve OC (correction processing from FIG. 12(b) to FIG. 12(d)). 12(a), (b), and (c), the peak position Svh of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC is the peak position Svh of the opacity curve OC. 12(a), (d), and (e), the signal value histogram H is multiplied by the corrected opacity curve OCC, The upper portion of the corrected field of view histogram VHC obtained by the above is flattened so that at least the interval from the corresponding point J1 of the peak position Soc to the corresponding point J2 of the peak position Svh is included in the flat portion.

別言すれば、視界ヒストグラム考慮補正部141は、図12(e) に示すような補正視界ヒストグラムVHCが得られるように、図12(b) に示すオパシティカーブOCに対して所定の補正を施し、図12(d) に示す補正オパシティカーブOCCを作成する補正処理を行うことになる。このような補正処理を行えば、補正視界ヒストグラムVHCのピーク位置は、1点ではなく、少なくとも位置Socから位置Svhに至る区間に分布することになる。したがって、補正視界ヒストグラムVHCのピーク位置は、オパシティカーブOCのピーク位置Socに一致するとは言えないまでも、最大値の分布区間はピーク位置Socを含んでいることになり、ボリュームレンダリング像30上における観察対象のボケの要因となるズレを解消することができる。 In other words, the field of view histogram consideration correction unit 141 performs a predetermined correction on the opacity curve OC shown in FIG. 12(b) so as to obtain the corrected field of view histogram VHC as shown in FIG. 12(e). , a correction process for creating a corrected opacity curve OCC shown in FIG. 12(d). If such a correction process is performed, the peak position of the corrected field of view histogram VHC will be distributed over at least the section from the position Soc to the position Svh instead of one point. Therefore, although it cannot be said that the peak position of the corrected field of view histogram VHC coincides with the peak position Soc of the opacity curve OC, the maximum value distribution interval includes the peak position Soc. It is possible to eliminate the deviation that causes blurring of the observation target.

なお、前述したように、図12(c) に示す視界ヒストグラムVHは、図12(a) に示す信号値ヒストグラムHと図12(b) に示すオパシティカーブOCとの積H×OCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。同様に、図12(e) に示す補正視界ヒストグラムVHCは、図12(a) に示す信号値ヒストグラムHと図12(d) に示す補正オパシティカーブOCCとの積H×OCCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。 As described above, the field of view histogram VH shown in FIG. 12(c) is the product H×OC of the signal value histogram H shown in FIG. 12(a) and the opacity curve OC shown in FIG. 12(b). It is not exactly shown and is distorted for convenience of explanation. Similarly, the corrected field of view histogram VHC shown in FIG. 12(e) is the product H×OCC of the signal value histogram H shown in FIG. 12(a) and the corrected opacity curve OCC shown in FIG. 12(d). It is deformed for convenience of explanation, not for illustration.

このように、補正方法として平坦化法を採用した視界ヒストグラム考慮補正部141は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHの分布形状(図12(c) の一点鎖線のグラフ)に比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムVHCの分布形状(図12(e) の一点鎖線のグラフ)の方が、予め定めた所定形状に近くなるように、オパシティカーブOCに対する補正を行うことになる。ここで「予め定めた所定形状」とは、前述したとおり「ピーク位置SocとSvhとのズレがより小さくなる形状」である。 In this way, the field-of-view histogram consideration correction unit 141, which employs the flattening method as a correction method, obtains the distribution shape of the field-of-view histogram VH (see FIG. 12 ( c) The dashed line graph in Fig. 12(e) shows the distribution shape of the corrected field of view histogram VHC obtained by weighting the signal value histogram H with the corrected opacity curve OCC (the dashed line graph in Fig. 12(e) ) corrects the opacity curve OC so as to be closer to a predetermined shape. Here, the "predetermined shape" is, as described above, "a shape that minimizes the deviation between the peak positions Soc and Svh".

より具体的に説明すれば、平坦化法を採用した視界ヒストグラム考慮補正部141は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHのピーク近傍の形状に比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムVHCのピーク近傍の形状の方が、平坦化されるように、オパシティカーブOCに対する補正を行えばよい。 More specifically, the field-of-view histogram consideration correction unit 141 that employs the flattening method adjusts the shape near the peak of the field-of-view histogram VH obtained by weighting the signal value histogram H with the opacity curve OC. In comparison, the opacity curve OC is corrected so that the shape near the peak of the corrected field of view histogram VHC obtained by weighting the signal value histogram H with the corrected opacity curve OCC is flattened. You can do it.

図12に示す例の場合、視界ヒストグラム考慮補正部141は、オパシティカーブOCのピーク位置Socにおける補正視界ヒストグラムVHCの値(図12(e) に示す対応点J1の縦軸座標値)が、視界ヒストグラムVHのピーク位置Svhにおける補正視界ヒストグラムVHCの値(図12(e) に示す対応点J2の縦軸座標値)に一致するように、オパシティカーブOCに対する補正を行い、補正オパシティカーブOCCを作成している。 In the example shown in FIG. 12, the field of view histogram consideration correction unit 141 determines that the value of the corrected field of view histogram VHC at the peak position Soc of the opacity curve OC (the vertical axis coordinate value of the corresponding point J1 shown in FIG. The opacity curve OC is corrected so as to match the value of the corrected field of view histogram VHC at the peak position Svh of the histogram VH (the vertical coordinate value of the corresponding point J2 shown in FIG. 12(e)) to create the corrected opacity curve OCC. are doing.

続いて、図12(b) に示すオパシティカーブOCを、図12(d) に示す補正オパシティカーブOCCに補正する具体的な処理方法の一例を説明する。図6に示すように、補正ヒストグラム考慮補正部141には、視界ヒストグラム作成部130において作成された視界ヒストグラムVHと、カラーマップ入力部150が入力したオパシティカーブOCと、が与えられる。そこで、補正ヒストグラム考慮補正部141は、図12(c) に示す視界ヒストグラムVHを利用して、図12(b) に示すオパシティカーブOCに対する補正を行い、図12(d) に示す補正オパシティカーブOCCを作成する処理を行うことになる。 Next, an example of a specific processing method for correcting the opacity curve OC shown in FIG. 12(b) to the corrected opacity curve OCC shown in FIG. 12(d) will be described. As shown in FIG. 6, the corrected histogram consideration correction unit 141 is provided with the field of view histogram VH created by the field of view histogram creation unit 130 and the opacity curve OC input by the color map input unit 150 . Therefore, the corrected histogram consideration correction unit 141 uses the field of view histogram VH shown in FIG. 12(c) to correct the opacity curve OC shown in FIG. Processing for creating OCC is performed.

この処理は、実際には、数式を用いた演算によって行うことができる。図13は、視界ヒストグラム考慮補正部141で実施される平坦化法による補正処理に用いられる数式を説明する図である。この数式の演算には、オパシティカーブOCと視界ヒストグラムVHとが必要になる。そこで、図13(a) には、具体的なオパシティカーブOCのグラフと視界ヒストグラムVHのグラフを示す。このグラフに示すオパシティカーブOCおよび視界ヒストグラムVHは、それぞれ図12(c) に示すオパシティカーブOCおよび視界ヒストグラムVHに対応するものであるが、ここでも説明の便宜上、両者は単純な二等辺三角形の形状をもつグラフに置き換えられている。 This processing can actually be performed by computation using mathematical formulas. 13A and 13B are diagrams for explaining mathematical formulas used in the correction process by the flattening method performed by the field-of-view-histogram-considered correction unit 141. FIG. Calculation of this formula requires the opacity curve OC and the field of view histogram VH. Therefore, FIG. 13(a) shows a specific graph of the opacity curve OC and the graph of the field of view histogram VH. The opacity curve OC and the field of view histogram VH shown in this graph respectively correspond to the opacity curve OC and the field of view histogram VH shown in FIG. It has been replaced by a graph with a shape.

すなわち、図13(a) に示すオパシティカーブOCは、ピーク位置Socに頂点をもつ二等辺三角形であり、視界ヒストグラムVHは、ピーク位置Svhに頂点をもつ二等辺三角形である。両者のピーク位置Soc,Svhは、横軸上においてズレを生じている。ここでも、図示のとおり、オパシティカーブOCのピーク値をOCmax とし、視界ヒストグラムVHのピーク値をVHmax とする。 That is, the opacity curve OC shown in FIG. 13(a) is an isosceles triangle with its apex at the peak position Soc, and the field of view histogram VH is an isosceles triangle with its apex at the peak position Svh. Both peak positions Soc and Svh are shifted on the horizontal axis. Again, as shown in the figure, the peak value of the opacity curve OC is OCmax, and the peak value of the field of view histogram VH is VHmax.

いま、任意の信号値SにおけるオパシティカーブOCの不透明度(αの値)をOC(S)、任意の信号値Sにおける視界ヒストグラムVHの値をVH(S)として、信号値Sにおける補正係数γ(S)を、図13(b) に示すように、
γ(S)=VHmax /VH(S) 式(5)
なる式で定義すれば、任意の信号値Sにおける補正オパシティカーブOCCの不透明度(αの値)を示す値OCC(S)は、図13(b) に示すように、
OCC(S)=γ(S)・OC(S) 式(6)
なる式によって算出することができる。
Now, let OC(S) be the opacity (α value) of the opacity curve OC at an arbitrary signal value S, and VH(S) be the value of the field of view histogram VH at an arbitrary signal value S, then the correction coefficient γ at the signal value S (S), as shown in FIG. 13(b),
γ(S)=VHmax/VH(S) Equation (5)
If defined by the following formula, the value OCC(S) indicating the opacity (value of α) of the corrected opacity curve OCC at an arbitrary signal value S is, as shown in FIG.
OCC(S)=γ(S)・OC(S) Formula (6)
It can be calculated by the following formula.

式(6)に示すとおり、補正係数γ(S)は、オパシティカーブOCを補正オパシティカーブOCCに変換するためのパラメータとしての役割を果たし、任意の信号値SにおけるオパシティカーブOCで示される不透明度OC(S)は、補正係数γ(S)を乗じることにより不透明度OCC(S)に補正される。補正オパシティカーブOCCは、このようにして補正された不透明度OCC(S)を示すグラフになる。 As shown in equation (6), the correction coefficient γ(S) serves as a parameter for converting the opacity curve OC into the corrected opacity curve OCC, and the opacity indicated by the opacity curve OC at any signal value S OC(S) is corrected to opacity OCC(S) by multiplying it by a correction factor γ(S). The corrected opacity curve OCC becomes a graph showing the opacity OCC(S) corrected in this way.

なお、式(5)は、VH(S)=0の場合は定義できないので、VH(S)=0となる信号値Sについては、補正係数γ(S)は定義されず、式(6)の演算は実行されない。すなわち、VH(S)=0となる信号値Sについての不透明度OC(S)は、補正されることなしにそのまま不透明度OCC(S)になる。 Note that equation (5) cannot be defined when VH(S)=0. Therefore, for signal value S where VH(S)=0, correction coefficient γ(S) is not defined, and equation (6) operation is not performed. That is, the opacity OC(S) for the signal value S at which VH(S)=0 becomes the opacity OCC(S) as it is without being corrected.

また、実用上は、補正係数γ(S)に所定の上限値を定め(たとえば、上限値=10)、式(5)により算出された補正係数γ(S)の値が上限値を超える場合は、補正係数γ(S)の値を上限値に置き換える処理を行うのが好ましい。また、補正オパシティカーブOCCで示される不透明度(αの値)は上限値が1であるから、式(6)により算出された値OCC(S)が1を超える場合は、OCC(S)の値を上限値1に置き換える処理を行う必要がある。 In practice, a predetermined upper limit value is set for the correction coefficient γ(S) (for example, the upper limit value is 10), and when the value of the correction coefficient γ(S) calculated by Equation (5) exceeds the upper limit value Preferably, the value of the correction coefficient γ(S) is replaced with the upper limit value. Further, since the upper limit value of the opacity (value of α) indicated by the corrected opacity curve OCC is 1, when the value OCC(S) calculated by Equation (6) exceeds 1, the value of OCC(S) It is necessary to perform processing to replace the value with the upper limit value of 1.

補正係数γ(S)を定義する式(5)の意味は、信号値S=Socの場合および信号値S=Svhの場合を考えてみれば容易に理解できる。 The meaning of equation (5) defining the correction coefficient γ(S) can be easily understood by considering the cases of signal value S=Soc and signal value S=Svh.

たとえば、信号値S=Socの場合の補正係数γ(Soc)の値は、図13(b) に示すように、
γ(Soc)=(VHmax /VH(Soc)) 式(7)
で与えられる。ここで、図13(a) に示すとおり、VH(Soc)=aであるから、式(7)に示すγ(Soc)は、
γ(Soc)=(VHmax /a)
になる。
For example, the value of the correction coefficient γ(Soc) when the signal value S=Soc is as shown in FIG.
γ(Soc)=(VHmax/VH(Soc)) Equation (7)
is given by Here, as shown in FIG. 13(a), since VH(Soc)=a, γ(Soc) shown in Equation (7) is
γ(Soc)=(VHmax/a)
become.

これは、位置Socにおいて、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHの値よりも、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCの値の方が、γ(Soc)倍(すなわち、(VHmax /a)倍)になる(大きくなる)ことを意味しており、補正視界ヒストグラムVHの位置Socにおける値は、a・(VHmax /a)=VHmax になることを意味する。別言すれば、図13(a) に示す視界ヒストグラムVH上の対応点J0は、補正視界ヒストグラムVHC上では、対応点J1に補正される。 At the position Soc, the value of the corrected field of view histogram VHC obtained by multiplying the signal value histogram H by the corrected opacity curve OCC is higher than the value of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC. is γ(Soc) times (that is, (VHmax/a) times). means to become In other words, the corresponding point J0 on the field of view histogram VH shown in FIG. 13A is corrected to the corresponding point J1 on the corrected field of view histogram VHC.

一方、信号値S=Svhの場合の補正係数γ(Svh)の値は、図13(b) に示すように、
γ(Svh)=(VHmax /VH(Svh)) 式(8)
で与えられる。ここで、図13(a) に示すとおり、VH(Svh)=VHmax であるから、式(8)に示すγ(Svh)は、
γ(Svh)=(VHmax /VHmax )=1
になる。すなわち、位置Svhにおける補正係数γ(S)の値は1になり、この位置における補正オパシティカーブOCCの値は、補正前のオパシティカーブOCの値と変わりはないことになる。別言すれば、図13(a) に示す視界ヒストグラムVH上の対応点J2は、補正視界ヒストグラムVHC上でも同じ対応点J2になる。
On the other hand, the value of the correction coefficient γ (Svh) when the signal value S=Svh is as shown in FIG.
γ(Svh)=(VHmax/VH(Svh)) Equation (8)
is given by Here, as shown in FIG. 13(a), since VH(Svh)=VHmax, γ(Svh) shown in Equation (8) is
γ(Svh)=(VHmax/VHmax)=1
become. That is, the value of the correction coefficient γ(S) at the position Svh becomes 1, and the value of the corrected opacity curve OCC at this position is the same as the value of the opacity curve OC before correction. In other words, the corresponding point J2 on the field of view histogram VH shown in FIG. 13A is the same corresponding point J2 on the corrected field of view histogram VHC.

このように、補正視界ヒストグラムVHCは、位置Socにおいてピーク値VHmax をもち、位置Svhにおいてもピーク値VHmax をもつことになる。以上、信号値S=Socの場合および信号値S=Svhの場合のみを考えたが、補正係数γ(S)は、信号値Sの変化に応じて連続的に変化する量であるので、結局、VH(S)の値が0でない区間についての補正視界ヒストグラムVHCのグラフは、ピーク値VHmax をもつことになる。すなわち、少なくとも信号値SocからSvhに至る区間について、補正視界ヒストグラムVHCのグラフは、ピーク値VHmax を維持する。かくして、図12(e) に示すように、少なくとも対応点J1からJ2に至る区間を上辺とする台形状の隆起部をもつ形状の補正視界ヒストグラムVHCが得られることになる。 Thus, the corrected field of view histogram VHC has a peak value VHmax at the position Soc and also has a peak value VHmax at the position Svh. In the above, only the case of signal value S=Soc and the case of signal value S=Svh were considered. , VH(S) in which the value of VH(S) is not 0 has a peak value VHmax. That is, the graph of the corrected visual field histogram VHC maintains the peak value VHmax at least for the section from the signal value Soc to Svh. Thus, as shown in FIG. 12(e), a corrected field of view histogram VHC having a trapezoidal raised portion whose upper side is at least the interval from corresponding points J1 to J2 is obtained.

なお、この平坦化法においても、前述したように、視界ヒストグラムVHの左右両端付近に予期せぬピークが現れるケースがあるので、最大値VHmax を呈するピーク位置Svhを探索する際には、信号値Sの全範囲を探索範囲とせずに、所定の信号値範囲内(たとえば、左右両端の近傍部分を除外した範囲内)を探索範囲とするのが好ましい。 Even in this flattening method, as described above, there are cases where unexpected peaks appear near the left and right ends of the field histogram VH. Instead of using the entire range of S as the search range, it is preferable to set the search range within a predetermined signal value range (for example, within a range excluding the vicinity of both left and right ends).

具体的には、フィッテイング法でも述べたとおり、視界ヒストグラムVHの所定の信号値範囲内の最大値VHmax を求めるために、当該視界ヒストグラムVHの0でない値をもつ最小の信号値に1を加えた値以上、当該視界ヒストグラムの0でない値をもつ最大の信号値から1を減じた値以下の範囲を当該所定の信号値範囲とする処理を行えばよい。そうすれば、信号値S軸上の左右両端付近に出現した予期せぬピーク位置を外した信号値範囲を、最大値VHmax の探索範囲とすることができる。 Specifically, as described in the fitting method, in order to obtain the maximum value VHmax within the predetermined signal value range of the field of view histogram VH, 1 is added to the minimum non-zero signal value of the field of view histogram VH. A range equal to or greater than the value obtained by subtracting 1 from the maximum signal value having a value other than 0 in the field of view histogram may be set as the predetermined signal value range. By doing so, the search range for the maximum value VHmax can be the signal value range excluding the unexpected peak positions appearing near the left and right ends on the signal value S axis.

結局、図13に示す具体的な平坦化法による補正処理は、視界ヒストグラムVHの所定の信号値範囲内の最大値をVHmax 、当該最大値VHmax を与える信号値をSvhとし、オパシティカーブOCの当該所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとしたときに、信号値Socにおける補正視界ヒストグラムVHCの値および信号値Svhにおける補正視界ヒストグラムVHCの値がいずれもVHmax になるように、オパシティカーブOCに対する補正を行い、補正オパシティカーブOCCを得る処理ということができる。 13, the maximum value within a predetermined signal value range of the visual field histogram VH is VHmax, the signal value giving the maximum value VHmax is Svh, and the opacity curve OC Let OCmax be the maximum value within a predetermined signal value range, and Soc be the signal value that gives the maximum value OCmax. can be said to be a process of obtaining a corrected opacity curve OCC by correcting the opacity curve OC so that VHmax becomes VHmax.

<3.2 累乗補正部142>
図6に示すオパシティカーブ補正部140には、視界ヒストグラム考慮補正部141と累乗補正部142とが含まれている。ここで、視界ヒストグラム考慮補正部141は、§3.1で述べたとおり、視界ヒストグラムVHを利用してオパシティカーブOCに対する補正を行う構成要素であり、具体的な補正方法として、フィッティング法と平坦化法を説明した。
<3.2 Power correction unit 142>
The opacity curve correction unit 140 shown in FIG. 6 includes a view histogram consideration correction unit 141 and a power correction unit 142 . Here, as described in § 3.1, the field of view histogram consideration correction unit 141 is a component that uses the field of view histogram VH to correct the opacity curve OC. explained the method.

ここで説明する累乗補正部142は、オパシティカーブに対して補正を行うという点において、視界ヒストグラム考慮補正部141と同様の機能を果たす構成要素であるが、補正処理には、補正対象となるオパシティカーブがあれば足り、視界ヒストグラムVHは不要である。 The exponentiation correction unit 142 described here is a component that performs the same function as the field histogram consideration correction unit 141 in terms of correcting the opacity curve. A curve is sufficient, and the field of view histogram VH is unnecessary.

§1.2では、従来技術の問題点の要因1として、視界ヒストグラムVHのピーク位置とオパシティカーブOCのピーク位置との間にズレが生じていると、ボリュームレンダリング像30上における観察対象にボケが生じる点を説明した。視界ヒストグラム考慮補正部141による補正処理は、このボケを抑制するために、両ピーク位置のズレを解消する目的で行われるものである。一方、§1.2では、従来技術の問題点の要因2として、ヒトの感覚器の感度が対数特性をもつという「Weber-Fechnerの法則」に基づいてボケが生じることも述べた。以下に説明する累乗補正部142による補正処理は、この「Weber-Fechnerの法則」に基づくボケを解消する目的で行われるものである。 In § 1.2, as factor 1 of the problem of the conventional technology, if there is a deviation between the peak position of the field of view histogram VH and the peak position of the opacity curve OC, the object to be observed on the volume rendering image 30 will be blurred. explained what happens. The correction processing by the field-of-view histogram consideration correction unit 141 is performed for the purpose of eliminating the shift between the two peak positions in order to suppress this blurring. On the other hand, in Section 1.2, it was also described that blurring occurs based on the "Weber-Fechner law" that the sensitivity of human sensory organs has a logarithmic characteristic, as Factor 2 of the problem in the prior art. The correction processing by the exponentiation correction unit 142, which will be described below, is performed for the purpose of eliminating blur based on this "Weber-Fechner law".

図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、視界ヒストグラム考慮補正部141による補正の後に、累乗補正部142による累乗補正が重ねて行われる。したがって、実際には、カラーマップ入力部150が入力したカラーマップCに含まれているオパシティカーブOCは、まず、視界ヒストグラム考慮補正部141に与えられ、ここで視界ヒストグラムVHを利用した補正処理が施される。そして、視界ヒストグラム考慮補正部141による補正によって得られたオパシティカーブが、累乗補正部142に与えられ、ここで累乗補正が施される。オパシティカーブ補正部140は、この累乗補正後のオパシティカーブにカラーマップCPを付加したものを、補正カラーマップCとして出力することになる。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. 6 , the power correction by the power correction unit 142 is superimposed after the correction by the field histogram consideration correction unit 141 . Therefore, actually, the opacity curve OC included in the color map C input by the color map input unit 150 is first given to the field of view histogram consideration correcting unit 141, where correction processing using the field of view histogram VH is performed. applied. Then, the opacity curve obtained by the correction by the view histogram consideration correction unit 141 is given to the power correction unit 142, where the power correction is performed. The opacity curve correction unit 140 outputs a corrected color map C obtained by adding the color map CP to the power-corrected opacity curve.

もっとも、累乗補正部142による累乗補正は、必ずしも視界ヒストグラム考慮補正部141による補正後のオパシティカーブを対象として行う必要はなく、任意のオパシティカーブ(たとえば、カラーマップ入力部150が入力したカラーマップCに含まれているオパシティカーブOC)に対して行うことも可能である。そこで、以下、累乗補正部142が、補正の対象となる任意のオパシティカーブに対して累乗補正を行う場合を例にとって説明を行うことにする。 However, the power correction by the power correction unit 142 does not necessarily have to be performed on the opacity curve corrected by the field histogram consideration correction unit 141, and any opacity curve (for example, the color map C input by the color map input unit 150 It is also possible to do this for the opacity curve OC contained in the . Therefore, a case where the power correction unit 142 performs power correction on an arbitrary opacity curve to be corrected will be described below as an example.

累乗補正部142による補正処理も、これまで述べてきた視界ヒストグラム考慮補正部141による補正処理と同様に、その概念は、信号値ヒストグラムHに対してオパシティカーブOCによる重みづけを行うことにより得られる視界ヒストグラムVHの分布形状に比べて、信号値ヒストグラムHに対して補正オパシティカーブOCCによる重みづけを行うことにより得られる補正視界ヒストグラムVHCの分布形状の方が、予め定めた所定形状に近くなるように、オパシティカーブOCに対する補正を行うことにある。ここで「予め定めた所定形状」とは、後述するとおり「Weber-Fechnerの法則に基づき、ヒトの感覚器の感度がもつ対数特性に合致した形状」である。ここでは、具体的な累乗補正の方法として、一律累乗補正の実施例とS字累乗補正の実施例とを順に説明する。 The concept of the correction processing by the exponentiation correction unit 142 is obtained by weighting the signal value histogram H by the opacity curve OC, similarly to the correction processing by the field histogram consideration correction unit 141 described above. Compared to the distribution shape of the field of view histogram VH, the distribution shape of the corrected field of view histogram VHC obtained by weighting the signal value histogram H with the corrected opacity curve OCC is closer to a predetermined shape. Second, it is to correct the opacity curve OC. Here, the "predetermined shape" is "a shape that matches the logarithmic characteristics of the sensitivity of human sensory organs based on the Weber-Fechner law" as will be described later. Here, as specific power correction methods, an embodiment of uniform power correction and an embodiment of S-shaped power correction will be described in order.

<3.2.1 一律累乗補正>
図14は、図6に示す累乗補正部142が一律累乗補正を行う場合の原理を示すグラフである。ここでも、図14(a) に示すような信号値ヒストグラムHと図14(b) に示すようなオパシティカーブOCとの積H×OCとして、図14(c) に一点鎖線で示すような視界ヒストグラムVHが得られる場合を考えてみる。累乗補正では、視界ヒストグラムVHは補正処理の材料としては用いられないので、累乗補正を行う際に視界ヒストグラムVHを作成する必要はないが、ここでは対数特性の付加によるヒストグラムの形状変化を示す参考のために、視界ヒストグラムVHも併せて示すことにする。
<3.2.1 Uniform exponentiation correction>
FIG. 14 is a graph showing the principle when the power correction unit 142 shown in FIG. 6 performs uniform power correction. 14(a) and the opacity curve OC shown in FIG. 14(b). Consider the case where the histogram VH is obtained. In power correction, the field of view histogram VH is not used as a material for correction processing, so it is not necessary to create a field of view histogram VH when performing power correction. Therefore, the field of view histogram VH is also shown.

図14(c) に示すとおり、オパシティカーブOCのピーク位置Socと、視界ヒストグラムVHのピーク位置Svhとの間には、横軸上でズレが生じている。前述したとおり、視界ヒストグラム考慮補正部141によって行われるフィッティング法や平坦化法では、このズレを解消する目的の補正が行われるが、累乗補正の目的は、このズレを解消することではなく、「Weber-Fechnerの法則」に基づくボケを解消できるように、視界ヒストグラムVHの形状を補正することにある。なお、図14(c) の例は、ズレが発生している状態を示しているが、図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、累乗補正部142による累乗補正を行う前に、視界ヒストグラム考慮補正部141による補正が行われるため、既にズレは解消していることになる。 As shown in FIG. 14(c), there is a deviation on the horizontal axis between the peak position Soc of the opacity curve OC and the peak position Svh of the field of view histogram VH. As described above, the fitting method and the flattening method performed by the view histogram consideration correction unit 141 perform correction for the purpose of eliminating this deviation, but the purpose of power correction is not to eliminate this deviation, but to " To correct the shape of the field of view histogram VH so as to eliminate blur based on the "Weber-Fechner law". Although the example of FIG. 14(c) shows a state in which a deviation occurs, in the case of the color map optimization device 101 according to the basic embodiment shown in FIG. Since the field-of-view histogram-considered correction unit 141 performs the correction before the correction, the deviation has already been eliminated.

ここで述べる一律累乗補正では、図14(b) に示すオパシティカーブOCに対して、対数特性を付加する補正を施すことにより、図14(d) に示すような補正オパシティカーブOCCが作成される。図14(b) と図14(d) とを比較すると、前者が角をもつ三角形状のグラフであるのに対して、後者は角の部分が丸みを帯びたグラフになっていることがわかる。そのため、図14(a) に示す信号値ヒストグラムHと図14(d) に示す補正オパシティカーブOCCとの積H×HCCに相当する補正視界ヒストグラムVHCは、図14(e) に一点鎖線で示すように、図14(c) に示す視界ヒストグラムVHの形状に対数特性を付加した形状をもつ。前述したように、累乗補正では、ピーク位置は変化しないので、図示の例の場合、補正視界ヒストグラムVHCのピーク位置は、視界ヒストグラムVHのピーク位置Svhと同じになる。 In the uniform exponentiation correction described here, a corrected opacity curve OCC as shown in FIG. 14(d) is created by applying a correction that adds a logarithmic characteristic to the opacity curve OC shown in FIG. 14(b). . Comparing FIG. 14(b) and FIG. 14(d), the former is a triangular graph with corners, while the latter is a graph with rounded corners. . Therefore, the corrected field of view histogram VHC corresponding to the product H×HCC of the signal value histogram H shown in FIG. 14(a) and the corrected opacity curve OCC shown in FIG. Thus, it has a shape obtained by adding logarithmic characteristics to the shape of the field of view histogram VH shown in FIG. 14(c). As described above, since the power correction does not change the peak position, in the illustrated example, the peak position of the corrected field of view histogram VHC is the same as the peak position Svh of the field of view histogram VH.

本願発明者が行った実験によると、図14(c) の視界ヒストグラムVHで示される不透明度分布をもつボリュームレンダリング像30に比べて、図14(e) の補正視界ヒストグラムVHCで示される不透明度分布をもつボリュームレンダリング像30の方が、観察対象のボケが解消されることがわかっている。これは、補正視界ヒストグラムVHCには、累乗補正による対数特性が加わっているため、§1.2で述べた「Weber-Fechnerの法則」に基づき、ヒトの感覚器の感度がもつ対数特性に合致した不透明度分布が得られるようになるためと考えられる。 According to experiments conducted by the inventors of the present application, the opacity shown by the corrected visual field histogram VHC in FIG. It is known that the volume rendering image 30 with distribution eliminates blurring of the observation target. This corresponds to the logarithmic characteristics of the sensitivity of human sensory organs based on the "Weber-Fechner's law" described in § 1.2 because the logarithmic characteristics due to power correction are added to the corrected field of view histogram VHC. It is thought that this is because a smooth opacity distribution can be obtained.

結局、図14(a) ,(b) ,(c) と変遷する白抜矢印に示すように、信号値ヒストグラムHにオパシティカーブOCを乗じて得られる視界ヒストグラムVHの形状に比べて、図12(a) ,(d) ,(e) と変遷する黒塗矢印に示すように、信号値ヒストグラムHに補正オパシティカーブOCCを乗じて得られる補正視界ヒストグラムVHCの形状の方が、「Weber-Fechnerの法則」に基づき、ヒトの感覚器の感度がもつ対数特性に、より合致した形状であると言うことができる。 14(a), (b), and (c), as indicated by white arrows that change from one to another, compared to the shape of the field of view histogram VH obtained by multiplying the signal value histogram H by the opacity curve OC, compared to the shape of FIG. As indicated by black arrows that change from (a), (d), and (e), the shape of the corrected field of view histogram VHC, which is obtained by multiplying the signal value histogram H by the corrected opacity curve OCC, is more like the "Weber-Fechner It can be said that the shape is more in line with the logarithmic characteristics of the sensitivity of human sensory organs based on the "law of .

図14(b) に示すような角をもつ三角形状のオパシティカーブOCは、カラーマップ作成部162において容易に作成することができる。たとえば、図8に示す例の場合、オペレータは、二次元座標系上において3つの指定点Q1,Q2,Q3の位置を指定するだけの単純な操作で、三角形状のオパシティカーブOCを定義することができる。しかしながら、このような直線を組み合わせた折れ線状のオパシティカーブOCは、「Weber-Fechnerの法則」に照らすと、ヒトの感覚器のもつ対数感度特性に合致したものにはならない。累乗補正は、このような折れ線状のオパシティカーブOCに対しても対数特性を付加することが可能であり、観察対象のボケを抑制するために効果的な補正になる。 A triangular opacity curve OC having corners as shown in FIG. For example, in the case of the example shown in FIG. 8, the operator can define the triangular opacity curve OC by simply specifying the positions of three specified points Q1, Q2, and Q3 on the two-dimensional coordinate system. can be done. However, in light of the "Weber-Fechner's law", such a polygonal opacity curve OC obtained by combining straight lines does not match the logarithmic sensitivity characteristic of human sensory organs. The exponentiation correction can add logarithmic characteristics to such a polygonal opacity curve OC, and is an effective correction for suppressing blurring of the observation target.

なお、ここでも、図14(c) に示す視界ヒストグラムVHは、図14(a) に示す信号値ヒストグラムHと図14(b) に示すオパシティカーブOCとの積H×OCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。同様に、図14(e) に示す補正視界ヒストグラムVHCは、図14(a) に示す信号値ヒストグラムHと図14(d) に示す補正オパシティカーブOCCとの積H×OCCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。 Also in this case, the field of view histogram VH shown in FIG. 14(c) is the product H×OC of the signal value histogram H shown in FIG. 14(a) and the opacity curve OC shown in FIG. 14(b). It is deformed for convenience of explanation, not for illustration. Similarly, the corrected field of view histogram VHC shown in FIG. 14(e) is the product H×OCC of the signal value histogram H shown in FIG. 14(a) and the corrected opacity curve OCC shown in FIG. 14(d). It is deformed for convenience of explanation, not for illustration.

続いて、図14(b) に示すオパシティカーブOCを、図14(d) に示す補正オパシティカーブOCCに補正する具体的な処理方法(一律累乗補正の具体的な方法)の一例を説明する。この処理は、実際には、数式を用いた演算によって行うことができる。図15は、累乗補正部142で実施される一律累乗補正による補正処理に用いられる数式を説明する図である。この数式に基づく演算を行うには、補正対象となるオパシティカーブのみを用意すれば足りる。図15(a) には、補正対象となる具体的なオパシティカーブのグラフを示す。ここでは便宜上、単純な二等辺三角形の形状をもつ補正対象オパシティカーブに対して一律累乗補正を行う例について説明を行う。 Next, an example of a specific processing method (specific method of uniform exponentiation correction) for correcting the opacity curve OC shown in FIG. 14(b) to the corrected opacity curve OCC shown in FIG. 14(d) will be described. This processing can actually be performed by computation using mathematical formulas. 15A and 15B are diagrams for explaining mathematical expressions used in correction processing by uniform power correction performed by the power correction unit 142. FIG. In order to perform calculation based on this formula, it is sufficient to prepare only the opacity curve to be corrected. FIG. 15(a) shows a graph of a specific opacity curve to be corrected. Here, for the sake of convenience, an example in which uniform exponentiation correction is performed on a correction target opacity curve having a simple isosceles triangle shape will be described.

なお、図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、前述したとおり、視界ヒストグラム考慮補正部141による補正の後に、累乗補正部142による累乗補正が重ねて行われる。この場合、図15に示す補正対象オパシティカーブは、実際には、視界ヒストグラム考慮補正部141による補正が施された補正オパシティカーブOCC(ピーク位置のズレを補正できるもの)に相当する。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. 6, the power correction by the power correction unit 142 is superimposed after the correction by the view histogram consideration correction unit 141, as described above. In this case, the correction target opacity curve shown in FIG. 15 actually corresponds to the corrected opacity curve OCC (capable of correcting the deviation of the peak position) corrected by the view histogram consideration correction unit 141 .

一律累乗補正の処理は、補正対象オパシティカーブの任意の信号値Sにおける不透明度をαold(S)とし、補正後のオパシティカーブの当該信号値Sにおける不透明度をαnew(S)としたときに、図15(b) に示すように、
αnew(S)=αold(S)γ 式(9)
なる演算を行うことによりなされる。一律累乗補正の「一律」なる文言は、この式(9)を一律に適用することを意味している。ここで、この式(9)における補正係数γは、0<γ<1の範囲内の値をとる(ここに示す実施例では、γ=0.4に設定している)。結局、この一律累乗補正は、補正対象オパシティカーブによって示される不透明度を、補正係数γ(但し、0<γ<1)で累乗する補正ということができる。
In the uniform power correction process, when the opacity at an arbitrary signal value S of the opacity curve to be corrected is α old (S) and the opacity at the signal value S of the opacity curve after correction is α new (S), As shown in FIG. 15(b),
α new (S) = α old (S) γ formula (9)
It is done by performing the following calculation. The word “uniformly” in the uniform exponentiation correction means that the formula (9) is uniformly applied. Here, the correction coefficient γ in this equation (9) takes a value within the range of 0<γ<1 (in the embodiment shown here, γ is set to 0.4). Ultimately, this uniform power correction can be said to be correction in which the opacity indicated by the correction target opacity curve is raised to the power of the correction coefficient γ (where 0<γ<1).

たとえば、図15(a) に示す補正対象オパシティカーブの場合、任意の信号値S1についての不透明度はαold(S1)であるので、信号値S1についての累乗補正後の不透明度αnew(S)は、図15(b) に示すように、
αnew(S1)=αold(S1)γ 式(10)
で与えられる。
For example, in the case of the opacity curve to be corrected shown in FIG. 15(a), since the opacity for an arbitrary signal value S1 is αold(S1), the opacity αnew(S) for the signal value S1 after power correction is , as shown in FIG.
α new (S1) = α old (S1) γ formula (10)
is given by

このような一律累乗補正を施すと、補正対象オパシティカーブに対して対数特性を付加することができるので、観察対象のボケを抑制することが可能になる。なお、一律累乗補正は、必ずしも補正対象オパシティカーブの全部分に対して行う必要はなく、一部分に対してのみ行ってもかまわない。たとえば、図15(a) に示す補正対象オパシティカーブの場合、不透明度αがα≧αold(S1)を満たす部分(山の五合目より高い部分)に対してのみ、式(9)に基づく累乗補正を施すようにしてもよい。 When such uniform exponentiation correction is performed, logarithmic characteristics can be added to the opacity curve to be corrected, so blurring of the observation target can be suppressed. Note that the uniform exponentiation correction does not necessarily have to be performed on the entire portion of the opacity curve to be corrected, and may be performed only on a portion. For example, in the case of the opacity curve to be corrected shown in FIG. Power correction may be applied.

図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合は、まず、視界ヒストグラム考慮補正部141による補正が行われ、補正後のオパシティカーブが累乗補正部142に与えられ、この補正後のオパシティカーブに対して、更に累乗補正が実施されることになる。この場合、オパシティカーブ補正部140は、視界ヒストグラム考慮補正部141によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、補正係数γ(但し、0<γ<1)で累乗する累乗補正を行うことになる。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. Power correction is further performed on the corrected opacity curve. In this case, the opacity curve correction unit 140 raises the opacity of part or all of the opacity curve corrected by the field histogram consideration correction unit 141 to the power of a correction coefficient γ (where 0<γ<1). Power correction is performed.

なお、図15(b) に示す式(9)は、不透明度αが0≦α≦1の範囲内の数値として定義されていることを前提とした式であるが、コンピュータ上で実行される実際の演算では、αは、デジタルデータとして取り扱われる。たとえば、不透明度αが、8ビットのデジタルデータとして表現される場合、αがとるべき範囲は、0≦α≦255になる。その場合、実際の演算に用いられる式は、式(9)ではなく、図15(b) に示すように、
αnew(S)=255×(αold(S)/255)γ 式(11)
なる式になる。
Equation (9) shown in FIG. 15(b) is based on the premise that the opacity α is defined as a numerical value within the range of 0≦α≦1, but it can be executed on a computer. In actual calculation, α is treated as digital data. For example, when the opacity α is expressed as 8-bit digital data, the range that α should take is 0≦α≦255. In that case, the formula used for the actual calculation is not formula (9), but as shown in FIG. 15(b):
α new (S) = 255 × (α old (S) / 255) γ formula (11)
becomes a formula.

<3.2.2 S字累乗補正>
続いて、S字累乗補正について説明する。図16は、図6に示す累乗補正部142がS字累乗補正を行う場合の原理を示すグラフである。ここで、図16(a) ~(c) は、一律累乗補正の説明に用いた図14(a) ~(c) と全く同じ図である。図14と図16の相違は、図14(b) から図14(d) への補正処理が、前述した一律累乗補正であるのに対して、図16(b) から図16(d) への補正処理が、以下に述べるS字累乗補正になる点である。その結果、図16(d) に示す補正オパシティカーブOCCの形状は、図14(d) に示す補正オパシティカーブOCCの形状とは若干異なっており、図16(e) に示す補正視界ヒストグラムVHCの形状も、図14(e) に示す補正視界ヒストグラムVHCの形状とは若干異なっている。
<3.2.2 S-curve exponentiation correction>
Next, S-curve exponentiation correction will be described. FIG. 16 is a graph showing the principle when the power correction unit 142 shown in FIG. 6 performs S-shaped power correction. Here, FIGS. 16(a) to 16(c) are exactly the same as FIGS. 14(a) to 14(c) used for explaining the uniform exponentiation correction. The difference between FIG. 14 and FIG. 16 is that the correction processing from FIG. 14(b) to FIG. , is the S-curve exponentiation correction described below. As a result, the shape of the corrected opacity curve OCC shown in FIG. 16(d) is slightly different from the shape of the corrected opacity curve OCC shown in FIG. 14(d). The shape is also slightly different from the shape of the corrected visual field histogram VHC shown in FIG. 14(e).

このS字累乗補正の目的は、前述した一律累乗補正の目的と同様に、「Weber-Fechnerの法則」に基づくボケを解消できるように、視界ヒストグラムVHの形状を補正することにある。したがって、図16(c) に示すように、ピーク位置Soc,Svh間にズレが生じていた場合でも、図16(e) に示すように、当該ズレは補正されずにそのまま残ることになる。もっとも、図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、累乗補正部142による累乗補正を行う前に、視界ヒストグラム考慮補正部141による補正が行われるため、既にズレは解消していることになる。 The purpose of this S-curve power correction is to correct the shape of the field of view histogram VH so as to eliminate blurring based on the "Weber-Fechner's law", similar to the purpose of the uniform power correction described above. Therefore, even if there is a deviation between the peak positions Soc and Svh as shown in FIG. 16(c), the deviation remains without being corrected as shown in FIG. 16(e). However, in the case of the color map optimization device 101 according to the basic embodiment shown in FIG. It means that it has been canceled.

ここで述べるS字累乗補正においても、図16(b) に示すオパシティカーブOCに対して、対数特性を付加する補正を施すことにより、図16(d) に示すような補正オパシティカーブOCCが作成される。このように累乗補正によって対数特性が加わると、「Weber-Fechnerの法則」に基づき、ヒトの感覚器の感度がもつ対数特性に合致した不透明度分布が得られるようになり、観察対象のボケを抑制する効果が得られることは、一律累乗補正と同様である。したがって、このS字累乗補正も、たとえば、図8に示す例のように、3点Q1,Q2,Q3を指定して作成された三角形状のオパシティカーブOCに対して対数特性を付加し、観察対象のボケを抑制するための効果的な補正になる。 In the S-curve exponentiation correction described here as well, a corrected opacity curve OCC as shown in FIG. 16(d) is created by applying a correction that adds logarithmic characteristics to the opacity curve OC shown in FIG. 16(b). be done. When the logarithmic characteristic is added by power correction in this way, it becomes possible to obtain an opacity distribution that matches the logarithmic characteristic of the sensitivity of human sensory organs based on the "Weber-Fechner law", and the blurring of the observation target can be obtained. It is the same as uniform exponentiation correction that the suppression effect can be obtained. Therefore, this S-shaped exponentiation correction is also performed, for example, by adding a logarithmic characteristic to the triangular opacity curve OC created by designating three points Q1, Q2, and Q3 as shown in FIG. This is an effective correction for suppressing blurring of the target.

なお、ここでも、図16(c) に示す視界ヒストグラムVHは、図16(a) に示す信号値ヒストグラムHと図16(b) に示すオパシティカーブOCとの積H×OCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。同様に、図16(e) に示す補正視界ヒストグラムVHCは、図16(a) に示す信号値ヒストグラムHと図16(d) に示す補正オパシティカーブOCCとの積H×OCCの値を正確に示すものではなく、説明の便宜上、デフォルメされている。 Also in this case, the field of view histogram VH shown in FIG. 16(c) is the product H×OC of the signal value histogram H shown in FIG. 16(a) and the opacity curve OC shown in FIG. 16(b). It is deformed for convenience of explanation, not for illustration. Similarly, the corrected field of view histogram VHC shown in FIG. 16(e) is the product H×OCC of the signal value histogram H shown in FIG. 16(a) and the corrected opacity curve OCC shown in FIG. 16(d). It is deformed for convenience of explanation, not for illustration.

前述した一律累乗補正と、ここで述べるS字累乗補正との相違は、上述したとおり、具体的に施す補正処理の内容と、その結果得られる補正オパシティカーブOCCおよび補正視界ヒストグラムVHCの形状のみである。そこで、以下、この相違点についての説明を行う。 The difference between the uniform power correction described above and the S-curve power correction described here is, as described above, only in the details of the correction processing to be specifically performed and the shapes of the corrected opacity curve OCC and the corrected field of view histogram VHC obtained as a result. be. Therefore, the difference will be described below.

まず、図14(d) に示す補正オパシティカーブOCCの形状と図16(d) に示す補正オパシティカーブOCCの形状とを比較すると、後者の場合、ピーク付近の勾配はより急峻になっているが、裾野付近の勾配はより緩慢になっている。このため、図14(e) に示す補正視界ヒストグラムVHCの形状と図16(d) に示す補正視界ヒストグラムVHCの形状とを比較すると、やはり後者の場合、山のピーク付近の勾配はより急峻になっているが、裾野付近の勾配はより緩慢になっている。 First, comparing the shape of the corrected opacity curve OCC shown in FIG. 14(d) with the shape of the corrected opacity curve OCC shown in FIG. , the slope near the foot is gentler. Therefore, comparing the shape of the corrected field of view histogram VHC shown in FIG. 14(e) with the shape of the corrected field of view histogram VHC shown in FIG. However, the gradient near the foot is gentler.

S字累乗補正によって得られる補正オパシティカーブOCCや補正視界ヒストグラムVHCの形状が、このような固有の特徴をもつのは、図14に示す一律累乗補正では、補正を行う際に、前述の式(9)が一律して用いられるのに対して、図16に示すS字累乗補正では、補正を行う際に、山のピーク付近と裾野付近とで、それぞれ異なる補正式を適用するためである。そのため、山のピーク付近の勾配をより急峻にし、裾野付近の勾配をより緩慢にする補正が行われる。ここで説明する累乗補正をS字累乗補正と呼ぶのは、オパシティカーブの山の斜面の形状が、S字に似た形状に補正されるためである。本願発明者が行った実験では、このようなS字累乗補正は、前述した一律累乗補正よりも、観察対象のボケを解消する上でより効果的であった。 The shapes of the corrected opacity curve OCC and the corrected field of view histogram VHC obtained by the S-curve power correction have such unique features because the uniform power correction shown in FIG. 9) is uniformly used, whereas in the S-curve power correction shown in FIG. Therefore, correction is performed to make the gradient near the peak of the mountain steeper and the gradient near the base gentler. The reason why the power correction described here is called S-shaped power correction is that the shape of the slope of the mountain of the opacity curve is corrected to resemble an S-shape. Experiments conducted by the inventors of the present application have shown that such S-curve power correction is more effective than the uniform power correction described above in eliminating the blurring of the observation target.

続いて、図16(b) に示すオパシティカーブOCを、図16(d) に示す補正オパシティカーブOCCに補正する具体的な処理方法(S字累乗補正の具体的な方法)の一例を説明する。この処理は、実際には、数式を用いた演算によって行うことができる。図17は、累乗補正部142で実施されるS字累乗補正による補正処理に用いられる数式を説明する図である。この数式に基づく演算を行うには、補正対象となるオパシティカーブのみを用意すれば足りる。図17(a) には、補正対象となる具体的なオパシティカーブのグラフを示す。ここでも便宜上、単純な二等辺三角形の形状をもつ補正対象オパシティカーブに対してS字累乗補正を行う例について説明を行う。 Next, an example of a specific processing method (a specific method of S-curve exponentiation correction) for correcting the opacity curve OC shown in FIG. 16(b) to the corrected opacity curve OCC shown in FIG. 16(d) will be described. . This processing can actually be performed by computation using mathematical formulas. 17A and 17B are diagrams for explaining mathematical formulas used in correction processing by S-shaped power correction performed by the power correction unit 142. FIG. In order to perform calculation based on this formula, it is sufficient to prepare only the opacity curve to be corrected. FIG. 17(a) shows a graph of a specific opacity curve to be corrected. For the sake of convenience, an example in which the correction target opacity curve having the shape of a simple isosceles triangle is subjected to S-shaped exponentiation correction will be described here as well.

なお、図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合、前述したとおり、視界ヒストグラム考慮補正部141による補正の後に、累乗補正部142による累乗補正が重ねて行われる。この場合、図17に示す補正対象オパシティカーブは、実際には、視界ヒストグラム考慮補正部141による補正が施された補正オパシティカーブOCC(ピーク位置のズレを補正できるもの)に相当する。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. 6, the power correction by the power correction unit 142 is superimposed after the correction by the view histogram consideration correction unit 141, as described above. In this case, the correction target opacity curve shown in FIG. 17 actually corresponds to the corrected opacity curve OCC (capable of correcting the deviation of the peak position) corrected by the view histogram consideration correction unit 141 .

S字累乗補正の処理は、補正対象オパシティカーブの任意の信号値Sにおける不透明度をαold(S)とし、補正後のオパシティカーブの当該信号値Sにおける不透明度をαnew(S)としたときに、図17(b) に示すように、
αold(S)≧Tの場合
αnew(S)=αold(S)γ 式(12)
αold(S)<Tの場合
αnew(S)=αold(S)1/γ 式(13)
なる演算を行うことによりなされる。
In the S-curve power correction process, αold(S) is the opacity at an arbitrary signal value S of the opacity curve to be corrected, and αnew(S) is the opacity at the signal value S of the corrected opacity curve. , as shown in FIG.
When αold(S)≧T αnew(S)=αold(S) γ Formula (12)
When αold(S)<T αnew(S)=αold(S) 1/γ formula (13)
It is done by performing the following calculation.

ここで、この式(12),式(13)における補正係数γは、0<γ<1の範囲内の値をとる(ここに示す実施例では、γ=0.4に設定している)。また、適用する式の選択基準となるしきい値Tとしては、補正対象オパシティカーブの最大値をOCmax としたときに、0<T<OCmax なる条件を満たす任意の値に設定すればよい。ここに示す実施例では、T=OCmax /2に設定している。 Here, the correction coefficient γ in the equations (12) and (13) takes a value within the range of 0<γ<1 (in the embodiment shown here, γ is set to 0.4). . Further, the threshold value T serving as a selection criterion for the formula to be applied may be set to an arbitrary value that satisfies the condition 0<T<OCmax, where OCmax is the maximum value of the opacity curve to be corrected. In the embodiment shown here, T=OCmax/2 is set.

図17(a) に示すように、T=OCmax /2に設定した場合、しきい値Tは、補正対象オパシティカーブの山の高さ(OCmax )の半分の値になり、図に一点鎖線で示す水平線が、上記式(12)および式(13)のいずれを適用した演算を行うかの選択の分かれ目になる。すなわち、ある信号値Sについて、補正対象オパシティカーブで示される不透明度αold(S)の値がこの水平線以上であれば、式(12)を用いて補正後の不透明度αnew(S)の値が算出され、不透明度αold(S)の値がこの水平線未満であれば、式(13)を用いて補正後の不透明度αnew(S)の値が算出される。 As shown in FIG. 17(a), when T is set to OCmax/2, the threshold value T is half the peak height (OCmax) of the opacity curve to be corrected. The indicated horizontal line serves as a dividing point for selecting which one of the above equations (12) and (13) is applied for calculation. That is, for a certain signal value S, if the value of the opacity αold(S) indicated by the corrected opacity curve is greater than or equal to this horizontal line, the value of the opacity αnew(S) after correction using Equation (12) is If the calculated opacity αold(S) value is less than this horizontal line, the corrected opacity αnew(S) value is calculated using equation (13).

たとえば、図17(a) に示す補正対象オパシティカーブの場合、信号値S1についての不透明度はαold(S1)であり、αold(S1)≧Tになるので、信号値S1についての累乗補正後の不透明度αnew(S1)は、図15(b) に示す式(12)を適用することにより、
αnew(S1)=αold(S1)γ 式(14)
で与えられる。これに対して、信号値S2についての不透明度はαold(S2)であり、αold(S2)<Tになるので、信号値S2についての累乗補正後の不透明度αnew(S2)は、図15(b) に示す式(13)を適用することにより、
αnew(S2)=αold(S2)1/γ 式(15)
で与えられる。
For example, in the case of the opacity curve to be corrected shown in FIG. 17(a), the opacity for the signal value S1 is αold(S1), and αold(S1)≧T. The opacity α new (S1) is obtained by applying the formula (12) shown in FIG. 15(b).
α new (S1) = α old (S1) γ formula (14)
is given by On the other hand, the opacity for the signal value S2 is αold(S2), and αold(S2)<T. b) By applying equation (13) shown in
αnew(S2)=αold(S2) 1/γ formula (15)
is given by

不透明度αは、0≦α≦1なる範囲内の値をとり、補正係数γは、0<γ<1なる範囲内の値をとるので、上記式(12)に基づく補正を行うと勾配を急峻にする効果が得られ、上記式(13)に基づく補正を行うと勾配を緩慢にする効果が得られる。したがって、このようなS字累乗補正を施すと、補正対象オパシティカーブに対して対数特性を付加するとともに、山の斜面の形状について、山のピーク付近(しきい値T以上の部分)の勾配をより急峻にし、山の裾野付近(しきい値T未満の部分)の勾配をより緩慢にする補正が行われる。このような補正は、観察対象のボケを解消する上で非常に効果的である。 The opacity α takes a value within the range of 0≦α≦1, and the correction coefficient γ takes a value within the range of 0<γ<1. The effect of making the gradient steeper is obtained, and the effect of making the gradient gentler is obtained by performing the correction based on the above equation (13). Therefore, when such S-curve exponentiation correction is performed, logarithmic characteristics are added to the opacity curve to be corrected, and the slope near the peak of the mountain (the portion above the threshold value T) is reduced with respect to the shape of the slope of the mountain. Correction is performed to make the slope steeper and to make the slope near the foot of the mountain (the portion below the threshold value T) gentler. Such correction is very effective in eliminating blurring of the observation target.

なお、このS字累乗補正も、必ずしも補正対象オパシティカーブの全部分に対して行う必要はなく、一部分に対してのみ行ってもかまわない。たとえば、図17(a) に示す補正対象オパシティカーブの場合、不透明度αがα≧T/2を満たす部分に対してのみ、上記S字累乗補正を施すようにしてもよい。 It should be noted that this S-shaped exponentiation correction does not necessarily have to be performed on the entire part of the opacity curve to be corrected, and may be performed only on a part of it. For example, in the case of the opacity curve to be corrected shown in FIG. 17(a), the S-shaped exponentiation correction may be applied only to portions where the opacity α satisfies α≧T/2.

図6に示す基本的実施形態に係るカラーマップの最適化装置101の場合は、まず、視界ヒストグラム考慮補正部141による補正が行われ、補正後のオパシティカーブが累乗補正部142に与えられ、この補正後のオパシティカーブに対して、更に累乗補正が実施されることになる。この場合、オパシティカーブ補正部140は、視界ヒストグラム考慮補正部141によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、当該不透明度が所定のしきい値T以上の場合は補正係数γ(但し、0<γ<1)で累乗する補正を行い、当該不透明度がしきい値T未満の場合は補正係数γの逆数で累乗する補正を行うことになる。 In the case of the color map optimization device 101 according to the basic embodiment shown in FIG. Power correction is further performed on the corrected opacity curve. In this case, the opacity curve correction unit 140 corrects the opacity of part or all of the opacity curve corrected by the field histogram consideration correction unit 141 if the opacity is equal to or greater than a predetermined threshold value T. Correction is performed by raising the coefficient γ (where 0<γ<1), and if the opacity is less than the threshold value T, correction is performed by raising the reciprocal of the correction coefficient γ.

なお、図17(b) に示す式(12),式(13)は、不透明度αが0≦α≦1の範囲内の数値として定義されていることを前提とした式であるが、コンピュータ上で実行される実際の演算では、αは、デジタルデータとして取り扱われる。たとえば、不透明度αが、8ビットのデジタルデータとして表現される場合、αがとるべき範囲は、0≦α≦255になる。その場合は、S字累乗補正を行う際に、式(12),式(13)の代わりに、図15(b) に示す式(11)に準じた式を用いることになる。 The formulas (12) and (13) shown in FIG. 17(b) are based on the premise that the opacity α is defined as a numerical value within the range of 0≦α≦1. In the actual computations performed above, α is treated as digital data. For example, when the opacity α is expressed as 8-bit digital data, the range that α should take is 0≦α≦255. In that case, when performing the S-curve exponentiation correction, an equation based on equation (11) shown in FIG. 15(b) is used instead of equations (12) and (13).

<<< §4. ボリュームレンダリング像の作成 >>>
これまで、主として、図6に示すボリュームレンダリング装置100に含まれるカラーマップの最適化装置101の具体的な実施例を述べてきた。このカラーマップの最適化装置101は、図6に示すとおり、断層画像入力部110、信号値ヒストグラム作成部120、視界ヒストグラム作成部130、オパシティカーブ補正部140、カラーマップ入力部150によって構成される。
<<< §4. Creating a volume rendered image >>>
So far, we have mainly described specific embodiments of the color map optimization device 101 included in the volume rendering device 100 shown in FIG. As shown in FIG. 6, the color map optimization device 101 is composed of a tomographic image input unit 110, a signal value histogram generation unit 120, a field of view histogram generation unit 130, an opacity curve correction unit 140, and a color map input unit 150. .

図6に示すボリュームレンダリング装置100は、このカラーマップの最適化装置101に、更に、カラーマップ格納部161、カラーマップ作成部162、ボクセル画像作成部170、レンダリング処理部180を付加したものである。ここで、カラーマップ格納部161の実施例については、既に§2.2.2において説明した。また、カラーマップ作成部162の実施例については、既に§2.2.3において説明した。そこで、以下、ボクセル画像作成部170およびレンダリング処理部180の実施例を順に説明する。 The volume rendering device 100 shown in FIG. 6 is obtained by adding a color map storage unit 161, a color map creation unit 162, a voxel image creation unit 170, and a rendering processing unit 180 to the color map optimization device 101. . An example of the color map storage unit 161 has already been described in §2.2.2. Also, an embodiment of the color map creation unit 162 has already been described in §2.2.3. Accordingly, examples of the voxel image creation unit 170 and the rendering processing unit 180 will be described in order below.

<4.1 ボクセル画像作成部170>
図6に示すとおり、ボクセル画像作成部170には、断層画像入力部110が入力した断層画像群10(画素S(x,y,z)の集合体)と、カラーマップの最適化装置101によって最適化された補正カラーマップCC(オパシティカーブ補正部140から出力される補正カラーマップCC)とが与えられる。ボクセル画像作成部170は、これらのデータに基づいて、ボクセル画像20を作成する処理を行う。
<4.1 Voxel Image Creation Unit 170>
As shown in FIG. 6, the voxel image generating unit 170 receives the tomographic image group 10 (collection of pixels S (x, y, z)) input by the tomographic image input unit 110, and the color map optimization device 101. Optimized correction color map CC (correction color map CC output from opacity curve correction section 140) is provided. The voxel image creating unit 170 performs processing to create the voxel image 20 based on these data.

ボクセル画像20は、色値(R,G,B)および不透明度αが付与されたボクセルV(x,y,z)を三次元空間上に配置した三次元画像モデルである。図18は、ボクセル画像作成部170で作成されるボクセル画像20のボクセル構成を示す概念図である。図示のとおり、XYZ三次元直交座標系上に、複数のボクセルプレーン11v,... ,16v,17v,18vが配置されており、各ボクセルプレーンには、それぞれボクセルV(x,y,z)が配置されている。個々のボクセルV(x,y,z)は、XYZ三次元直交座標系上の座標値(x,y,z)で特定される。 The voxel image 20 is a three-dimensional image model in which voxels V (x, y, z) assigned color values (R, G, B) and opacity α are arranged in a three-dimensional space. FIG. 18 is a conceptual diagram showing the voxel configuration of the voxel image 20 created by the voxel image creating section 170. As shown in FIG. As shown, a plurality of voxel planes 11v, . are placed. Each voxel V(x, y, z) is specified by coordinate values (x, y, z) on the XYZ three-dimensional orthogonal coordinate system.

図18には一部のボクセルプレーン11v,... ,16v,17v,18vのみが示されているが、これらの各ボクセルプレーンは、図2に示す各断層画像11,... ,16,17,18に対応するものであり、各ボクセルプレーン上の個々のボクセルV(x,y,z)は、図2に示す各断層画像上の個々の画素S(x,y,z)に対応するものである。したがって、実際には、合計370枚の断層画像に対応する合計370枚のボクセルプレーンがZ軸方向に所定間隔(断層画像撮影装置50による撮影間隔)をおいて積層されている。 , 16v, 17v, and 18v are only partially shown in FIG. 17 and 18, and individual voxels V(x, y, z) on each voxel plane correspond to individual pixels S(x, y, z) on each tomographic image shown in FIG. It is something to do. Therefore, in reality, a total of 370 voxel planes corresponding to a total of 370 tomographic images are stacked in the Z-axis direction at predetermined intervals (imaging intervals of the tomographic imaging apparatus 50).

また、図18に示すボクセル画像20の各軸方向のサイズ(ボクセル数)Sx,Sy,Szは、図2に示す断層画像群10の各軸方向のサイズSx,Sy,Szに等しい。図2や図18に示す例では、説明の便宜上、Sx=6、Sy=6、Sz=8になっているが、図1(a) に示す例の場合は、前述したとおり、Sx=512、Sy=512、Sz=370になる。 18 are equal to the axial sizes Sx, Sy, Sz of the tomographic image group 10 shown in FIG. In the examples shown in FIGS. 2 and 18, Sx=6, Sy=6, and Sz=8 for convenience of explanation, but in the case of the example shown in FIG. , Sy=512 and Sz=370.

図2に示す断層画像群10を構成する各画素S(x,y,z)には、それぞれ所定の信号値S(たとえば、-32768~+32767の範囲内の値を示す16ビットデータ)が付与されている。これに対して、図18に示すボクセル画像20を構成する各ボクセルV(x,y,z)には、それぞれ所定の色値(R,G,B)および不透明度αが付与される。すなわち、個々のボクセルV(x,y,z)には、それぞれボクセル値(R,G,B,α)が付与されることになる。これらボクセル値(R,G,B,α)は、たとえば、それぞれ0~255の範囲内の値を示す8ビットデータによって表現することができる。 Each pixel S (x, y, z) forming the tomographic image group 10 shown in FIG. It is On the other hand, each voxel V (x, y, z) forming the voxel image 20 shown in FIG. 18 is given a predetermined color value (R, G, B) and an opacity α. That is, each voxel V(x, y, z) is given a voxel value (R, G, B, α). These voxel values (R, G, B, α) can be represented, for example, by 8-bit data indicating values within the range of 0-255.

ボクセル画像作成部170は、図2に示す断層画像群10を図18に示すボクセル画像20に変換する処理を行う。このような変換を行うには、断層画像群10を構成する個々の画素S(x,y,z)に画素値として付与されている信号値Sを、ボクセル値(R,G,B,α)に変換する必要がある。この変換処理は、カラーマップの最適化装置101から与えられる補正カラーマップCCを利用して行われる。 The voxel image generator 170 performs processing for converting the tomographic image group 10 shown in FIG. 2 into the voxel image 20 shown in FIG. In order to perform such conversion, the signal value S given as a pixel value to each pixel S (x, y, z) constituting the group of tomographic images 10 is converted to a voxel value (R, G, B, α ) must be converted to This conversion processing is performed using the corrected color map CC provided from the color map optimization device 101 .

結局、ボクセル画像作成部170は、断層画像入力部50が入力した複数の断層画像11,... ,16,17,18の各画素S(x,y,z)に付与された信号値Sを、オパシティカーブ補正部140から出力される補正カラーマップCCを用いて、所定の色値および不透明度を示すボクセル値(R,G,B,α)に変換し、断層画像の各画素位置に定義された各ボクセルV(x,y,z)に当該ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像20を作成する。補正カラーマップCCは、図7に示すカラーマップCと同様に、個々の信号値Sに対して所定のボクセル値(R,G,B,α)を対応づけるテーブルであるので、ボクセル画像作成部170は、このテーブルを利用して、信号値Sをボクセル値(R,G,B,α)に変換して、ボクセル画像20を作成することができる。 , 16, 17, 18 input by the tomographic image input unit 50. is converted into voxel values (R, G, B, α) indicating a predetermined color value and opacity using the corrected color map CC output from the opacity curve correction unit 140, and at each pixel position of the tomographic image By assigning the voxel value to each defined voxel V(x, y, z), a voxel image 20 consisting of a set of voxels arranged in a three-dimensional space is created. Similar to the color map C shown in FIG. 7, the corrected color map CC is a table that associates each signal value S with a predetermined voxel value (R, G, B, α). 170 can use this table to convert the signal values S into voxel values (R, G, B, α) to create the voxel image 20 .

<4.2 レンダリング処理部180>
図6に示すレンダリング処理部180は、ボクセル画像作成部170によって作成された図18に例示するようなボクセル画像20(三次元画像モデル)を、所定の視線方向から観察した場合に得られる二次元画像を作成するレンダリング処理を実行する。こうして作成された二次元画像は、ボリュームレンダリング像30として出力される。図1(c) に示すボリュームレンダリング像30は、レンダリング処理部180から出力されたボリュームレンダリング像30をディスプレイ装置60の画面に表示させたものである。
<4.2 Rendering Processing Unit 180>
The rendering processing unit 180 shown in FIG. 6 generates a two-dimensional image obtained when the voxel image 20 (three-dimensional image model) illustrated in FIG. Execute the rendering process that creates the image. A two-dimensional image created in this way is output as a volume rendering image 30 . The volume rendering image 30 shown in FIG. 1(c) is the volume rendering image 30 output from the rendering processing section 180 displayed on the screen of the display device 60. FIG.

図19は、レンダリング処理部180で実施されるレンダリング処理の手順を示す流れ図である。図示のとおり、まず、ボクセル画像入力段階S1において、ボクセル画像作成部170によって作成されたボクセル画像20が入力される。以下の各ステップは、このボクセル画像20に基づいて順次実行される。 FIG. 19 is a flowchart showing the procedure of rendering processing performed by the rendering processing unit 180. As shown in FIG. As illustrated, first, in a voxel image input step S1, a voxel image 20 created by the voxel image creation unit 170 is input. Each of the following steps is sequentially executed based on this voxel image 20 .

続くスムージング処理段階S2では、各ボクセルに付与されている不透明度αの分布を平滑化するスムージング処理が実行され、更に陰影計算段階S3では、各ボクセルに付与されている色値(R,G,B)に対して、所定の照明環境に応じて生じる陰影情報を付加する陰影計算が実行される。ステップS2のスムージング処理段階の詳細については、§4.2.1で説明を行い、ステップS3の陰影計算段階の詳細については、§4.2.2で説明を行う。 In the subsequent smoothing processing step S2, smoothing processing is performed to smooth the distribution of the opacity α given to each voxel. For B), a shadow calculation is performed to add shadow information generated according to a predetermined lighting environment. Details of the smoothing processing stage of step S2 are described in §4.2.1, and details of the shadow calculation stage of step S3 are described in §4.2.2.

次に、表示条件設定段階S4において、三次元画像モデルとして与えられたボクセル画像20を、二次元のボリュームレンダリング像30として表示するための表示条件の設定が行われる。具体的には、レンダリング処理部180は、オペレータからの入力に基づいて、視点位置、視線方向、表示倍率などの表示条件を設定することになる。 Next, in a display condition setting step S4, display conditions are set for displaying the voxel image 20 given as a three-dimensional image model as a two-dimensional volume rendering image 30. FIG. Specifically, the rendering processing unit 180 sets display conditions such as the viewpoint position, line-of-sight direction, and display magnification based on the input from the operator.

続くステップS5では、処理法の選択が行われる。ここに示す実施例では、ボリュームレンダリング処理に2通りの方法を用意している。第1の方法は、レイキャスティング法によるボリュームレンダリング処理であり、CPUに処理を委ねるCPU版のプログラムによって実行される。第2の方法は、3Dテクスチャマッピング法によるボリュームレンダリング処理であり、GPUに処理を委ねるGPU版のプログラムによって実行される。オペレータが、所望の方法を指定する入力を行うと、いずれか一方の方法が選択され、実行される。 In the subsequent step S5, a processing method is selected. In the embodiment shown here, two methods are prepared for volume rendering processing. The first method is volume rendering processing by the ray casting method, which is executed by a CPU-version program entrusting processing to the CPU. The second method is a volume rendering process using a 3D texture mapping method, which is executed by a GPU version of a program entrusting processing to the GPU. Either method is selected and executed when the operator provides input specifying the desired method.

第1の方法、すなわち、CPU版のプログラムを利用したレンダリングを選択した場合は、ステップS5からステップS6へと進み、レイキャスティング法によるボリュームレンダリング処理を実行し、更にステップS7へと進み、ディスプレイへの表示段階が行われる。ステップS6で実行されるレイキャスティング法によるボリュームレンダリング処理は、アプリケーションプログラムをCPUが実行するソフトウェア上の処理になるため、高速化を図ることが困難である。したがって、ステップS7におけるディスプレイへの表示段階は、プログレッシブ表示(演算途中の不完全な表示から、演算が進むに従って徐々に完全な表示へと移行してゆく段階的な表示方法)になる。 If the first method, that is, the rendering using the CPU version program is selected, the process proceeds from step S5 to step S6 to execute volume rendering processing by the ray casting method, and further to step S7 to display the data on the display. is performed. Since the volume rendering processing by the ray casting method executed in step S6 is software processing in which the CPU executes the application program, it is difficult to speed up the processing. Therefore, the stage of display on the display in step S7 is a progressive display (a gradual display method in which an incomplete display during calculation gradually transitions to a complete display as the calculation progresses).

一方、第2の方法、すなわち、GPU版のプログラムを利用したレンダリングを選択した場合は、ステップS5からステップS8へと進み、3Dテクスチャマッピング法によるボリュームレンダリング処理を実行し、更にステップS9へと進み、ディスプレイへの表示段階が行われる。ステップS8で実行される3Dテクスチャマッピング法によるボリュームレンダリング処理は、グラフィック処理に特化したハードウェアであるGPUによって実行される処理になるため、高速化を図ることができる。したがって、ステップS9におけるディスプレイへの表示段階は、リアルタイム表示(ステップS4で表示条件が設定されるたびに、直ちに完全なレンダリング像を提示する表示方法)になる。 On the other hand, if the second method, that is, rendering using the GPU version of the program is selected, the process advances from step S5 to step S8 to execute volume rendering processing using the 3D texture mapping method, and then advances to step S9. , the presentation stage on the display is performed. Since the volume rendering processing by the 3D texture mapping method executed in step S8 is processing executed by the GPU, which is hardware specialized for graphic processing, it is possible to speed up the processing. Therefore, the stage of display on the display in step S9 is a real-time display (a display method of presenting a complete rendered image immediately each time the display conditions are set in step S4).

こうして、ステップS10において、オペレータからの終了指示が与えられたと判断されるまで、ステップS4~S9の処理が繰り返し実行される。したがって、オペレータは、ステップS4において表示条件の設定を種々変えながら、所望のボリュームレンダリング像30をディスプレイ装置60の画面上に表示させることができる。なお、ステップS6およびS8のボリュームレンダリング段階の詳細については、§4.2.3で説明を行う。 In this way, the processes of steps S4 to S9 are repeatedly executed until it is determined in step S10 that the operator has given an end instruction. Therefore, the operator can display the desired volume rendering image 30 on the screen of the display device 60 while variously changing the display condition settings in step S4. Details of the volume rendering stages of steps S6 and S8 are described in §4.2.3.

<4.2.1 スムージング処理段階>
続いて、図19の流れ図におけるスムージング処理段階S2についての説明を行う。スムージング処理は、ボクセル画像20を構成する各ボクセルに付与されている不透明度αの分布を平滑化するための処理である。具体的には、ボクセル画像20を構成する個々のボクセルV(x,y,z)の不透明度αを、当該ボクセルおよび当該ボクセルに隣接する隣接ボクセルの不透明度の平均値に置き換える処理が行われる。
<4.2.1 Smoothing processing step>
Next, the smoothing processing step S2 in the flowchart of FIG. 19 will be described. The smoothing process is a process for smoothing the distribution of the opacity α given to each voxel forming the voxel image 20 . Specifically, a process of replacing the opacity α of each voxel V (x, y, z) that constitutes the voxel image 20 with the average value of the opacities of the voxel and adjacent voxels adjacent to the voxel is performed. .

図20は、このスムージング処理段階S2で行われるスムージング処理の具体的内容を説明する図である。図20(a) には、ある特定の着目ボクセルV(x,y,z)と、その周囲に配置されている26個の隣接ボクセルが示されている。図において、ハッチングが施されたボクセルV(x,y,z)が着目ボクセルであり、XYZ三次元直交座標系上の座標(x,y,z)の位置に配置されている。ここで述べる実施例の場合、この着目ボクセルV(x,y,z)に付与されているボクセル値(R,G,B,α)の中の不透明度αを、自分自身および隣接ボクセルを含めた合計27個のボクセルのボクセル値(不透明度α)を参照して修正するスムージング処理が行われる。 FIG. 20 is a diagram for explaining the specific contents of the smoothing process performed in this smoothing process step S2. FIG. 20(a) shows a specific target voxel V(x, y, z) and 26 adjacent voxels arranged around it. In the drawing, the hatched voxel V(x, y, z) is the voxel of interest, which is located at the coordinate (x, y, z) on the XYZ three-dimensional orthogonal coordinate system. In the case of the embodiment described here, the opacity α in the voxel values (R, G, B, α) given to this target voxel V(x, y, z) is A smoothing process for correction is performed by referring to the voxel values (opacity α) of a total of 27 voxels.

図20(a) に示すZ(-1),Z(0),Z(+1)は、それぞれボクセルが配置されたボクセルプレーンであり、ボクセルプレーンZ(0)はボクセルプレーンZ(-1)のすぐ上に隣接するプレーンであり、ボクセルプレーンZ(+1)はボクセルプレーンZ(0)のすぐ上に隣接するプレーンである。また、ここでは、座標系の各座標値を、ボクセルの配置ピッチに合わせて定義しており、たとえば、図において、着目ボクセルV(x,y,z)の右に隣接する隣接ボクセルはボクセルV(x+1,y,z)になり、左に隣接する隣接ボクセルはボクセルV(x-1,y,z)になる。Y軸方向およびZ軸方向に隣接する隣接ボクセルについても同様である。 Z(-1), Z(0), and Z(+1) shown in FIG. 20(a) are voxel planes on which voxels are arranged, and voxel plane Z(0) is voxel plane Z(-1). Voxel plane Z(+1) is the plane immediately above and adjacent to voxel plane Z(0). Further, here, each coordinate value of the coordinate system is defined according to the arrangement pitch of voxels. (x+1, y, z) and the neighboring voxel to the left becomes voxel V(x-1, y, z). The same applies to adjacent voxels adjacent in the Y-axis direction and the Z-axis direction.

ここでは、各ボクセルに付与されているボクセル値(R,G,B,α)の中の不透明度αをαoldと表し、修正後の不透明度αをαnewと表すことにする。また、特定のボクセルについての不透明度αについては、当該特定のボクセルの座標値を添えて示すことにする。たとえば、座標(x,y,z)に配置されている着目ボクセルV(x,y,z)の修正前の不透明度αはαold(x,y,z)になり、修正後の不透明度αはαnew(x,y,z)になる。 Here, the opacity α in the voxel values (R, G, B, α) assigned to each voxel is represented as αold, and the opacity α after correction is represented as αnew. In addition, the opacity α for a specific voxel is shown together with the coordinate values of the specific voxel. For example, the opacity α before modification of the target voxel V (x, y, z) located at coordinates (x, y, z) is α old (x, y, z), and the opacity α after modification is α old (x, y, z). becomes α new (x, y, z).

そうすると、ここに示す実施例に係るスムージング処理は、着目ボクセルV(x,y,z)の修正後の不透明度αnew(x,y,z)を、図20(b) に示すように、
αnew(x,y,z)=Σk=-1~1 Σj=-1~1 Σi=-1~1
αold(x+i,y+j,z+k)/27 式(16)
なる式に基づいて求める処理と言うことができる。この式(16)の右辺は、着目ボクセル自身および隣接ボクセルを含めた合計27個のボクセルの旧不透明度αの平均値を示しており、この平均値が着目ボクセルの新不透明度αになる。
Then, in the smoothing process according to the embodiment shown here, the corrected opacity α new (x, y, z) of the voxel V (x, y, z) of interest is expressed as follows, as shown in FIG.
α new (x, y, z) = Σ k = -1 to 1 Σ j = -1 to 1 Σ i = -1 to 1
α old (x+i, y+j, z+k)/27 Equation (16)
It can be said that this is a process of obtaining based on the following formula. The right side of this equation (16) indicates the average value of the old opacity α of a total of 27 voxels including the voxel of interest and adjacent voxels, and this average value is the new opacity α of the voxel of interest.

なお、ボクセル画像20の外側端に位置する端部ボクセル(たとえば、図18に示す例の場合、各ボクセルプレーンの左右の端や前後の端に位置するボクセルや、最上ボクセルプレーンや最下ボクセルプレーンに位置するボクセル)については、外側に隣接するボクセルが存在しないため、これら端部ボクセルを着目ボクセルとすると、式(16)の演算を行うことができない。したがって、これら端部ボクセルは、上記スムージング処理の対象外になる。 Note that edge voxels located at the outer edges of the voxel image 20 (for example, in the case of the example shown in FIG. 18, voxels located at the left and right edges, the front and rear edges of each voxel plane, the top voxel plane, and the bottom voxel plane voxels located at ), there are no voxels adjacent to the outside, so if these end voxels are set as voxels of interest, the calculation of equation (16) cannot be performed. Therefore, these edge voxels are excluded from the smoothing process.

このように、図6に示すレンダリング処理部180は、ボクセル画像20を構成する個々のボクセルの不透明度αを、当該ボクセルおよび当該ボクセルに隣接する隣接ボクセルの不透明度αの平均値に置き換えるスムージング処理を行い、スムージング処理を経た後のボクセル画像に基づいてボリュームレンダリング像を生成する機能を有している。このようなスムージング処理は、より適切なボリュームレンダリング像30を得る上で効果的である。 In this way, the rendering processing unit 180 shown in FIG. 6 performs smoothing processing that replaces the opacity α of each voxel forming the voxel image 20 with the average value of the opacity α of the voxel and adjacent voxels adjacent to the voxel. and generate a volume rendering image based on the smoothed voxel image. Such smoothing processing is effective in obtaining a more appropriate volume rendering image 30 .

<4.2.2 陰影計算段階>
次に、図19の流れ図における陰影計算段階S3についての説明を行う。陰影計算は、ボクセル画像20を構成する各ボクセルに付与されている色値(R,G,B)に対して、所定の照明環境に応じて生じる陰影情報を付加する処理である。
<4.2.2 Shadow calculation stage>
Next, the shadow calculation step S3 in the flowchart of FIG. 19 will be described. The shadow calculation is a process of adding shadow information generated according to a predetermined lighting environment to the color values (R, G, B) given to each voxel forming the voxel image 20 .

図21は、陰影計算段階S3で行われる陰影計算の具体的内容を説明する図である。いま、図21(a) に示すように、XYZ三次元直交座標系上に、ボクセル画像20(図では、便宜上、直方体のブロックとして示す)が配置されているものとしよう。ここに示す実施例では、このボクセル画像20に対して、所定方向から平行照明光Lによる照明がなされているものと仮定する。そして、この平行照明光Lの向きを示すための光源ベクトルL(Lx,Ly,Lz)を定義し、この光源ベクトルを用いて陰影計算を行う。 FIG. 21 is a diagram for explaining specific details of the shadow calculation performed in the shadow calculation step S3. Now, let us assume that a voxel image 20 (shown as a rectangular parallelepiped block in the figure for convenience) is arranged on an XYZ three-dimensional orthogonal coordinate system, as shown in FIG. 21(a). In the embodiment shown here, it is assumed that the voxel image 20 is illuminated with parallel illumination light L from a predetermined direction. Then, a light source vector L (Lx, Ly, Lz) is defined to indicate the direction of the parallel illumination light L, and shadow calculation is performed using this light source vector.

このような陰影計算を行うための具体的な式が、図21(b) に示されている。まず、勾配ベクトルG(Gx,Gy,Gz)の各軸方向成分Gx,Gy,Gzが、図21(b) の上段に示された次の式によって定義される。
Gx=(α(x+1,y,z)-α(x-1,y,z))・(Rxy/Rz)
式(17)
Gy=(α(x,y+1,z)-α(x,y-1,z))・(Rxy/Rz)
式(18)
Gz=(α(x,y,z+1)-α(x,y,z-1))
式(19)
A specific formula for performing such shadow calculation is shown in FIG. 21(b). First, the axial components Gx, Gy, Gz of the gradient vector G (Gx, Gy, Gz) are defined by the following equations shown in the upper part of FIG. 21(b).
Gx=(α(x+1, y, z)-α(x-1, y, z))・(Rxy/Rz)
Equation (17)
Gy=(α(x,y+1,z)-α(x,y−1,z))・(Rxy/Rz)
Equation (18)
Gz=(α(x, y, z+1)−α(x, y, z−1))
Equation (19)

ここで、Gxは、所定の着目ボクセルV(x,y,z)についてのX軸方向に関する不透明度αの勾配を示すものであり、X軸方向に関して隣接する2組の隣接ボクセルのもつ不透明度の差として定義されている。同様に、Gy,Gzは、それぞれY軸方向,Z軸方向に関する不透明度αの勾配を示すものであり、やはり各軸方向に関して隣接する2組の隣接ボクセルのもつ不透明度の差として定義されている。 Here, Gx indicates the gradient of the opacity α in the X-axis direction for a given target voxel V(x, y, z), and the opacity of two pairs of adjacent voxels in the X-axis direction. defined as the difference between Similarly, Gy and Gz indicate the gradient of opacity α in the Y-axis direction and Z-axis direction, respectively, and are also defined as the difference in opacity of two pairs of adjacent voxels in each axis direction. there is

式(17)および式(18)の末尾の(Rxy/Rz)なる項は、X軸方向およびY軸方向の解像度RxyとZ軸方向の解像度Rzとの相違を補正するための補正項である。前述したように、ボクセル画像作成部170は、X軸方向に所定のX軸方向ピッチで、Y軸方向に所定のY軸方向ピッチで、Z軸方向に所定のZ軸方向ピッチで、それぞれ並んで配置された三次元格子状のボクセル集合体からなるボクセル画像20を作成する。このボクセルの配列は、図2に示す断層画像群10を構成する画素の配列に準じたものである。 The term (Rxy/Rz) at the end of equations (17) and (18) is a correction term for correcting the difference between the resolution Rxy in the X-axis and Y-axis directions and the resolution Rz in the Z-axis direction. . As described above, the voxel image generators 170 are arranged in the X-axis direction at a predetermined X-axis direction pitch, in the Y-axis direction at a predetermined Y-axis direction pitch, and in the Z-axis direction at a predetermined Z-axis direction pitch. A voxel image 20 consisting of a three-dimensional grid-like voxel assembly arranged in the order of . This voxel arrangement conforms to the arrangement of pixels forming the tomographic image group 10 shown in FIG.

図2に示すように、断層画像群10は、Z軸方向に所定間隔をおいて配置された多数の断層画像の積層体として構成される。ここで、各断層画像のZ軸方向のピッチは、断層画像撮影装置50による撮影間隔に応じたものになる。一方、1枚の断層画像を構成する画素のX軸方向およびY軸方向のピッチは、撮影時の断層画像の二次元的な解像度によって定められ、通常、X軸方向ピッチとY軸方向ピッチは等しく設定される。このため、ここに示す実施例では、ボクセル画像20に含まれるボクセルのX軸方向およびY軸方向の解像度は、同一の値Rxyに設定されており、Z軸方向の解像度Rzは、Rxyとは異なる値に設定されている。したがって、勾配ベクトルGを定義する上では、これら軸方向ピッチの相違を補正する必要がある。補正項(Rxy/Rz)は、このような補正を行うための項である。なお、式(19)は、Z軸方向成分Gzを定義する式なので、補正項は1になる。 As shown in FIG. 2, the group of tomographic images 10 is configured as a stack of a large number of tomographic images arranged at predetermined intervals in the Z-axis direction. Here, the pitch of each tomographic image in the Z-axis direction corresponds to the imaging interval of the tomographic imaging apparatus 50 . On the other hand, the pitches in the X-axis direction and the Y-axis direction of pixels constituting one tomographic image are determined by the two-dimensional resolution of the tomographic image at the time of imaging. set equal. Therefore, in the embodiment shown here, the resolutions in the X-axis direction and the Y-axis direction of the voxels included in the voxel image 20 are set to the same value Rxy, and the resolution in the Z-axis direction Rz is different from Rxy. set to different values. Therefore, in defining the gradient vector G, it is necessary to correct for these differences in axial pitch. The correction term (Rxy/Rz) is a term for such correction. Note that the formula (19) is a formula that defines the Z-axis direction component Gz, so the correction term is 1.

要するに、ここに示す実施例の場合、レンダリング処理部180は、ある1つの着目ボクセルについて、そのX軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すX軸差分値と、Y軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すY軸差分値と、Z軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すZ軸差分値と、を算出し、X軸差分値にX軸方向ピッチに応じた係数(Rxy/Rz)を乗じた積をX軸方向成分Gxとし、Y軸差分値にY軸方向ピッチに応じた係数(Rxy/Rz)を乗じた積をY軸方向成分Gyとし、Z軸差分値にZ軸方向ピッチに応じた係数1を乗じた積をZ軸方向成分Gzとするベクトルを、当該着目ボクセルについての勾配ベクトルG(Gx,Gy,Gz)とする演算を行うことになる。 In short, in the case of the embodiment shown here, the rendering processing unit 180 generates an X-axis difference value indicating the difference in opacity between a pair of adjacent voxels arranged on both sides along the X-axis direction for a given voxel of interest. , a Y-axis difference value indicating the difference in opacity between a pair of adjacent voxels arranged on both sides along the Y-axis direction, and a difference in opacity between a pair of adjacent voxels arranged on both sides along the Z-axis direction is calculated, and the product of the X-axis difference value multiplied by the coefficient (Rxy/Rz) corresponding to the X-axis direction pitch is taken as the X-axis direction component Gx, and the Y-axis difference value is the Y-axis direction A vector having the Y-axis direction component Gy as the product of the product of the coefficient (Rxy/Rz) corresponding to the pitch and the Z-axis direction component Gz as the product of the Z-axis difference value multiplied by the coefficient 1 corresponding to the Z-axis direction pitch. , a gradient vector G (Gx, Gy, Gz) for the voxel of interest.

なお、勾配ベクトルG(Gx,Gy,Gz)の大きさGは、図21(b) の上段に示すように、
G=(Gx+Gy+Gz1/2 式(20)
で定義される。
The magnitude G of the gradient vector G (Gx, Gy, Gz) is, as shown in the upper part of FIG. 21(b),
G=(Gx 2 +Gy 2 +Gz 2 ) 1/2 Formula (20)
defined by

続いて、この勾配ベクトルG(Gx,Gy,Gz)を利用して、着目ボクセルV(x,y,z)についての輝度値E(x,y,z)が定義される。すなわち、輝度値E(x,y,z)は、図21(b) の中段に示すように、
E(x,y,z)=(1-Ab)(Gx・Lx+Gy・Ly+Gz・Lz)
/G + Ab 式(21)
で与えられる。
The gradient vector G(Gx, Gy, Gz) is then used to define the brightness value E(x, y, z) for the voxel of interest V(x, y, z). That is, the luminance value E(x, y, z) is, as shown in the middle part of FIG. 21(b),
E (x, y, z) = (1-Ab) (Gx · Lx + Gy · Ly + Gz · Lz)
/G + Ab Formula (21)
is given by

ここで、Abは、環境光成分係数であり、0≦Ab≦1なる範囲の値が設定される。この環境光成分係数Abは、図21(a) に示す平行照明光Lに起因しない環境光(たとえば、ボクセル自身が発した光)の成分の割合を示すものである。したがって、平行照明光Lが輝度値に寄与する割合は(1-Ab)になる。式(21)における項(Gx・Lx+Gy・Ly+Gz・Lz)は、勾配ベクトルと光源ベクトルとの内積に相当し、これを勾配ベクトルの大きさGで除した値が、平行照明光Lに起因した輝度値になる。最終的な輝度値E(x,y,z)は、平行照明光Lに起因した輝度値と環境光に起因した輝度値とを、環境光成分係数Abによる重み付けを行って加算した和として算出される。 Here, Ab is an ambient light component coefficient, and is set to a value in the range of 0≦Ab≦1. This ambient light component coefficient Ab indicates the ratio of components of ambient light (for example, light emitted by the voxel itself) not caused by the parallel illumination light L shown in FIG. 21(a). Therefore, the ratio of the contribution of the parallel illumination light L to the luminance value is (1-Ab). The term (Gx · Lx + Gy · Ly + Gz · Lz) in equation (21) corresponds to the inner product of the gradient vector and the light source vector, and the value obtained by dividing this by the magnitude G of the gradient vector was due to the parallel illumination light L luminance value. The final luminance value E (x, y, z) is calculated as the sum of the luminance value due to the parallel illumination light L and the luminance value due to the ambient light, weighted by the ambient light component coefficient Ab. be done.

なお、ボクセル画像20の外側端に位置する端部ボクセル(たとえば、図18に示す例の場合、各ボクセルプレーンの左右の端や前後の端に位置するボクセルや、最上ボクセルプレーンや最下ボクセルプレーンに位置するボクセル)については、外側に隣接するボクセルが存在しないため、これら端部ボクセルを着目ボクセルとすると、式(17)~式(19)の演算の一部もしくは全部を行うことができず、勾配ベクトルG(Gx,Gy,Gz)を求めることができない。そこで、これら端部ボクセルについては、便宜上、輝度値E(x,y,z)=0に設定すればよい。 Note that edge voxels located at the outer edges of the voxel image 20 (for example, in the case of the example shown in FIG. 18, voxels located at the left and right edges, the front and rear edges of each voxel plane, the top voxel plane, and the bottom voxel plane voxels located at ), there are no voxels adjacent to the outside. , the gradient vector G(Gx, Gy, Gz) cannot be determined. Therefore, for these edge voxels, the luminance value E(x, y, z) may be set to 0 for convenience.

こうして、個々のボクセルについて輝度値E(x,y,z)が算出されたら、図21(b) の下段に示すように、
Rnew(x,y,z)=E(x,y,z)・Rold(x,y,z) 式(22)
Gnew(x,y,z)=E(x,y,z)・Gold(x,y,z) 式(23)
Bnew(x,y,z)=E(x,y,z)・Bold(x,y,z) 式(24)
なる式に基づく演算が行われる。ここで、Rold(x,y,z),Gold(x,y,z),Bold(x,y,z)は、それぞれ陰影計算前の色値R,G,Bの値であり、Rnew(x,y,z),Gnew(x,y,z),Bnew(x,y,z)は、それぞれ陰影計算後の色値R,G,Bの値である。
After the brightness value E(x, y, z) is calculated for each voxel in this way, as shown in the lower part of FIG. 21(b),
R new (x, y, z)=E (x, y, z) R old (x, y, z) Equation (22)
G new (x, y, z) = E (x, y, z) · Gold (x, y, z) Equation (23)
B new (x, y, z)=E (x, y, z) Bold (x, y, z) Equation (24)
An operation based on the following formula is performed. Here, Rold (x, y, z), Gold (x, y, z), and Bold (x, y, z) are the color values R, G, and B before shading calculation, and Rnew ( x, y, z), Gnew (x, y, z), and Bnew (x, y, z) are the color values R, G, and B after shading calculation, respectively.

結局、本実施例に係るレンダリング処理部180は、ボクセル画像20を構成する個々のボクセルV(x,y,z)について、不透明度αの三次元勾配を示す勾配ベクトルG(Gx,Gy,Gz)を求め、所定方向を向いた光源ベクトルL(Lx,Ly,Lz)と勾配ベクトルG(Gx,Gy,Gz)との向きを考慮して輝度値E(x,y,z)を算出し、個々のボクセルの色値(R,G,B)に対して輝度値E(x,y,z)を乗じる補正を行う陰影付加処理を行い、この陰影付加処理を経た後のボクセル画像に基づいてボリュームレンダリング像30を生成することになる。 As a result, the rendering processing unit 180 according to the present embodiment creates a gradient vector G (Gx, Gy, Gz ), and the luminance value E (x, y, z) is calculated in consideration of the direction of the light source vector L (Lx, Ly, Lz) and the gradient vector G (Gx, Gy, Gz) pointing in a predetermined direction. , performs a shading process for correcting the color value (R, G, B) of each voxel by multiplying the luminance value E (x, y, z), and based on the voxel image after this shading process , the volume rendering image 30 is generated.

<4.2.3 ボリュームレンダリング段階>
続いて、図19の流れ図におけるボリュームレンダリング段階S6,S8についての説明を行う。いずれも、スムージング処理および陰影計算が施されたボクセル画像20(三次元画像モデル)を、所定の視線方向から観察した場合に得られる二次元のボリュームレンダリング像30を作成する処理であるが、既に述べたとおり、ボリュームレンダリング段階S6では、CPU版のプログラムを利用したレイキャスティング法による処理が実行され、ボリュームレンダリング段階S8では、GPU版のプログラムを利用した3Dテクスチャマッピング法による処理が実行される。いずれの処理も公知の処理であるので、ここでは、概要だけを簡単に説明しておく。
<4.2.3 Volume Rendering Stage>
Next, the volume rendering steps S6 and S8 in the flowchart of FIG. 19 will be described. Both are processes for creating a two-dimensional volume rendering image 30 obtained when a voxel image 20 (three-dimensional image model) that has undergone smoothing processing and shadow calculation (three-dimensional image model) is observed from a predetermined viewing direction. As described above, in the volume rendering stage S6, the ray casting method using the CPU version of the program is performed, and in the volume rendering stage S8, the 3D texture mapping method using the GPU version of the program is performed. Since any processing is well-known processing, only the outline will be briefly described here.

まず、ステップS6で実行されるレイキャスティング法によるボリュームレンダリング処理を、図22の基本概念図を用いて説明する。いま、図22(a) に示すように、ボクセル画像作成部170によって、XYZ三次元直交座標系上に配置されたボクセル集合体からなるボクセル画像20が作成されたものとし、オペレータによって設定された表示条件に基づき、図示する投影面P1上にボリュームレンダリング像30を生成する場合を考えてみる。図22(a) では、図の右方向にX軸、図の上方向にZ軸、図の紙面垂直方向にY軸、をそれぞれとったXYZ三次元直交座標系が示されている。投影面P1は、オペレータが指定された表示条件に基づいてその都度設定されるので、座標系に対して任意の方向を向いた平面になる。 First, volume rendering processing by the ray casting method executed in step S6 will be described using the basic conceptual diagram of FIG. Now, as shown in FIG. 22(a), it is assumed that the voxel image generator 170 has generated a voxel image 20 consisting of a set of voxels arranged on the XYZ three-dimensional orthogonal coordinate system, and the operator has set Consider a case where a volume rendering image 30 is generated on the projection plane P1 shown in the figure based on display conditions. FIG. 22(a) shows an XYZ three-dimensional orthogonal coordinate system in which the X axis is in the right direction of the figure, the Z axis is in the upper direction of the figure, and the Y axis is in the direction perpendicular to the paper surface of the figure. Since the projection plane P1 is set each time based on the display conditions specified by the operator, it is a plane oriented in an arbitrary direction with respect to the coordinate system.

レイキャスティング法の基本原理は、投影面P1上の投影点Fからボクセル画像20に向けて、投影面P1に直交する方向に仮想光線(図の一点鎖線の矢印)を照射し、この仮想光線上の各ボクセルについての色値および不透明度に基づいて算出される色値を、投影点Fに位置する画素の画素値として与えることにより、投影面P1上にボリュームレンダリング像30を生成するものである。より具体的には、まず、投影点Fから仮想光線に沿って、手前のボクセルから奥のボクセルへと順に不透明度αを参照して仮想光線の透過度合を計算してゆき、仮想光線がそこから先は届かなくなる最深点Dを求める。そして、今度は、仮想光線の経路を逆に辿り(図の実線の矢印)、最深点Dから投影点Fに向かって、個々のボクセルの不透明度αを考慮して、各ボクセルの色値(R,G,B)が投影点Fに与える影響を順次計算してゆき、最終的に、投影点Fの位置にある画素の色値(R,G,B)を決定する処理を行う。 The basic principle of the ray casting method is to irradiate a virtual ray (a dashed-dotted arrow in the figure) from a projection point F on the projection plane P1 toward the voxel image 20 in a direction orthogonal to the projection plane P1, and on this virtual ray A volume rendering image 30 is generated on the projection plane P1 by giving the color value calculated based on the color value and opacity for each voxel of , as the pixel value of the pixel located at the projection point F. . More specifically, first, along the virtual ray from the projection point F, the degree of transmission of the virtual ray is calculated from the front voxel to the back voxel in order with reference to the opacity α. Find the deepest point D that cannot be reached from the point onwards. Then, this time, following the path of the virtual ray in reverse (solid arrow in the figure), from the deepest point D to the projection point F, taking into account the opacity α of each voxel, the color value of each voxel ( (R, G, B)) on the projection point F is sequentially calculated, and finally the color value (R, G, B) of the pixel at the position of the projection point F is determined.

実用上は、このような処理の演算負担を軽減するため、所定の投影面P1上にボリュームレンダリング像30を生成する際に、XY平面が当該投影面P1に対して平行となるようにXYZ三次元直交座標系を回転させる座標変換を行うようにするのが好ましい。図22(b) は、このような座標変換後のボクセル画像25に対して、上述したレイキャスティング法を適用した例を示す図である。なお、図では便宜上、図22(a) に示す座標系と図22(b) に示す座標系が同じ方向を向いており、投影面P1の向きと投影面P2の向きとが異なるように描かれているが、実際には、座標系の方が回転しており、投影面P1および投影面P2は、同じ位置に同じ向きで配置されている。すなわち、図22(b) に示す座標系は、図22(a) に示す座標系を所定方向に回転させたものであり、座標変換後のボクセル画像25は、元のボクセル画像20に対して、座標系の回転に応じた座標変換を施した画像ということになる。 In practice, in order to reduce the computational burden of such processing, when generating the volume rendering image 30 on a predetermined projection plane P1, the XYZ cubic It is preferable to perform a coordinate transformation that rotates the original orthogonal coordinate system. FIG. 22(b) is a diagram showing an example in which the above-described ray casting method is applied to the voxel image 25 after such coordinate transformation. For the sake of convenience, the coordinate system shown in FIG. 22(a) and the coordinate system shown in FIG. 22(b) are drawn in the same direction, and the projection plane P1 and the projection plane P2 are drawn in different directions. However, in reality, the coordinate system is rotated, and the projection planes P1 and P2 are arranged at the same position and in the same direction. That is, the coordinate system shown in FIG. 22(b) is obtained by rotating the coordinate system shown in FIG. 22(a) in a predetermined direction. , is an image that has undergone coordinate transformation according to the rotation of the coordinate system.

このような座標変換を行っておけば、投影面P2はXY平面に平行な面になるので、この投影面P2上の投影点Fからボクセル画像25に向けて、投影面P2に直交する方向に仮想光線(図の一点鎖線の矢印)を照射した場合、当該仮想光線は、常にZ軸に平行な方向を向いた光線になる。したがって、上述したレイキャスティング法では、投影面P2上の投影点Fから座標変換後のボクセル画像25に対してZ軸に平行な方向に仮想光線を照射し、この仮想光線上の各ボクセルについての色値および不透明度に基づいて算出される色値を、投影点Fに位置する画素の画素値として与えることにより、ボリュームレンダリング像30を生成することができる。 If such coordinate transformation is performed, the projection plane P2 becomes a plane parallel to the XY plane. When a virtual ray (a dashed-dotted line arrow in the drawing) is irradiated, the virtual ray always becomes a ray parallel to the Z-axis. Therefore, in the above-described ray casting method, a virtual ray is irradiated from the projection point F on the projection plane P2 to the voxel image 25 after the coordinate transformation in a direction parallel to the Z axis, and each voxel on this virtual ray By giving the color values calculated based on the color values and the opacity as the pixel values of the pixels located at the projection point F, the volume rendering image 30 can be generated.

すなわち、図22(b) に示すように、座標変換後のボクセル画像25を用いてレイキャスティング法を実施すれば、仮想光線を用いて最深点Dを求めるプロセスや、この最深点Dから投影点Fに向かって、各ボクセルの色値(R,G,B)が投影点Fに与える影響を順次計算してゆくプロセスを、すべてZ軸に平行な方向に沿って行うことができるので、演算負担を大幅に軽減することができる。 That is, as shown in FIG. 22(b), if the ray casting method is performed using the voxel image 25 after coordinate transformation, the process of obtaining the deepest point D using virtual rays and the projection point D from this deepest point D can be performed. Since the process of sequentially calculating the effects of the color values (R, G, B) of each voxel on the projection point F toward F can be performed along the direction parallel to the Z-axis, the operation The burden can be greatly reduced.

続いて、ステップS8で実行される3Dテクスチャマッピング法によるボリュームレンダリング処理を、図23の基本概念図を用いて説明する。まず、図23(a) に示すように、XYZ三次元直交座標系上に多数のマッピング平面Mを用意する。このマッピング平面Mは、いずれもXY平面に平行な平面であり、Z軸方向に所定間隔をもって配置されている。そして、ボクセル画像作成部170によって作成されたボクセル画像20を、これら多数のマッピング平面M上に三次元テクスチャ画像としてマッピングする。図23(a) に示すマッピング平面M上の太線部分は、マッピングされた各テクスチャ画像のイメージを示している。 Next, the volume rendering processing by the 3D texture mapping method executed in step S8 will be explained using the basic conceptual diagram of FIG. First, as shown in FIG. 23(a), a large number of mapping planes M are prepared on the XYZ three-dimensional orthogonal coordinate system. All of the mapping planes M are planes parallel to the XY plane, and are arranged at predetermined intervals in the Z-axis direction. Then, the voxel images 20 created by the voxel image creation unit 170 are mapped onto these many mapping planes M as three-dimensional texture images. A thick line portion on the mapping plane M shown in FIG. 23(a) indicates an image of each mapped texture image.

この実施例においても、演算負担を軽減するために座標変換を行う。そこで、ここでも、オペレータによって設定された表示条件に基づき、図示する投影面P1上にボリュームレンダリング像30を生成する場合を考えてみる。この場合も、投影面がXY平面に平行な面になるように、座標系を回転させる座標変換を行う。図23(b) は、このような座標変換を行った後の状態を示しており、投影面P2は、XY平面に平行な平面になっている。 Also in this embodiment, coordinate transformation is performed to reduce the computational load. Therefore, again, consider the case where the volume rendering image 30 is generated on the projection plane P1 shown in the figure based on the display conditions set by the operator. In this case also, coordinate transformation is performed to rotate the coordinate system so that the projection plane is parallel to the XY plane. FIG. 23(b) shows the state after such coordinate conversion, and the projection plane P2 is a plane parallel to the XY plane.

ただ、ここに示す実施例の場合、マッピング平面Mは回転させずに元の位置にとどめるようにし、このマッピング平面Mにマッピングされていたテクスチャの方を回転させ、それに伴って投影面も回転させるようにしている。図23(a) に示すマッピング平面M上の太線部分と、図23(b) に示すマッピング平面M上の太線部分とが異なっているのは、マッピング対象となるテクスチャが回転させられたことを示している。もちろん、このようなテクスチャの回転も、第1の座標系から第2の座標系への座標変換演算によって実行することができる。 However, in the case of the embodiment shown here, the mapping plane M is not rotated and remains in its original position, the texture mapped on this mapping plane M is rotated, and the projection plane is also rotated accordingly. I'm trying The difference between the thick line portion on the mapping plane M shown in FIG. 23(a) and the thick line portion on the mapping plane M shown in FIG. 23(b) is that the texture to be mapped has been rotated. showing. Of course, such texture rotation can also be performed by a coordinate transformation operation from the first coordinate system to the second coordinate system.

前述したとおり、この3Dテクスチャマッピング法によるボリュームレンダリング処理は、グラフィック処理に特化したハードウェアであるGPUによって実行される。したがって、比較的高速な処理が期待できる。このため、投影面P2上の各投影点に位置する画素の色値(R,G,B)を決定する処理は、背面側のマッピング平面M(図23(b) の下方に示されているマッピング平面M)にマッピングされているテクスチャから、前面側のマッピング平面M(図23(b) の上方に示されているマッピング平面M)にマッピングされているテクスチャへと、1枚ずつ順番に、テクスチャ上の各ボクセルのボクセル値(R,G,B,α)を参照しながら、投影点に与える影響を累積する処理を実行すればよい。 As described above, volume rendering processing by this 3D texture mapping method is executed by the GPU, which is hardware specialized for graphic processing. Therefore, relatively high-speed processing can be expected. Therefore, the process of determining the color values (R, G, B) of the pixels positioned at the respective projection points on the projection plane P2 is performed on the rear mapping plane M (shown in the lower part of FIG. 23(b)). From the texture mapped on the mapping plane M) to the texture mapped on the mapping plane M on the front side (mapping plane M shown in the upper part of FIG. 23(b)), one by one, By referring to the voxel values (R, G, B, α) of each voxel on the texture, the process of accumulating the influence on the projection point may be executed.

結局、3Dテクスチャマッピング法によるボリュームレンダリング処理を行う場合、ボクセル画像作成部170が作成したボクセル画像20は、第1のXYZ三次元直交座標系上に配置されたボクセル集合体からなる三次元テクスチャ画像として取り扱われることになる。そして、レンダリング処理部180は、所定の投影面上にボリュームレンダリング像30を生成する際に、XY平面が当該投影面に対して平行となるような第2のXYZ三次元直交座標系を定義し、この第2のXYZ三次元直交座標系上に、XY平面に平行なマッピング平面MをZ軸方向に所定間隔をおいて複数定義し、第1のXYZ三次元直交座標系から第2のXYZ三次元直交座標系への座標変換を行うことにより、三次元テクスチャ画像を複数のマッピング平面Mにマッピングし、投影面上におけるXY座標値(x,y)を有する投影点の色値を、当該投影点から最も遠い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値から、最も近い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値までを、各画素の不透明度を考慮して順にブレンドして決定することにより、ボリュームレンダリング像30を生成することになる。 As a result, when performing volume rendering processing by the 3D texture mapping method, the voxel image 20 created by the voxel image creating unit 170 is a three-dimensional texture image composed of a set of voxels arranged on the first XYZ three-dimensional orthogonal coordinate system. will be treated as Then, when generating the volume rendering image 30 on a predetermined projection plane, the rendering processing unit 180 defines a second XYZ three-dimensional orthogonal coordinate system in which the XY plane is parallel to the projection plane. , on this second XYZ three-dimensional orthogonal coordinate system, a plurality of mapping planes M parallel to the XY plane are defined at predetermined intervals in the Z-axis direction, and from the first XYZ three-dimensional orthogonal coordinate system to the second XYZ A three-dimensional texture image is mapped onto a plurality of mapping planes M by performing coordinate transformation to a three-dimensional orthogonal coordinate system, and color values of projection points having XY coordinate values (x, y) on the projection plane are XY coordinate values (x, y) on the nearest mapping plane from the color value of the pixel mapped at the position of XY coordinate values (x, y) on the mapping plane farthest from the projection point The volume rendering image 30 is generated by sequentially blending and determining the color values of the pixels mapped to the positions in consideration of the opacity of each pixel.

このように、3Dテクスチャマッピング法によるボリュームレンダリング処理では、背面側から前面側へと、すべてのマッピング平面Mについての演算を行うため、背面側のマッピング平面Mについての演算結果は無駄になることも多いが、GPUによるハードウェア処理であるため、高速処理が可能になり、前述したように、リアルタイム表示が可能になる。 In this way, in volume rendering processing by the 3D texture mapping method, calculations are performed for all mapping planes M from the back side to the front side, so the calculation results for the mapping plane M on the back side may be wasted. Although there are many, since it is hardware processing by GPU, high-speed processing is possible, and as described above, real-time display is possible.

<<< §5. 本発明の付加的実施形態 >>>
これまで、図6に示す本発明の基本的実施形態に係るボリュームレンダリング装置100についての説明を行ってきたが、ここでは、本発明の付加的実施形態に係るボリュームレンダリング装置を説明する。
<<< §5. Additional Embodiments of the Invention >>>
Having thus far described the volume rendering device 100 according to the basic embodiment of the invention shown in FIG. 6, a volume rendering device according to an additional embodiment of the invention will now be described.

<5.1 基本的実施形態への付加>
図24は、本発明の付加的実施形態に係るボリュームレンダリング装置100′(カラーマップの最適化装置101を含む)の構成を示すブロック図である。図6に示す基本的実施形態に係る装置100と図24に示す付加的実施形態に係る装置100′との相違は、後者では、不透明度補正倍率設定部190が新たな構成要素として付加されている点と、前者のボクセル画像作成部170が後者ではボクセル画像作成部175に変更されている点だけである。そこで、以下、この変更点について説明する。
<5.1 Additions to Basic Embodiment>
FIG. 24 is a block diagram showing the configuration of a volume rendering device 100' (including a color map optimization device 101) according to an additional embodiment of the present invention. The difference between the device 100 according to the basic embodiment shown in FIG. 6 and the device 100' according to the additional embodiment shown in FIG. and that the former voxel image creation unit 170 is changed to the voxel image creation unit 175 in the latter. Therefore, this change will be described below.

§1.2「従来技術の問題点とその要因」では、不適切なボリュームレンダリング像が生成される要因として、3つの要因を説明した。このうち、第1の要因「視界ヒストグラムVHのオパシティカーブOCに対するズレ」については、§3.1において、フィッテイング法や平坦化法などを用いた視界ヒストグラム考慮補正部141による補正によって解決できることを示した。また、第2の要因「Weber-Fechnerの法則」については、§3.2において、一律累乗補正やS字累乗補正などを用いた累乗補正部142による補正によって解決できることを示した。ここで述べる付加的実施形態は、第3の要因「近接信号値をもつ別体の混在」に対する解決策を提案するものである。 In §1.2 “Problems of the Prior Art and Their Factors”, three factors have been explained as factors for generating an inappropriate volume rendering image. Of these factors, the first factor, "deviation of the field of view histogram VH with respect to the opacity curve OC", is described in §3.1 as being able to be resolved by correction by the field of view histogram consideration correction unit 141 using a fitting method, a flattening method, or the like. Indicated. As for the second factor "Weber-Fechner's law", it was shown in §3.2 that it can be solved by correction by the power correction unit 142 using uniform power correction, S-curve power correction, or the like. Additional embodiments described herein propose a solution to the third factor, "mixing of different bodies with proximity signal values".

既に述べたとおり、断層画像に含まれる画素の信号値は、内臓、骨、皮膚、筋肉、脂肪などの組織ごとに、それぞれ分布範囲が異なっている。そこで、特定の観察対象に適したボリュームレンダリング像30を作成するために、当該観察対象に対応した固有の信号値分布範囲に隆起部分を有するオパシティカーブOCを用いて、当該観察対象を選択的に表示させる手法が採られている。 As described above, the signal values of pixels included in a tomographic image have different distribution ranges for each tissue such as internal organs, bones, skin, muscle, and fat. Therefore, in order to create a volume rendering image 30 suitable for a specific observation target, an opacity curve OC having a raised portion in a signal value distribution range specific to the observation target is used to selectively A display method is used.

しかしながら、実際には、観察対象とは異なる別組織、あるいは、空気や水などの体内物質の中には、信号値の分布範囲が近接している別体が存在する。断層画像撮影装置50による撮影を行う際に用いた寝台や固定ベルトなどについても同様である。このように、近接信号値をもつ別体が混在していると、ボリュームレンダリング像30上には、観察対象とともに当該別体が混在した状態で表示され、結果的に、観察対象を観察する上で不適切な表示がなされてしまう。特に、§3で述べた方法でカラーマップの最適化を行うと、観察対象となる臓器の解像度が改善されるものの、寝台、体表領域(皮膚、筋肉、脂肪など)の解像度も合わせて改善され、結果的に目的とする臓器領域が不鮮明になってしまうこともある。 However, in reality, there are different bodies whose signal value distribution ranges are close to each other in tissues other than the observation target or in internal substances such as air and water. The same applies to the bed, fixing belt, and the like used when performing imaging with the tomographic imaging apparatus 50 . In this way, when different objects having proximity signal values coexist, on the volume rendering image 30, the different objects are displayed together with the observation object, and as a result, the observation object is difficult to observe. is displayed incorrectly. In particular, optimizing the color map using the method described in §3 improves the resolution of the organs to be observed, but also improves the resolution of the bed and body surface areas (skin, muscle, fat, etc.). This may result in the target organ region being obscured.

ここで述べる付加的実施形態は、このような問題を解決するための新たな提案を行うものであり、その基本概念は、「信号値の分布範囲ではなく、三次元空間上の位置によって観察対象を限定する」という考え方に基づくものである。 The additional embodiments described here are new proposals for solving such problems, and the basic concept thereof is "the position of the observation object in the three-dimensional space, not the distribution range of the signal value. It is based on the idea that

たとえば、人体の肺を観察対象とした場合、信号値の分布範囲で肺を限定するには、肺組織についての信号値分布範囲に隆起部分を有する肺観察用のオパシティカーブOCに基づくふるいをかけることになるが、肺組織に近似した信号値分布範囲をもつ別体が存在した場合、ボリュームレンダリング像30上には肺だけでなく当該別体も混在してしまう。これに対して、三次元空間上における肺の占有位置に基づくふるいをかければ、肺から離れた別体が混在することを防ぐことができる。ここで述べる付加的実施形態は、オパシティカーブOCに基づくふるいに加えて、更に、三次元空間上の位置に基づくふるいを用いるようにし、近接信号値をもつ別体の混在を抑制するものである。 For example, when the observation target is the lungs of a human body, in order to limit the lungs in the signal value distribution range, a sieve based on the lung observation opacity curve OC having a raised portion in the signal value distribution range of the lung tissue is applied. However, if there is another object having a signal value distribution range similar to that of the lung tissue, the volume rendering image 30 includes not only the lung but also the other object. On the other hand, sifting based on the position occupied by the lungs in the three-dimensional space can prevent the mixture of different bodies distant from the lungs. An additional embodiment described here uses a sieve based on the position in the three-dimensional space in addition to the sieve based on the opacity curve OC, and suppresses the mixture of different objects with proximity signal values. .

そのため、図24に示すボリュームレンダリング装置100′には、不透明度補正倍率設定部190が設けられており、ボクセル画像作成部175は、カラーマップの最適化装置101から与えられる補正カラーマップCC(オパシティカーブOCに基づくふるい)とともに、不透明度補正倍率設定部190に設定された不透明度補正倍率ξ(三次元空間上の位置に基づくふるい)を参照して、ボクセル画像20を作成する機能を有している。 For this reason, the volume rendering device 100' shown in FIG. 24 is provided with an opacity correction magnification setting unit 190, and the voxel image creation unit 175 uses the correction color map CC (opacity sieve based on the curve OC) and the opacity correction magnification ξ set in the opacity correction magnification setting unit 190 (sieve based on the position in the three-dimensional space) to create the voxel image 20. ing.

不透明度補正倍率設定部190には、三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率ξが設定されており、ボクセル画像作成部175は、個々のボクセルにボクセル値を付与する際に、補正カラーマップCCによって示される不透明度αに、当該ボクセルの位置に応じて設定されている不透明度補正倍率ξを乗じる倍率補正を行い、この倍率補正後の不透明度αを含むボクセル値を当該ボクセルに付与する処理を行う。 A predetermined opacity correction magnification ξ is set in the opacity correction magnification setting unit 190 according to the position in the three-dimensional space. Then, the opacity α indicated by the corrected color map CC is multiplied by the opacity correction magnification ξ set according to the position of the voxel, and the voxel value including the opacity α after this magnification correction is A process to be assigned to the voxel is performed.

図18に示すように、ボクセル画像作成部170は、各断層画像11~18に対応するボクセルプレーン11v~18vをそれぞれXY平面に平行になるように配置し、各ボクセルプレーン11v~18vに、各断層画像の画素S(x,y,z)に対応するボクセルV(x,y,z)を定義して、XYZ三次元直交座標系上に三次元配列されたボクセル集合体からなるボクセル画像20を作成する。 As shown in FIG. 18, the voxel image generating unit 170 arranges voxel planes 11v to 18v corresponding to the tomographic images 11 to 18 so as to be parallel to the XY plane, and each voxel plane 11v to 18v A voxel image 20 consisting of a set of voxels arranged three-dimensionally on an XYZ three-dimensional orthogonal coordinate system by defining a voxel V (x, y, z) corresponding to a pixel S (x, y, z) of a tomographic image. to create

ここでは、人体を撮影対象として、人体の背骨に沿った方向にZ軸、人体の左右方向にX軸、人体の前後方向にY軸、をそれぞれ定義した断層画像群10が与えられたものとしよう。この場合、1枚の断層画像は、図1(b) に例示するように、人体を輪切りにしたXY平面に平行な断面についての画像になり、人体の輪郭形状は、X軸方向を長軸、Y軸方向を短軸とする楕円に近いものになる。もちろん、図18に示すボクセル画像20の各座標軸も断層画像と同様の方向に定義される。また、ここでは、図18に示す例のように、XY座標系の第1象限にボクセルが配置されているものとする。 Here, it is assumed that a tomographic image group 10 is given, with the human body as an object to be imaged, with the Z axis along the spine of the human body, the X axis in the lateral direction of the human body, and the Y axis in the longitudinal direction of the human body. specification. In this case, one tomographic image is an image of a cross section parallel to the XY plane obtained by slicing the human body, as shown in FIG. 1(b). , is close to an ellipse with the minor axis in the Y-axis direction. Of course, each coordinate axis of the voxel image 20 shown in FIG. 18 is also defined in the same direction as the tomographic image. Also, here, as in the example shown in FIG. 18, it is assumed that voxels are arranged in the first quadrant of the XY coordinate system.

図25は、このような座標軸定義およびボクセル画像配置を考慮に入れて、図24に示す不透明度補正倍率設定部190に設定された不透明度補正倍率ξの具体例を示す図である。図25(a) は、XY平面に平行な1枚のボクセルプレーンを示しており、図の左右方向にX軸(人体の左右方向)、図の上下方向にY軸(人体の前後方向)がとられている。上述したように、このボクセルプレーン上の各ボクセルは、第1象限に配置されており、その座標値x,yは、いずれも正の値をとる。 FIG. 25 is a diagram showing a specific example of the opacity correction magnification ξ set in the opacity correction magnification setting unit 190 shown in FIG. 24, taking into account such coordinate axis definition and voxel image arrangement. FIG. 25(a) shows one voxel plane parallel to the XY plane. is taken. As described above, each voxel on this voxel plane is arranged in the first quadrant, and its coordinate values x and y are both positive values.

このボクセルプレーンの中央に示されている黒丸は、基準貫通線Uの断面を示している。この基準貫通線Uは、ボクセル画像20を構成する複数のボクセルプレーンを貫通し、Z軸に平行な直線である。図示の例の場合、基準貫通線Uは、横サイズSx,縦サイズSyをもつボクセルプレーンの中心点を貫通する直線になっているが、観察対象となる臓器に応じて、任意の位置に定義することができる。また、この図25(a) に示すボクセルプレーンには、基準貫通線Uの貫通位置を中心点として、多数の同心楕円Wが定義されている。ここに示す実施例では、この同心楕円Wに基づいて所定の不透明度補正倍率ξが設定される。このような設定は、人体を撮影対象とする断層画像群10に基づいて、特定の臓器を観察対象とする場合に最適である。 The black circle shown in the center of this voxel plane indicates the cross section of the reference through line U. As shown in FIG. This reference penetration line U is a straight line parallel to the Z-axis that penetrates a plurality of voxel planes forming the voxel image 20 . In the illustrated example, the reference penetration line U is a straight line passing through the center point of the voxel plane having the horizontal size Sx and the vertical size Sy, but it can be defined at any position according to the organ to be observed. can do. In the voxel plane shown in FIG. 25(a), a large number of concentric ellipses W are defined with the penetrating position of the reference penetrating line U as the center point. In the embodiment shown here, a predetermined opacity correction magnification ξ is set based on this concentric ellipse W. Such a setting is optimal when a specific organ is to be observed based on the tomographic image group 10 of the human body.

たとえば、内側から第i番目の同心楕円Wiに近接するボクセルには、当該同心楕円Wiに対応づけられた第i番目の不透明度補正倍率ξiを適用し、当該ボクセルに付与する不透明度αに対して、不透明度補正倍率ξiを用いた補正を行うようにすればよい。そうすれば、各ボクセルの三次元空間上の位置に応じて不透明度αを補正することができ、三次元空間上の位置によって観察対象を限定することができるようになる。ここで、同心円ではなく、同心楕円を用いて不透明度補正倍率ξを設定するのは、人体の輪切り画像が、図1(b) に例示するように楕円を基準とした画像になるためである。 For example, to voxels close to the i-th concentric ellipse Wi from the inside, the i-th opacity correction magnification ξi associated with the concentric ellipse Wi is applied, and the opacity α given to the voxel is Then, correction using the opacity correction magnification ξi may be performed. Then, the opacity α can be corrected according to the position of each voxel in the three-dimensional space, and the observation target can be limited according to the position in the three-dimensional space. Here, the reason why the opacity correction magnification ξ is set using a concentric ellipse instead of a concentric circle is that the sliced image of the human body becomes an image based on the ellipse as shown in FIG. 1(b). .

もっとも、不透明度補正倍率設定部190は、必ずしも同心楕円を用いて不透明度補正倍率ξを設定する必要はなく、X軸方向に関する距離と、Y軸方向に関する距離とを別々に考慮して不透明度補正倍率ξを設定できるようにすればよい。すなわち、複数のボクセルプレーンを貫通し、Z軸に平行な基準貫通線Uを所定位置に定義した上で、個々のボクセルについて、当該ボクセルと基準貫通線UとのX軸方向に関する距離およびY軸方向に関する距離に応じた不透明度補正倍率ξを設定できればよい。 However, the opacity correction magnification setting unit 190 does not necessarily have to use a concentric ellipse to set the opacity correction magnification ξ, and sets the opacity by separately considering the distance in the X-axis direction and the distance in the Y-axis direction. It is sufficient that the correction magnification ξ can be set. That is, after defining a reference penetration line U that penetrates a plurality of voxel planes and is parallel to the Z-axis at a predetermined position, for each voxel, the distance between the voxel and the reference penetration line U in the X-axis direction and the Y-axis It suffices if the opacity correction magnification ξ can be set according to the distance in the direction.

たとえば、図25(a) に示す点P(x,y)の位置に配置されたボクセルについては、点P(x,y)と基準貫通線Uとの単純な幾何学的距離に基づいて不透明度補正倍率ξを設定するのではなく、点P(x,y)と基準貫通線UとのX軸方向に関する距離と、点P(x,y)と基準貫通線UとのY軸方向に関する距離と、を別個に考慮して、不透明度補正倍率ξを設定すればよい。図示の例の場合、Y軸方向に関する距離に重みをおいた設定を行えば、同心楕円を用いた設定に近い設定を行うことができる。 For example, for a voxel placed at the position of point P(x, y) shown in FIG. Instead of setting the transparency correction magnification ξ, the distance between the point P (x, y) and the reference penetration line U in the X-axis direction and the distance between the point P (x, y) and the reference penetration line U in the Y-axis direction It is sufficient to set the opacity correction magnification ξ by separately considering the distance and . In the case of the illustrated example, setting weighting the distance in the Y-axis direction enables setting close to setting using concentric ellipses.

実用上は、同心楕円を用いた設定を行うのが好ましい。すなわち、不透明度補正倍率設定部190は、個々のボクセルプレーン上に、所定の縦横比率をもち基準貫通線Uとの交点を中心点とし、X軸に平行な長軸とY軸に平行な短軸を有する複数の同心楕円Wを定義し、同一の楕円上に位置するボクセルには同一の不透明度補正倍率ξを設定すればよい。このとき、中心点に近い楕円ほど大きな不透明度補正倍率ξを設定するようにする。そうすれば、中心点(基準貫通線U)に近い位置に配置されたボクセルほど、より大きな不透明度αが付与されるようになり、中心点付近に位置する観察対象となる臓器を選択的に表示することができるようになる。 Practically, it is preferable to set using concentric ellipses. That is, the opacity correction magnification setting unit 190 sets a long axis parallel to the X-axis and a short axis parallel to the Y-axis on each voxel plane with a predetermined vertical-to-horizontal ratio and a central point at the intersection with the reference penetration line U. A plurality of concentric ellipses W having axes may be defined, and the same opacity correction magnification ξ may be set for voxels located on the same ellipse. At this time, a larger opacity correction magnification ξ is set for an ellipse closer to the center point. Then, a voxel located closer to the center point (reference penetration line U) is given a higher opacity α, and an organ to be observed located near the center point is selectively selected. be able to display.

不透明度補正倍率設定部190により、ボクセルプレーン上の任意の点P(x,y)についての不透明度補正倍率ξ(x,y)が設定されていれば、ボクセル画像作成部175は、任意のボクセルV(x,y,z)について不透明度αを付与する際に、点P(x,y)について設定された不透明度補正倍率ξ(x,y)を用いた補正を行うことができる。なお、ここに示す実施例の場合、不透明度補正倍率ξ(x,y)は、図25(a) に示すように、XY平面に平行な任意のボクセルプレーン上の点P(x,y)について設定されるものなので、ボクセルV(x,y,z)についての不透明度補正倍率は、その座標値zに関わらず常にξ(x,y)になる。 If the opacity correction magnification setting unit 190 sets the opacity correction magnification ξ(x, y) for an arbitrary point P(x, y) on the voxel plane, the voxel image generation unit 175 When giving opacity α to voxel V(x, y, z), correction using opacity correction magnification ξ(x, y) set for point P(x, y) can be performed. In the case of the embodiment shown here, as shown in FIG. 25(a), the opacity correction magnification ξ(x, y) is the point P(x, y) on any voxel plane parallel to the XY plane. , the opacity correction magnification for voxel V(x, y, z) is always ξ(x, y) regardless of its coordinate value z.

ボクセル画像作成部175において行われる不透明度補正倍率ξ(x,y)を用いた倍率補正は、図25(b) に示すように、
αnew(x,y)=ξ(x,y)・αold(x,y) 式(25)
なる式によって行うことができる。ここで、αold(x,y)は、倍率補正前の旧不透明度、すなわち、補正オパシティカーブOCCを参照することにより得られた信号値S(x,y,z)に対応する不透明度であり、αnew(x,y)は、倍率補正後の新不透明度である。新不透明度αnew(x,y)は、旧不透明度αold(x,y)に、不透明度補正倍率ξ(x,y)を乗じることにより得られる。
Magnification correction using the opacity correction magnification ξ(x, y) performed in the voxel image generation unit 175 is as shown in FIG.
α new (x, y) = ξ (x, y) · α old (x, y) Equation (25)
It can be done by the following formula. Here, α old (x, y) is the old opacity before magnification correction, that is, the opacity corresponding to the signal value S (x, y, z) obtained by referring to the corrected opacity curve OCC. , α new (x, y) is the new opacity after magnification correction. The new opacity α new (x, y) is obtained by multiplying the old opacity α old (x, y) by the opacity correction magnification ξ(x, y).

上述した同心楕円を用いた不透明度補正倍率ξ(x,y)の設定は、実際には、図25(b) に示すように、
ξ(x,y)=1-k・r(x,y)/R 式(26)
なる式で行うことができる。
The setting of the opacity correction magnification ξ(x, y) using the concentric ellipse described above is actually as shown in FIG.
ξ(x, y)=1−k・r(x, y)/R formula (26)
It can be done with the following formula.

ここで、ξ(x,y)は、図25(a) に示す点P(x,y)に位置するボクセルに適用すべき不透明度補正倍率であり、r(x,y)は、基準貫通線Uと点P(x,y)との縦横の重みを考慮した加重距離である。この加重距離r(x,y)は、
r(x,y)=((Sx/2-x)/n)+(Sy/2-y) 式(27)
なる式によって定義される。
where ξ(x,y) is the opacity correction factor to be applied to the voxel located at point P(x,y) shown in FIG. It is a weighted distance considering the vertical and horizontal weights of the line U and the point P(x, y). This weighted distance r(x, y) is
r (x, y) = ((Sx/2-x)/n) 2 + (Sy/2-y) 2 Formula (27)
is defined by the expression

図25(a) に示す例では、基準貫通線Uが、横サイズSx,縦サイズSyをもつボクセルプレーンの中心点を貫通する直線になっているので、式(27)における「Sx/2」は基準貫通線UのX座標値、「Sy/2」は基準貫通線UのY座標値を示している。nは、同心楕円Wの長短軸比であり、X軸方向長/Y軸方向長で与えられる。図25(a) に描かれている同心楕円Wは、n=2に設定した例であり、X軸に沿った長軸の長さは、Y軸に沿った短軸の長さの2倍になっている。式(27)における右辺第1項に除数としてnが入っているのは、点P(x,y)と基準貫通線UとのX軸方向に関する距離に比べて、点P(x,y)と基準貫通線UとのY軸方向に関する距離の方に2倍の重み付けを行うためである。 In the example shown in FIG. 25(a), the reference penetration line U is a straight line passing through the center point of the voxel plane having the horizontal size Sx and the vertical size Sy. indicates the X-coordinate value of the reference penetration line U, and "Sy/2" indicates the Y-coordinate value of the reference penetration line U. n is the major axis ratio of the concentric ellipse W and is given by the length in the X-axis direction/the length in the Y-axis direction. The concentric ellipse W drawn in FIG. 25(a) is an example where n=2 and the length of the major axis along the X axis is twice the length of the minor axis along the Y axis. It has become. The first term on the right side of equation (27) contains n as a divisor because the distance between the point P(x, y) and the reference penetration line U in the X-axis direction is greater than that of the point P(x, y). This is because the distance in the Y-axis direction between U and the reference penetration line U is weighted twice.

このように、式(27)で定義されるr(x,y)は、単純な幾何学的距離ではなく、Y軸方向に関する距離にn倍の重み付けをした加重距離ということになる。 Thus, r(x, y) defined by Equation (27) is not a simple geometric distance, but a weighted distance obtained by weighting the distance in the Y-axis direction by n times.

また、式(26)内のRは、加重基準距離であり、
R=((Sx/2)/n)+(Sy/2) 式(28)
なる式によって定義される。この式(28)における「Sx/2」は基準貫通線UのX座標値、「Sy/2」は基準貫通線UのY座標値を示しているので、加重基準距離は、図25(a) に示す基準貫通線Uと原点Oとの加重距離(やはり、Y軸方向に関する距離にn倍の重み付けをしたもの)ということになる。
Also, R in formula (26) is a weighted reference distance,
R=((Sx/2)/n) 2 +(Sy/2) 2 Equation (28)
is defined by the expression Since "Sx/2" in this equation (28) indicates the X coordinate value of the reference penetration line U, and "Sy/2" indicates the Y coordinate value of the reference penetration line U, the weighted reference distance is calculated as shown in FIG. ) is the weighted distance between the reference through line U and the origin O shown in FIG.

結局、式(26)における「r(x,y)/R」なる項は、加重基準距離Rを基準にしたときの点P(x,y)の加重距離(重み付けを行った基準貫通線Uからの距離)を示しており、点P(x,y)が基準貫通線Uから離れれば離れるほど、「r(x,y)/R」の値は大きくなる。式(26)で定義される不透明度補正倍率ξ(x,y)は、この「r(x,y)/R」に係数kを乗じた値を1から減じることにより算出される。ここで、kは減衰係数であり、kを大きく設定すると、距離に応じて不透明度補正倍率ξ(x,y)の値が減衰する度合いが大きくなる。 As a result, the term "r(x, y)/R" in equation (26) is the weighted distance (weighted reference penetration line U ), and the farther the point P(x, y) is from the reference penetration line U, the larger the value of "r(x, y)/R". The opacity correction magnification ξ(x, y) defined by Equation (26) is calculated by subtracting from 1 the value obtained by multiplying this "r(x, y)/R" by the coefficient k. Here, k is an attenuation coefficient, and when k is set large, the degree of attenuation of the value of the opacity correction magnification ξ(x, y) increases according to the distance.

なお、不透明度補正倍率ξ(x,y)を式(26)で定義すると、ξ(x,y)<0になることがあるが、式(26)においてξ(x,y)<0になる場合には、ξ(x,y)=0に設定する。そうすれば、ξ(x,y)は、常に0≦ξ(x,y)≦1なる範囲の値になる。減衰係数kの値は任意に設定することができるが、本願発明者が行った実験では、k=2.0に設定したところ、撮影時に用いた寝台が不可視になり、k=3.0に設定すると、体表の皮膚、筋肉、脂肪と、背骨および肋骨の一部が不可視になった。式(26)を用いれば、不透明度補正倍率ξ(x,y)が、楕円の長軸もしくは短軸の長さの2乗に反比例して減衰するような設定ができる。このような設定では、人体を撮影対象とする断層画像群10に基づいて、特定の臓器を観察対象として表示する場合に、非常に好ましい結果が得られた。 If the opacity correction magnification ξ(x, y) is defined by equation (26), ξ(x, y)<0 may occur. If so, set ξ(x,y)=0. Then ξ(x, y) will always be in the range of 0≦ξ(x, y)≦1. The value of the attenuation coefficient k can be set arbitrarily. When set, skin, muscle, fat on the body surface, and parts of the spine and ribs became invisible. Using equation (26), the opacity correction magnification ξ(x, y) can be set to attenuate in inverse proportion to the square of the length of the major axis or minor axis of the ellipse. With such a setting, a very favorable result was obtained when displaying a specific organ as an observation target based on the tomographic image group 10 of the human body as an imaging target.

以上、式(26)に例示するように、Z軸に平行な基準貫通線Uに対するX軸方向およびY軸方向への距離の関数として与えられる値ξ(x,y)を、ボクセルV(x,y,z)についての不透明度補正倍率ξとして採用する例を述べた。もっとも、補正倍率ξは、ボクセルVの位置に応じた値として定義できればよいので、この他にも様々な方法で定義することが可能である。たとえば、ボクセルVのZ軸方向に関する位置に応じて補正倍率ξを変えることもできる。具体的には、上述した実施例に、更に、ボクセルV(x,y,z)のZ軸方向に関する位置を考慮して、ξ(x,y,z)なる補正倍率ξを定義してもよい。あるいは、断層画像群を構成する個々の画素S(x,y,z)のもつ信号値Sに基づいて、各断層画像内の所定の対象物の形状を推定し、この推定した形状をもつ対象物の外側に対して、内側よりも小さな補正倍率ξを設定することも可能である。 As described above, as exemplified in equation (26), the value ξ(x, y) given as a function of the distance in the X-axis direction and the Y-axis direction from the reference penetration line U parallel to the Z-axis is expressed as the voxel V(x , y, z) as the opacity correction scaling factor ξ. However, since it is sufficient if the correction magnification ξ can be defined as a value corresponding to the position of the voxel V, it can be defined by various other methods. For example, the correction magnification ξ can be changed according to the position of the voxel V in the Z-axis direction. Specifically, in the above-described embodiment, a correction magnification ξ of ξ(x, y, z) may be defined in consideration of the position of the voxel V(x, y, z) in the Z-axis direction. good. Alternatively, based on the signal value S of each pixel S (x, y, z) constituting the tomographic image group, the shape of a predetermined object in each tomographic image is estimated, and the object having the estimated shape It is also possible to set a smaller correction magnification ξ for the outside of the object than for the inside.

<5.2 独立した実施形態>
図24に示すボリュームレンダリング装置100′には、カラーマップの最適化装置101とともに、不透明度補正倍率設定部190およびボクセル画像作成部175が設けられており、カラーマップの最適化装置101によって最適化された補正オパシティカーブOCCを用いて信号値Sを不透明度αに変換した後、得られた不透明度αに対して補正倍率ξを用いた倍率補正を行っている。しかしながら、この補正倍率ξを用いた倍率補正は、必ずしもカラーマップの最適化装置101と組み合わせて用いる必要はなく、それ単独で用いることも可能である。
<5.2 Independent Embodiment>
The volume rendering device 100' shown in FIG. After converting the signal value S into the opacity α using the corrected opacity curve OCC, the obtained opacity α is subjected to magnification correction using the correction magnification ξ. However, the magnification correction using this correction magnification ξ does not necessarily need to be used in combination with the color map optimization device 101, and can be used alone.

たとえば、図24に示すボリュームレンダリング装置100′において、カラーマップの最適化装置101を設けずに、カラーマップ格納部161やカラーマップ作成部162で用意されたカラーマップC(あるいは、外部装置から入力したカラーマップC)をボクセル画像作成部175に与え、断層画像撮影装置50から与えられる断層画像群10を構成する各画素の信号値S(x,y,z)を、上記カラーマップC内のオパシティカーブOCを用いて不透明度αに変換した後、この変換後の不透明度αに対して、不透明度補正倍率設定部190で設定された不透明度補正倍率ξ(x,y)を用いた倍率補正を施して、ボクセル画像20を作成することもできる。 For example, in the volume rendering device 100' shown in FIG. The resulting color map C) is given to the voxel image generator 175, and the signal values S (x, y, z) of each pixel constituting the tomographic image group 10 given from the tomographic imaging apparatus 50 are converted into After conversion to opacity α using the opacity curve OC, a magnification using the opacity correction magnification ξ(x, y) set by the opacity correction magnification setting unit 190 for the converted opacity α A voxel image 20 can also be created with corrections.

このように、不透明度補正倍率ξ(x,y)を用いた倍率補正の機能は、断層画像撮影装置50によって撮影された断層画像群10および所定のカラーマップに基づいてボリュームレンダリング像30を生成する機能をもった断層画像表示用ボリュームレンダリング装置に広く利用することができる。 As described above, the function of magnification correction using the opacity correction magnification ξ(x, y) generates the volume rendering image 30 based on the tomographic image group 10 captured by the tomographic imaging apparatus 50 and a predetermined color map. It can be widely used in a volume rendering apparatus for tomographic image display having a function of

このような断層画像表示用ボリュームレンダリング装置に必須の構成要素は、次の(i) ~(v) である。
(i) 所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値Sが付与された画素の二次元配列として入力する断層画像入力部
(ii) 所定範囲内の信号値Sに対して、それぞれ不透明度αを対応づけたオパシティカーブOCと、それぞれ所定の色値(R,G,B)を対応づけたカラーパレットCPと、を含むカラーマップCを提供するカラーマップ提供部
(iii) 三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率ξを設定する不透明度補正倍率設定部
(iv) 断層画像入力部が入力した複数の断層画像の各画素に付与された信号値Sを、カラーマップ提供部から提供されるカラーマップCおよび不透明度補正倍率設定部に設定された不透明度補正倍率ξを用いて、所定の色値(R,G,B)および不透明度αを示すボクセル値(R,G,B,α)に変換し、断層画像の各画素位置に定義された各ボクセルに上記ボクセル値を付与することにより、三次元空間上に配置されたボクセルV(x,y,z)の集合体からなるボクセル画像を作成するボクセル画像作成部
(v) 所定の視線方向から上記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理部
Components (i) to (v) below are essential for such a volume rendering apparatus for displaying tomographic images.
(i) A tomographic image input unit for inputting a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value S.
(ii) including an opacity curve OC in which opacity α is associated with each signal value S within a predetermined range, and a color palette CP in which predetermined color values (R, G, B) are associated with each other; A color map provider that provides color map C
(iii) an opacity correction magnification setting unit that sets a predetermined opacity correction magnification ξ according to the position in the three-dimensional space;
(iv) The signal value S given to each pixel of the plurality of tomographic images input by the tomographic image input unit is converted to the color map C provided by the color map providing unit and the opacity set in the opacity correction magnification setting unit. Using the correction magnification ξ, the color values (R, G, B) and the voxel values (R, G, B, α) indicating the opacity α are converted into voxel values (R, G, B, α). A voxel image creation unit that creates a voxel image consisting of a set of voxels V (x, y, z) arranged in a three-dimensional space by assigning the voxel values to the voxels.
(v) a rendering processing unit that generates a volume rendering image showing a state in which the voxel image is observed from a predetermined line-of-sight direction as a two-dimensional image;

ここで、ボクセル画像作成部は、個々のボクセルV(x,y,z)にボクセル値(R,G,B,α)を付与する際に、カラーマップCによって示される不透明度αoldに、当該ボクセルの位置に応じて設定されている不透明度補正倍率ξを乗じる補正を行い、補正後の不透明度αnewを含むボクセル値を当該ボクセルに付与する処理を行えばよい。 Here, when the voxel image creation unit assigns voxel values (R, G, B, α) to individual voxels V (x, y, z), the opacity αold indicated by the color map C is added to the corresponding Correction is performed by multiplying the opacity correction magnification ξ that is set according to the position of the voxel, and the voxel value including the post-correction opacity αnew is given to the voxel.

より具体的には、上記実施例の場合、上記断層画像表示用ボリュームレンダリング装置において、ボクセル画像作成部が、複数の断層画像をそれぞれXY平面に平行となるように配置して、XYZ三次元直交座標系上に配置されたボクセル集合体からなるボクセル画像を作成するようにし、不透明度補正倍率設定部が、複数の断層画像を貫通するZ軸に平行な基準貫通線Uを所定位置に定義し、個々のボクセルV(x,y,z)について、当該ボクセルと基準貫通線UとのX軸方向に関する距離およびY軸方向に関する距離に応じた不透明度補正倍率ξ(x,y)を設定するようにすればよい。 More specifically, in the case of the above-described embodiment, in the above-described tomographic image display volume rendering device, the voxel image creating unit arranges a plurality of tomographic images so as to be parallel to the XY plane, and converts them into XYZ three-dimensional orthogonal A voxel image composed of a set of voxels arranged on a coordinate system is created, and an opacity correction magnification setting unit defines a reference penetration line U parallel to the Z-axis penetrating a plurality of tomographic images at a predetermined position. , for each voxel V(x, y, z), set the opacity correction magnification ξ(x, y) according to the distance in the X-axis direction and the distance in the Y-axis direction between the voxel and the reference penetration line U You should do it like this.

実用上は、図25(a) に示すような同心楕円Wを利用してξ(x,y)を設定するのが好ましい。すなわち、不透明度補正倍率設定部は、個々の断層画像上に、所定の縦横比率をもち基準貫通線Uとの交点を中心点とし、X軸に平行な長軸とY軸に平行な短軸を有する複数の同心楕円Wを定義し、同一の楕円W上に位置するボクセルV(x,y,z)には同一の不透明度補正倍率ξ(x,y)を設定し、かつ、中心点に近い楕円ほど大きな不透明度補正倍率ξ(x,y)を設定すればよい。 Practically, it is preferable to set .xi.(x, y) using a concentric ellipse W as shown in FIG. 25(a). That is, the opacity correction magnification setting unit sets the intersection point with the reference penetration line U having a predetermined aspect ratio on each tomographic image as the center point, and sets the long axis parallel to the X axis and the short axis parallel to the Y axis. is defined, the voxels V(x, y, z) located on the same ellipse W are set to the same opacity correction magnification ξ(x, y), and the center point A larger opacity correction magnification ξ(x, y) should be set for an ellipse closer to .

前述したように、本願発明者が行った実験によると、不透明度補正倍率ξ(x,y)が、楕円の長軸もしくは短軸の長さの2乗に反比例して減衰するような設定を行うと、人体を撮影対象とする断層画像群に基づいて、特定の臓器を観察対象として表示する場合に、非常に好ましい結果が得られた。もちろん、このような断層画像表示用ボリュームレンダリング装置は、実際には、コンピュータに専用のプログラムを組み込むことにより構成することができる。 As described above, according to the experiment conducted by the inventor of the present application, the opacity correction magnification ξ(x, y) is set so as to attenuate in inverse proportion to the square of the length of the major axis or the minor axis of the ellipse. As a result, very favorable results were obtained when a specific organ was displayed as an observation target based on a group of tomographic images of the human body as an imaging target. Of course, such a volume rendering apparatus for displaying tomographic images can actually be configured by installing a dedicated program in a computer.

<<< §6. 階調変換処理 >>>
図6や図24に示す装置における断層画像入力部110は、§2.1で説明したように、断層画像撮影装置50によって撮影された断層画像群10を、多数の画素S(x,y,z)の集合体として入力する。現在利用されている一般的な断層画像撮影装置50は、16ビットの信号値をもつ画素の集合体からなる断層画像を出力できる。したがって、これまで述べてきた実施例の各処理の説明は、この16ビットの信号値をもつ断層画像を前提としたものであった。
<<< §6. Gradation conversion processing >>>
6 and 24, the tomographic image input unit 110 in the apparatus shown in FIG. 6 and FIG. input as a collection of z). A general tomographic imaging apparatus 50 currently in use can output a tomographic image composed of a set of pixels having 16-bit signal values. Therefore, the explanation of each process in the embodiments described so far has been based on the premise of a tomographic image having this 16-bit signal value.

しかしながら、実用上、演算負担を軽減する必要があるケースなどでは、16ビットの信号値を、たとえば8ビットの信号値に変換して取り扱う方が好ましい場合もある。そのような場合は、断層画像入力部110に、入力した階調画像の階調を落とすための階調変換処理機能を設けておけばよい。そうすれば、断層画像撮影装置50から与えられた16ビットの信号値をもつ階調画像を、8ビットの信号値をもつ階調画像に変換して、信号値ヒストグラム作成部120やボクセル画像作成部170,175に与えることができるので、カラーマップの最適化処理やボクセル画像の作成処理を、8ビットの信号値をもつ階調画像を用いて行うことができる。 In practice, however, in cases where it is necessary to reduce the computational load, it may be preferable to convert the 16-bit signal value into, for example, an 8-bit signal value. In such a case, the tomographic image input unit 110 may be provided with a gradation conversion processing function for reducing the gradation of the input gradation image. By doing so, the gradation image having 16-bit signal values given from the tomography apparatus 50 is converted into a gradation image having 8-bit signal values, and the signal value histogram generating unit 120 and the voxel image generating unit 120 convert the gradation image having 8-bit signal values. Since it can be given to the units 170 and 175, it is possible to perform color map optimization processing and voxel image creation processing using a gradation image having an 8-bit signal value.

以下、16ビットの信号値を8ビットの信号値に変換する階調変換処理の具体例を述べる。この階調変換処理は、断層画像入力部110が、複数の断層画像をそれぞれ16ビットの信号値をもつモノクロ画像として入力した後、これらを8ビットの信号値をもつモノクロ画像に変換する処理と言うことができ、信号値ヒストグラム作成部120やボクセル画像作成部170,175には、8ビットの信号値をもつモノクロ画像が与えられることになる。 A specific example of tone conversion processing for converting a 16-bit signal value into an 8-bit signal value will be described below. This gradation conversion process is a process in which the tomographic image input unit 110 inputs a plurality of tomographic images as monochrome images each having a 16-bit signal value, and then converts these to monochrome images having 8-bit signal values. In other words, the signal value histogram generator 120 and the voxel image generators 170 and 175 are supplied with a monochrome image having 8-bit signal values.

図26は、図6および図24に示す階調画像入力部110で必要に応じて行われる階調変換処理の基本手順を示す図である。ここでは、断層画像撮影装置50によって撮影された断層画像群10を構成する各画素のもつ16ビットの信号値を符号SSで表し、これを階調変換して得られる8ビットの信号値を符号Sで表すことにする。 FIG. 26 is a diagram showing a basic procedure of gradation conversion processing performed by the gradation image input unit 110 shown in FIGS. 6 and 24 as necessary. Here, the 16-bit signal value of each pixel constituting the group of tomographic images 10 captured by the tomographic imaging apparatus 50 is represented by the symbol SS, and the 8-bit signal value obtained by converting the gradation is represented by the symbol SS. It will be represented by S.

図26(a) の上段には、階調画像入力部110が入力した16ビットの信号値SSの信号幅が示されている。図示のとおり、16ビットの信号値SSは、通常、符号をもった-32768~+32767の範囲の値をとる。階調変換処理では、まず、入力した断層画像を構成する画素に付与されている16ビットの信号値SSの最小値Dmin と最大値Dmax とが求められる。図26(a) の中段には、求めた最小値Dmin と最大値Dmax が例示されている。 The upper part of FIG. 26A shows the signal width of the 16-bit signal value SS input by the gradation image input unit 110 . As shown, the 16-bit signal value SS typically ranges from -32768 to +32767 with a sign. In the gradation conversion process, first, the minimum value Dmin and the maximum value Dmax of the 16-bit signal values SS assigned to the pixels forming the input tomographic image are obtained. The obtained minimum value Dmin and maximum value Dmax are exemplified in the middle part of FIG. 26(a).

なお、この最小値Dmin と最大値Dmax を求める際には、入力した複数の断層画像全部に含まれる画素を母集団とすることもできるが、ここに示す実施例の場合、入力した複数の断層画像の一部に含まれる画素を母集団としている。具体的には、図2に例示するように、Z軸方向に所定間隔をおいて積層された多数の断層画像のうち、中間位置にある1枚の断層画像(Z座標値(Sz/2)に位置する断層画像)を中間断層画像として抜き出し、この中間断層画像に含まれる全画素の信号値SSを母集団として、その中から最小値Dmin と最大値Dmax とを求めている。 When obtaining the minimum value Dmin and the maximum value Dmax, pixels included in all of the plurality of input tomographic images can be used as a population. Pixels included in a part of the image are used as the population. Specifically, as illustrated in FIG. 2, one tomographic image (Z coordinate value (Sz/2) ) is extracted as an intermediate tomographic image, the signal values SS of all pixels included in this intermediate tomographic image are used as a population, and the minimum value Dmin and the maximum value Dmax are obtained from the population.

一般に、16ビットの信号値SSをもつ断層画像群10の原画像データは大容量のデータになるため、これを一度にメモリ上に保持するためには、大容量のメモリが必要になる。上述したように、一部の断層画像のみを母集団として最小値Dmin と最大値Dmax とを求める方法を採用すれば、原画像データの保持に必要なメモリ容量を節約することができ、階調変換後の画像データをメモリ上に直接構築できるメリットが得られる。上述した例の場合、1枚の中間断層画像に含まれる画素のみを母集団として最小値Dmin と最大値Dmax とが求められることになるが、通常、Z軸方向に関して真ん中の位置に配置されている中間断層画像には、撮影対象となる代表的な部位が含まれているので、実用上、支障は生じない。 Generally, since the original image data of the tomographic image group 10 having 16-bit signal values SS is a large amount of data, a large-capacity memory is required to hold the data in memory at once. As described above, if the method of determining the minimum value Dmin and the maximum value Dmax using only a part of the tomographic images as a population is adopted, the memory capacity required for holding the original image data can be saved, and the gradation can be reduced. The advantage is that the image data after conversion can be built directly in the memory. In the case of the above example, the minimum value Dmin and the maximum value Dmax are obtained using only the pixels included in one intermediate tomographic image as a population. Since the intermediate tomographic image obtained includes a representative part to be imaged, there is no practical problem.

続いて、所定のコントラスト調整係数βを用いて下限値Lmin および上限値Lmax を決定する。具体的には、図26(b) に示すように、
Lmin =Dmin +(Dmax -Dmin )・β 式(29)
Lmax =Dmin +(Dmax -Dmin )・(1-β) 式(30)
なる式で、下限値Lmin および上限値Lmax を求める。コントラスト調整係数βは、0<β<0.3となるような任意の値を設定すればよい。ここに示す実施例の場合、β=0.1に設定している。図26(a) の下段には、こうして設定した下限値Lmin および上限値Lmax が示されている。図示のとおり、下限値Lmin は、最小値Dmin より若干大きな値に設定され、上限値Lmax は、最大値Dmax より若干小さな値に設定される。
Subsequently, a lower limit value Lmin and an upper limit value Lmax are determined using a predetermined contrast adjustment coefficient β. Specifically, as shown in FIG. 26(b),
Lmin = Dmin + (Dmax - Dmin) β Formula (29)
Lmax = Dmin + (Dmax - Dmin) (1-β) Equation (30)
The lower limit value Lmin and the upper limit value Lmax are obtained from the following equation. The contrast adjustment coefficient β may be set to any value that satisfies 0<β<0.3. In the example shown here, β is set to 0.1. The lower limit of FIG. 26(a) shows the lower limit Lmin and the upper limit Lmax thus set. As shown, the lower limit Lmin is set to a value slightly larger than the minimum value Dmin, and the upper limit Lmax is set to a value slightly smaller than the maximum value Dmax.

最後に、下限値Lmin ~上限値Lmax の範囲を0~255に線形変換することにより、16ビットの信号値SSから8ビットの信号値Sを得る。具体的には、座標(x,y,z)の位置に配置されている画素のもつ16ビット信号値SS(x,y,z)を8ビット信号値S(x,y,z)に変換するための変換式は、図26(b) に示すように、
S(x,y,z)=(SS(x,y,z)-Lmin )/
(Lmax -Lmin )×255 式(31)
なる式で定義できる。
Finally, the 8-bit signal value S is obtained from the 16-bit signal value SS by linearly converting the range from the lower limit value Lmin to the upper limit value Lmax to 0-255. Specifically, the 16-bit signal value SS (x, y, z) of the pixel located at the coordinate (x, y, z) is converted into an 8-bit signal value S (x, y, z). As shown in FIG. 26(b), the conversion formula for
S(x,y,z)=(SS(x,y,z)−Lmin)/
(Lmax-Lmin)×255 Equation (31)
can be defined by the formula

但し、下限値Lmin 未満の信号値SSは0に変換し、上限値Lmax を超える信号値SSは255に変換するようにする。別言すれば、上記式(31)による演算を行った結果、S(x,y,z)>255になる場合は、S(x,y,z)=255とし、S(x,y,z)<0になる場合は、S(x,y,z)=0とすればよい。結局、図26(a) の下段に示すチャートにおいて、領域A3に所属する信号値SSは、0~255の信号値Sに変換され、領域A1,A2に所属する信号値SSは、0なる信号値Sに変換され、領域A4,A5に所属する信号値SSは、255なる信号値Sに変換されることになる。かくして、16ビットの信号値SSをもつモノクロ画像に基づいて、8ビットの信号値Sをもつモノクロ画像が生成される。 However, the signal value SS less than the lower limit Lmin is converted to 0, and the signal value SS exceeding the upper limit Lmax is converted to 255. In other words, when S(x, y, z)>255 as a result of the calculation according to the above formula (31), S(x, y, z)=255 and S(x, y, z)<0, then S(x, y, z)=0. As a result, in the chart shown in the lower part of FIG. 26(a), the signal value SS belonging to the area A3 is converted into a signal value S of 0 to 255, and the signal value SS belonging to the areas A1 and A2 is a signal of 0. The signal value SS converted to the value S and belonging to the areas A4 and A5 will be converted to a signal value S of 255. Thus, a monochrome image with 8-bit signal value S is generated based on a monochrome image with 16-bit signal value SS.

なお、このような階調変換処理を行うと、信号値S=0をもつ画素や、信号値S=255をもつ画素の出現頻度は増加する。その結果、たとえば、図11(a) に示す視界ヒストグラムVHなどでは、信号値S=0や信号値S=255の位置に予期せぬピークが生じることになる。そこで、既に述べたように、視界ヒストグラムVHについて最大値VHmax を呈するピーク位置Svhを探索する際には、信号値Sの全範囲を探索範囲とせずに、左右両端の近傍部分を除外した範囲内を探索範囲とする工夫を行うのが好ましい。 It should be noted that when such tone conversion processing is performed, the appearance frequency of pixels having a signal value S=0 and pixels having a signal value S=255 increases. As a result, for example, in the visual field histogram VH shown in FIG. 11(a), unexpected peaks occur at the positions of signal value S=0 and signal value S=255. Therefore, as already described, when searching for the peak position Svh exhibiting the maximum value VHmax in the field of view histogram VH, instead of using the entire range of the signal value S as the search range, the range excluding the neighboring portions on the left and right ends is used. is preferably used as the search range.

<<< §7. 方法発明としての把握 >>>
これまで、本発明を、断層画像表示用カラーマップの最適化装置もしくは断層画像表示用ボリュームレンダリング装置という装置発明として捉えた説明を行ってきた。ここでは、本発明を方法発明として捉えた説明を行う。
<<< §7. Understanding as a method invention >>>
So far, the present invention has been described as a device invention, such as a color map optimization device for tomographic image display or a volume rendering device for tomographic image display. Here, the present invention will be described as a method invention.

(1) 断層画像表示用カラーマップの最適化方法
本発明は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するために用いるカラーマップに対して、最適化を行う断層画像表示用カラーマップの最適化方法として捉えることもできる。この最適化方法は、コンピュータが実施する次の各段階によって構成される。
(1) Method of optimizing a color map for displaying tomographic images The present invention optimizes a color map used to generate a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus. It can also be regarded as a method of optimizing a color map for tomographic image display. This optimization method consists of the following computer-implemented steps:

(i) 所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力段階。
(ii) 所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを、最適化処理の対象として入力するカラーマップ入力段階。
(iii) 複数の断層画像を構成する個々の画素の信号値について、個々の信号値の出現頻度を示す信号値ヒストグラムを作成する信号値ヒストグラム作成段階。
(iv) 信号値ヒストグラムに対して上記オパシティカーブによる重みづけを行うことにより、視界ヒストグラムを作成する視界ヒストグラム作成段階。
(v) 上記オパシティカーブを補正して補正オパシティカーブを作成し、上記オパシティカーブの代わりに上記補正オパシティカーブを含む補正カラーマップを作成する補正カラーマップ作成段階。
(i) A tomographic image input step of inputting a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value.
(ii) Inputting a color map including an opacity curve in which opacity is associated with each signal value within a predetermined range and a color palette in which predetermined color values are associated with each other as a target for optimization processing. colormap input stage.
(iii) A signal value histogram creating step of creating a signal value histogram indicating the appearance frequency of each signal value for each pixel constituting a plurality of tomographic images.
(iv) A visual field histogram creation step of creating a visual field histogram by weighting the signal value histogram with the opacity curve.
(v) a correction color map creation step of correcting the opacity curve to create a correction opacity curve, and creating a correction color map including the correction opacity curve instead of the opacity curve;

ここで、オパシティカーブ補正段階において、少なくとも、オパシティカーブに対して視界ヒストグラムを利用した補正を行う点が本発明の特徴になる。 Here, the feature of the present invention is that, in the opacity curve correction stage, at least the opacity curve is corrected using the field of view histogram.

この断層画像表示用カラーマップの最適化方法を利用すれば、断層画像表示用カラーマップのデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造することも可能になる。この製造方法は、上記最適化方法を構成する各段階(i) ~(v) に加えて、更に、コンピュータが、補正カラーマップ作成段階で作成された補正カラーマップのデータを情報記録媒体(たとえば、ハードディスクなどの磁気情報記録媒体や光情報記録媒体など)に記録する補正カラーマップ記録段階を付加することにより構成できる。 By using this method for optimizing a color map for tomographic image display, it is possible to manufacture a computer-readable information recording medium on which data for a color map for tomographic image display are recorded. In this manufacturing method, in addition to the steps (i) to (v) constituting the optimization method described above, the computer stores the correction color map data created in the correction color map creating step on an information recording medium (for example, , a magnetic information recording medium such as a hard disk, an optical information recording medium, etc.).

(2) 断層画像表示用ボリュームレンダリング方法(その1)
§4で述べた本発明の実施形態は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するための断層画像表示用ボリュームレンダリング方法として捉えることもできる。このボリュームレンダリング方法は、上述した断層画像表示用カラーマップの最適化方法の各段階(i) ~(v) に、更に、コンピュータが実施する次の各段階を追加することにより構成される。
(2) Volume rendering method for displaying tomographic images (Part 1)
The embodiment of the present invention described in Section 4 can also be regarded as a volume rendering method for tomographic image display for generating a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus. This volume rendering method comprises the steps (i) to (v) of the method for optimizing a color map for tomographic image display described above, and further adding the following steps to be executed by a computer.

(vi) 上記最適化方法における断層画像入力段階で入力した複数の断層画像の各画素に付与された信号値を、上記最適化方法における補正カラーマップ作成段階で作成された補正カラーマップを用いて、所定の色値および不透明度を示すボクセル値に変換し、断層画像の各画素位置に定義された各ボクセルに上記ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成段階。
(vii) 所定の視線方向から上記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理段階。
(vi) Using the correction color map created in the correction color map creation step in the optimization method, the signal value given to each pixel of the plurality of tomographic images input in the tomographic image input step in the optimization method , to a voxel value indicating a predetermined color value and opacity, and assigning the above voxel value to each voxel defined at each pixel position of the tomographic image, thereby creating a collection of voxels arranged in a three-dimensional space. A voxel image creation stage that creates a voxel image consisting of:
(vii) A rendering processing step of generating a volume rendering image showing a state of observing the voxel image from a predetermined viewing direction as a two-dimensional image.

この断層画像表示用ボリュームレンダリング方法を利用すれば、ボリュームレンダリング像のデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造することも可能になる。この製造方法は、上記ボリュームレンダリング方法を構成する各段階(i) ~(vii) に加えて、更に、コンピュータが、レンダリング処理段階で作成されたボリュームレンダリング像のデータを情報記録媒体(たとえば、ハードディスクなどの磁気情報記録媒体や光情報記録媒体など)に記録するボリュームレンダリング像記録段階を付加することにより構成できる。 By using this volume rendering method for tomographic image display, it is possible to manufacture a computer-readable information recording medium on which volume rendering image data is recorded. In this manufacturing method, in addition to the steps (i) to (vii) constituting the volume rendering method, the computer stores data of the volume rendering image created in the rendering processing step in an information recording medium (for example, a hard disk). It can be configured by adding a volume rendering image recording step for recording on a magnetic information recording medium such as a magnetic information recording medium or an optical information recording medium.

(3) 断層画像表示用ボリュームレンダリング方法(その2)
§5で述べた本発明の付加的実施形態は、断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するための断層画像表示用ボリュームレンダリング方法として捉えることもできる。このボリュームレンダリング方法は、コンピュータが実施する次の各段階によって構成される。
(3) Volume rendering method for tomographic image display (Part 2)
An additional embodiment of the present invention described in Section 5 can also be regarded as a volume rendering method for tomographic image display for generating a volume rendering image based on a group of tomographic images captured by a tomographic imaging apparatus. This volume rendering method consists of the following computer-implemented steps:

(i) 所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力段階。
(ii) 所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを用意するカラーマップ準備段階。
(iii) 三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率を設定する不透明度補正倍率設定段階。
(iv) 断層画像入力段階で入力した複数の断層画像の各画素に付与された信号値を、カラーマップ準備段階で用意したカラーマップおよび不透明度補正倍率設定段階で設定された不透明度補正倍率を用いて、所定の色値および不透明度を示すボクセル値に変換し、断層画像の各画素位置に定義された各ボクセルに上記ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成段階。
(v) 所定の視線方向から上記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理段階。
(i) A tomographic image input step of inputting a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value.
(ii) A color map preparation stage of preparing a color map including an opacity curve in which opacities are associated with signal values within a predetermined range, and a color palette in which predetermined color values are associated.
(iii) an opacity correction magnification setting step for setting predetermined opacity correction magnifications according to positions in the three-dimensional space;
(iv) The signal value assigned to each pixel of multiple tomographic images input in the tomographic image input stage is converted to the color map prepared in the color map preparation stage and the opacity correction magnification set in the opacity correction magnification setting stage. is used to convert to a voxel value indicating a predetermined color value and opacity, and the voxel value is given to each voxel defined at each pixel position of the tomographic image, thereby obtaining voxel values arranged in a three-dimensional space. A voxel image creation stage for creating a voxel image consisting of aggregates.
(v) A rendering processing step of generating a volume rendering image showing a state of observing the voxel image from a predetermined viewing direction as a two-dimensional image.

ここで、ボクセル画像作成段階で、個々のボクセルにボクセル値を付与する際に、カラーマップによって示される不透明度に、当該ボクセルの位置に応じて設定されている不透明度補正倍率を乗じる補正を行い、補正後の不透明度を含むボクセル値を当該ボクセルに付与するようにする。 Here, in the voxel image creation stage, when giving voxel values to individual voxels, correction is performed by multiplying the opacity indicated by the color map by the opacity correction magnification set according to the position of the voxel. , the voxel value including the corrected opacity is given to the voxel.

この断層画像表示用ボリュームレンダリング方法を利用すれば、ボリュームレンダリング像のデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造することも可能になる。この製造方法は、上記ボリュームレンダリング方法を構成する各段階(i) ~(v) に加えて、更に、コンピュータが、レンダリング処理段階で作成されたボリュームレンダリング像のデータを情報記録媒体(たとえば、ハードディスクなどの磁気情報記録媒体や光情報記録媒体など)に記録するボリュームレンダリング像記録段階を付加することにより構成できる。 By using this volume rendering method for tomographic image display, it is possible to manufacture a computer-readable information recording medium on which volume rendering image data is recorded. In this manufacturing method, in addition to the steps (i) to (v) constituting the volume rendering method, the computer stores data of the volume rendering image created in the rendering processing step in an information recording medium (for example, a hard disk). It can be configured by adding a volume rendering image recording step for recording on a magnetic information recording medium such as a magnetic information recording medium or an optical information recording medium.

<<< §8. ボリュームレンダリング像の表示実例 >>>
最後に、本発明に係る断層画像表示用ボリュームレンダリング装置を用いて作成されたボリュームレンダリング像の表示実例をいくつか掲載しておく。図27~図30は、いずれも図6もしくは図24に示すボリュームレンダリング装置100,100′によって生成されたボリュームレンダリング像の具体例を示す図である。
<<< §8. Display example of volume rendering image >>>
Finally, some display examples of volume rendering images created using the volume rendering apparatus for tomographic image display according to the present invention will be presented. 27 to 30 are diagrams showing specific examples of volume rendering images generated by the volume rendering apparatuses 100, 100' shown in FIG. 6 or 24. FIG.

図27(a) は、§3.1.1で述べたフィッテイング法による補正を行った例であり、図27(b) は、§3.1.2で述べた平坦化法による補正を行った例である。いずれもカラーマップ入力部150が、肺観察用のカラーマップCを入力し、これを補正することにより得られる補正カラーマップCCを用いてボクセル画像を作成したものである。この実例に関しては、フィッテイング法による補正の方が平坦化法による補正に比べて、肺を観察対象とする表示画像を生成する上では好ましい結果が得られている。 Figure 27(a) is an example of correction by the fitting method described in §3.1.1, and Figure 27(b) is an example of correction by the flattening method described in §3.1.2. This is an example of what I did. In both cases, the color map input unit 150 inputs the color map C for lung observation and creates the voxel image using the corrected color map CC obtained by correcting this. Regarding this example, the correction by the fitting method is more favorable than the correction by the flattening method in terms of generating a display image of the lung as an observation target.

図28(a) は、図27(a) に示す例に、更に、§3.2.1で述べた一律累乗補正を加えた例であり、図28(b) は、図27(b) に示す例に、更に、§3.2.2で述べたS字累乗補正を加えた例である。出願図面の解像度の制約から、図面上の写真からは図27に示す結果と図28に示す結果との相違を十分に把握することはできないが、図28に示す結果では、累乗補正が付加されているため、観察対象がより鮮明に表現されている。 FIG. 28(a) is an example in which the uniform exponentiation correction described in §3.2.1 is added to the example shown in FIG. 27(a), and FIG. 28(b) is an example of FIG. 2 is an example in which the S-curve exponentiation correction described in §3.2.2 is added to the example shown in FIG. Due to the limitation of the resolution of the application drawing, it is not possible to fully grasp the difference between the result shown in FIG. 27 and the result shown in FIG. 28 from the photograph on the drawing, but in the result shown in FIG. Therefore, the object of observation is expressed more clearly.

図29(a) ,図29(b) は、それぞれ図28(a) ,図28(b) に示す例に、更に、§5.1で付加的実施形態として述べた不透明度倍率補正(不透明度補正倍率ξを乗じる補正)を加えた例である。この不透明度倍率補正は、図25(a) に示すような同心楕円Wに基づいて設定された不透明度補正倍率ξを用いた補正であるため、三次元空間上における肺の占有位置に基づくふるいをかけることができる。そのため、肺に類似した信号値分布をもった別体が存在したとしても、当該別体が肺から離れた位置にあれば、表示画像上から除外されることになる。 FIGS. 29(a) and 29(b) show the examples shown in FIGS. 28(a) and 28(b), respectively, in addition to the opacity magnification correction (unnecessary) described as an additional embodiment in §5.1. This is an example in which a correction that is multiplied by a transparency correction magnification ξ is added. This opacity magnification correction is correction using the opacity correction magnification ξ set based on the concentric ellipse W as shown in FIG. can be applied. Therefore, even if there is another object having a signal value distribution similar to that of the lungs, if the other object is located away from the lungs, it will be excluded from the displayed image.

図28(a) ,図28(b) と、図29(a) ,図29(b) と、をそれぞれ比べれば、前者で混在していた肺以外の別体の大部分が、後者では除外されていることがわかる。たとえば、図28(a) ,図28(b) には現れていた患者用の固定ベルトは、図29(a) ,図29(b) では完全に除外されている。このように、不透明度倍率補正は、近接信号値をもつ別体の混在により観察対象が不鮮明になることを解消する上では非常に効果的である。 Comparing FIGS. 28(a) and 28(b) with FIGS. 29(a) and 29(b), it can be seen that most of the bodies other than the lungs mixed in the former are excluded in the latter. It can be seen that For example, the patient fixation belt that appeared in FIGS. 28(a) and 28(b) is completely removed in FIGS. 29(a) and 29(b). In this way, the opacity magnification correction is very effective in solving the blurring of the observed object due to the mixture of different objects having proximity signal values.

図30(a) ,図30(b) は、いずれもカラーマップ入力部150が、心臓観察用のカラーマップCを入力し、これを補正することにより得られる補正カラーマップCCを用いてボクセル画像を作成したものである。図30(a) は、フィッテイング法による補正を行った例であり、図30(b) は、平坦化法による補正と、S字累乗補正と、不透明度倍率補正を行った例である。心臓観察用のカラーマップCを用いると、心臓の信号値分布と骨の信号値分布とが近接しているため、骨が混在した画像になるが、不透明度倍率補正を行った図30(b) では、一部の肋骨が除外され、心臓の観察により適した画像になっている。 In both FIGS. 30(a) and 30(b), the color map input unit 150 inputs the color map C for heart observation and corrects it to obtain voxel images using the corrected color map CC. was created. FIG. 30(a) is an example of correction by the fitting method, and FIG. 30(b) is an example of correction by the flattening method, S-curve power correction, and opacity magnification correction. When the color map C for cardiac observation is used, the signal value distribution of the heart and the signal value distribution of the bones are close to each other, resulting in an image in which the bones are mixed. ) excludes some ribs, making the image more suitable for viewing the heart.

10:断層画像群
11~18:個々の断層画像
11v~18v:ボクセル画像の各ボクセルプレーン
20:ボクセル画像
25:座標変換後のボクセル画像
30:ボリュームレンダリング像
31:肺の観察に適したボリュームレンダリング像
32:心臓の観察に適したボリュームレンダリング像
50:断層画像撮影装置(CT,MRI,PET等)
60:ディスプレイ装置
100,100′:ボリュームレンダリング装置
101:カラーマップの最適化装置
110:断層画像入力部
120:信号値ヒストグラム作成部
130:視界ヒストグラム作成部
140:オパシティカーブ補正部
141:視界ヒストグラム考慮補正部
142:累乗補正部
150:カラーマップ入力部
161:カラーマップ格納部
162:カラーマップ作成部
170:ボクセル画像作成部
175:ボクセル画像作成部
180:レンダリング処理部
190:不透明度補正倍率設定部
Ab:環境光成分割合
A1~A5:階調値の領域
B:青色の画素値
Bnew:陰影計算後の青色の画素値
Bold:陰影計算前の青色の画素値
C:カラーマップ
CC:補正カラーマップ
CP:カラーパレット
D:最深点
Dmax:中間断層画像の画素の最大値
Dmin:中間断層画像の画素の最小値
E(x,y,z):輝度値
F:投影点
G:緑色の画素値/勾配ベクトルの大きさ
Gnew:陰影計算後の緑色の画素値
Gold:陰影計算前の緑色の画素値
Gx,Gy,Gz:勾配ベクトルの各座標軸成分
H:信号値ヒストグラム
h:信号値Sの出現頻度
J0,J1,J2:対応点
k:減衰係数
L:平行照明光
L(Lx,Ly,Lz):光源ベクトル
Lmax:圧縮処理の上限値
Lmin:圧縮処理の下限値
M:マッピング平面
n:楕円の長短軸比率
O:XYZ三次元直交座標系の原点
OC:オパシティカーブ
OCmax:オパシティカーブOCのピーク値(最大値)
OC(S):信号値Sに対応する不透明度αの値
OCC:補正オパシティカーブ
P:二次元画像上の1点
P1,P2:投影面
Q1,Q2,Q3:指定点
R:赤色の画素値/加重基準距離
Rnew:陰影計算後の赤色の画素値
Rold:陰影計算前の赤色の画素値
Rxy:X軸方向およびY軸方向の解像度
Rz:Z軸方向の解像度
r(x,y):基準貫通線Uからの加重距離
S,S1~S2,Sa,Sb:信号値
S1~S10:流れ図の各ステップ
Smax:信号値の最大値
Smin:信号値の最小値
Soc:オパシティカーブOCのピーク位置信号値
Svh:視界ヒストグラムVHのピーク位置信号値
Svhc:補正視界ヒストグラムVHCのピーク位置信号値
S(x,y,z):断層画像の画素/画素の信号値
SS(x,y,z):画素の圧縮前の信号値
Sx,Sy,Sz:断層画像のサイズ
s1,s2,s3:信号値
T:しきい値
U:基準貫通線
V(x,y,z):ボクセル画像のボクセル/ボクセル値
VH:視界ヒストグラム
VHmax:視界ヒストグラムVHのピーク値(最大値)
VH(S):信号値Sに対応する視界ヒストグラムの値
VHC:補正視界ヒストグラム
W:同心楕円
X:XYZ三次元直交座標系の座標軸
Y:XYZ三次元直交座標系の座標軸
Z:XYZ三次元直交座標系の座標軸
Z(0),Z(+1),Z(-1):ボクセル画像の各ボクセルプレーン
α,α1,α2,α3:不透明度
αnew:補正後の新不透明度
αold:補正前の旧不透明度
β:コントラスト調整係数
γ:補正係数
ξ(x,y):点P(x,y)の位置における不透明度αの補正倍率
10: Group of tomographic images 11 to 18: Individual tomographic images 11v to 18v: Voxel planes of voxel images 20: Voxel image 25: Voxel image after coordinate transformation 30: Volume rendering image 31: Volume rendering suitable for lung observation Image 32: Volume rendering image suitable for observing the heart 50: Tomographic imaging device (CT, MRI, PET, etc.)
60: Display device 100, 100': Volume rendering device 101: Color map optimization device 110: Tomographic image input unit 120: Signal value histogram creation unit 130: View histogram creation unit 140: Opacity curve correction unit 141: Consider view histogram Correction unit 142: power correction unit 150: color map input unit 161: color map storage unit 162: color map creation unit 170: voxel image creation unit 175: voxel image creation unit 180: rendering processing unit 190: opacity correction magnification setting unit Ab: Ambient light component ratio A1 to A5: Gradation value area B: Blue pixel value Bnew: Blue pixel value after shadow calculation Bold: Blue pixel value before shadow calculation C: Color map CC: Correction color map CP: Color palette D: Deepest point Dmax: Maximum value of pixels in the intermediate tomographic image Dmin: Minimum value of pixels in the intermediate tomographic image E (x, y, z): Brightness value F: Projection point G: Green pixel value/ Magnitude of gradient vector Gnew: Green pixel value after shadow calculation Gold: Green pixel value before shadow calculation Gx, Gy, Gz: Coordinate axis components of gradient vector H: Signal value histogram h: Frequency of appearance of signal value S J0, J1, J2: Corresponding points k: Attenuation coefficient L: Parallel illumination light L (Lx, Ly, Lz): Light source vector Lmax: Upper limit of compression process Lmin: Lower limit of compression process M: Mapping plane n: Ellipse Long and short axis ratio O: Origin of XYZ three-dimensional orthogonal coordinate system OC: Opacity curve OCmax: Peak value (maximum value) of opacity curve OC
OC(S): Value of opacity α corresponding to signal value S OCC: Corrected opacity curve P: One point on two-dimensional image P1, P2: Projection plane Q1, Q2, Q3: Specified point R: Red pixel value / Weighted reference distance Rnew: Red pixel value after shadow calculation Rold: Red pixel value before shadow calculation Rxy: Resolution in X-axis direction and Y-axis direction Rz: Resolution in Z-axis direction r(x, y): Reference Weighted distances S, S1 to S2, Sa, Sb from the penetration line U: Signal values S1 to S10: Each step in the flowchart Smax: Maximum signal value Smin: Minimum signal value Soc: Peak position signal of opacity curve OC Value Svh: Peak position signal value of field of view histogram VH Svhc: Peak position signal value of corrected field of view histogram VHC S (x, y, z): Tomographic image pixel/pixel signal value SS (x, y, z): Pixel Signal values before compression Sx, Sy, Sz: Size of tomographic image s1, s2, s3: Signal value T: Threshold value U: Reference penetration line V (x, y, z): Voxel/voxel value of voxel image VH: Visibility histogram VHmax: Peak value (maximum value) of visibility histogram VH
VH(S): Value of field of view histogram corresponding to signal value S VHC: Corrected field of view histogram W: Concentric ellipse X: Coordinate axis of XYZ three-dimensional orthogonal coordinate system Y: Coordinate axis of XYZ three-dimensional orthogonal coordinate system Z: XYZ three-dimensional orthogonal Coordinate axes Z(0), Z(+1), Z(-1) of coordinate system: Voxel planes α, α1, α2, α3 of voxel image: Opacity αnew: New opacity after correction αold: Old before correction Opacity β: Contrast adjustment coefficient γ: Correction coefficient ξ(x, y): Correction magnification of opacity α at the position of point P(x, y)

Claims (33)

断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するために用いるカラーマップに対して、最適化処理を行う装置であって、
所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力部と、
所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを、最適化処理の対象として入力するカラーマップ入力部と、
前記複数の断層画像を構成する個々の画素の信号値について、個々の信号値の出現頻度を示す信号値ヒストグラムを作成する信号値ヒストグラム作成部と、
前記信号値ヒストグラムに対して前記オパシティカーブによる重みづけを行うことにより、視界ヒストグラムを作成する視界ヒストグラム作成部と、
前記オパシティカーブを補正して補正オパシティカーブを作成し、前記オパシティカーブの代わりに前記補正オパシティカーブを含む補正カラーマップを出力するオパシティカーブ補正部と、
を備え、
前記オパシティカーブ補正部が、少なくとも、前記オパシティカーブに対して前記視界ヒストグラムを利用した補正を行う視界ヒストグラム考慮補正部を有することを特徴とする断層画像表示用カラーマップの最適化装置。
A device for optimizing a color map used for generating a volume rendering image based on a group of tomographic images captured by a tomographic imaging device,
a tomographic image input unit for inputting a plurality of tomographic images obtained by performing tomographic imaging of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value;
A color map that inputs a color map that includes an opacity curve that associates opacity with each signal value within a predetermined range and a color palette that associates a predetermined color value with each other as a target for optimization processing. an input unit;
a signal value histogram creation unit for creating a signal value histogram indicating the frequency of appearance of each signal value for each pixel constituting the plurality of tomographic images;
a field of view histogram creation unit that creates a field of view histogram by weighting the signal value histogram with the opacity curve;
an opacity curve correction unit that corrects the opacity curve to create a corrected opacity curve and outputs a corrected color map containing the corrected opacity curve instead of the opacity curve;
with
A tomographic image display color map optimizing apparatus, wherein the opacity curve correction unit includes at least a field histogram consideration correction unit that performs correction on the opacity curve using the field histogram.
請求項1に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記信号値ヒストグラムに対して前記オパシティカーブによる重みづけを行うことにより得られる視界ヒストグラムのピーク位置に比べて、前記信号値ヒストグラムに対して前記補正オパシティカーブによる重みづけを行うことにより得られる補正視界ヒストグラムのピーク位置の方が、前記オパシティカーブのピーク位置に近くなるように、前記オパシティカーブに対する補正を行うことを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 1,
The field-of-view histogram consideration correction unit weights the signal value histogram with the corrected opacity curve compared to the peak position of the field-of-view histogram obtained by weighting the signal value histogram with the opacity curve. A tomographic image display color map optimization apparatus characterized in that the opacity curve is corrected so that the peak position of the corrected field of view histogram obtained by performing the above is closer to the peak position of the opacity curve. .
請求項2に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記補正視界ヒストグラムのピーク位置が、前記オパシティカーブのピーク位置に一致するように、前記オパシティカーブに対する補正を行うことを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 2,
Optimizing a color map for displaying a tomographic image, wherein the field histogram consideration correcting unit corrects the opacity curve so that the peak position of the corrected field histogram matches the peak position of the opacity curve. Device.
請求項3に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記視界ヒストグラムの所定の信号値範囲内の最大値をVHmax 、当該最大値VHmax を与える信号値をSvhとし、前記オパシティカーブの前記所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとし、前記信号値Svhにおける前記オパシティカーブの不透明度をOC(Svh)としたときに、前記信号値Socにおける前記補正視界ヒストグラムの値がVHmax になり、前記信号値Svhにおける前記補正視界ヒストグラムの値がVHmax ・OC(Svh)/OCmax になるように、前記オパシティカーブに対する補正を行うことを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 3,
The field of view histogram consideration correcting unit defines the maximum value of the field of view histogram within a predetermined signal value range as VHmax, the signal value giving the maximum value VHmax as Svh, and the maximum value of the opacity curve within the predetermined signal value range. is OCmax, the signal value giving the maximum value OCmax is Soc, and the opacity of the opacity curve at the signal value Svh is OC(Svh), the value of the corrected visual field histogram at the signal value Soc is VHmax. and correcting the opacity curve so that the value of the corrected visual field histogram at the signal value Svh becomes VHmax.OC(Svh)/OCmax.
請求項4に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、信号値Sにおける前記オパシティカーブの不透明度をOC(S)、前記信号値Sにおける前記視界ヒストグラムの値をVH(S)として、前記信号値Sにおける補正係数γ(S)を、
γ(S)=(VHmax /OCmax
)・(OC(S)/VH(S))
なる式で定義し、前記信号値Sにおける前記補正オパシティカーブの不透明度OCC(S)を、
OCC(S)=γ(S)・OC(S)
なる式によって算出することを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 4,
The field-of-view histogram consideration correcting unit sets the opacity of the opacity curve at the signal value S to OC(S), the value of the field-of-view histogram at the signal value S to VH(S), and a correction coefficient γ( S)
γ(S)=(VHmax/OCmax
)・(OC(S)/VH(S))
The opacity OCC (S) of the corrected opacity curve at the signal value S is defined by the following formula:
OCC(S)=γ(S)・OC(S)
A tomographic image display color map optimizing apparatus characterized in that calculation is performed by the following equation.
請求項1に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記信号値ヒストグラムに対して前記オパシティカーブによる重みづけを行うことにより得られる視界ヒストグラムのピーク近傍の形状に比べて、前記信号値ヒストグラムに対して前記補正オパシティカーブによる重みづけを行うことにより得られる補正視界ヒストグラムのピーク近傍の形状の方が、平坦化されるように前記オパシティカーブに対する補正を行う、具体的には、前記オパシティカーブのピーク位置における前記補正視界ヒストグラムの値が、前記視界ヒストグラムのピーク位置における前記補正視界ヒストグラムの値に一致し、かつ、前記オパシティカーブのピーク位置から前記視界ヒストグラムのピーク位置に至る区間の間の前記補正視界ヒストグラムの値が前記視界ヒストグラムのピーク位置における前記補正視界ヒストグラムの値に一致するように、前記オパシティカーブに対する補正を行うことを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 1,
The field-of-view-histogram-considering correcting unit performs weighting on the signal value histogram with the opacity curve, compared to the shape near the peak of the field of view histogram obtained by weighting the signal value histogram with the corrected opacity curve. The corrected field of view at the peak position of the opacity curve is corrected so that the shape near the peak of the corrected field of view histogram obtained by weighting is flattened. The value of the histogram matches the value of the corrected field of view histogram at the peak position of the field of view histogram , and the value of the corrected field of view histogram between the peak position of the opacity curve and the peak position of the field of view histogram is A tomographic image display color map optimizing apparatus, wherein the opacity curve is corrected so as to match the value of the corrected field of view histogram at the peak position of the field of view histogram .
請求項6に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記視界ヒストグラムの所定の信号値範囲内の最大値をVHmax 、当該最大値VHmax を与える信号値をSvhとし、前記オパシティカーブの前記所定の信号値範囲内の最大値をOCmax 、当該最大値OCmax を与える信号値をSocとしたときに、信号値Socにおける前記補正視界ヒストグラムの値および信号値Svhにおける前記補正視界ヒストグラムの値がいずれもVHmax になるように、前記オパシティカーブに対する補正を行うことを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 6,
The field of view histogram consideration correcting unit defines the maximum value of the field of view histogram within a predetermined signal value range as VHmax, the signal value giving the maximum value VHmax as Svh, and the maximum value of the opacity curve within the predetermined signal value range. is OCmax and the signal value giving the maximum value OCmax is Soc, the opacity A tomographic image display color map optimization apparatus characterized by correcting a curve.
請求項7に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、信号値Sにおける前記オパシティカーブの不透明度をOC(S)、前記信号値Sにおける前記視界ヒストグラムの値をVH(S)として、前記信号値Sにおける補正係数γ(S)を、
γ(S)=(VHmax /VH(S))
なる式で定義し、前記信号値Sにおける前記補正オパシティカーブの不透明度OCC(S)を、
OCC(S)=γ(S)・OC(S)
なる式によって算出することを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 7,
The field-of-view histogram consideration correcting unit sets the opacity of the opacity curve at the signal value S to OC(S), the value of the field-of-view histogram at the signal value S to VH(S), and a correction coefficient γ( S)
γ(S)=(VHmax/VH(S))
The opacity OCC (S) of the corrected opacity curve at the signal value S is defined by the following formula:
OCC(S)=γ(S)・OC(S)
A tomographic image display color map optimizing apparatus characterized in that calculation is performed by the following equation.
請求項1~8のいずれかに記載の断層画像表示用カラーマップの最適化装置において、
前記断層画像入力部が、前記複数の断層画像をそれぞれ16ビットの信号値をもつモノクロ画像として入力した後、これらを8ビットの信号値をもつモノクロ画像に変換する階調変換処理を行い、変換後の断層画像を前記信号値ヒストグラム作成部に与える機能を有し、
前記階調変換処理において、入力した前記複数の断層画像の一部もしくは全部についての信号値の最小値Dmin と最大値Dmax とを求め、所定のコントラスト調整係数β(但し、0<β<0.3)を用いて下限値Lmin および上限値Lmax を、Lmin =Dmin +(Dmax -Dmin )・β、Lmax =Dmin +(Dmax -Dmin )・(1-β)なる式で求め、前記下限値Lmin ~前記上限値Lmax の範囲を0~255に線形変換し、前記下限値Lmin 未満の信号値は0に変換し、前記上限値Lmax を超える信号値は255に変換することにより、前記8ビットの信号値をもつモノクロ画像を生成することを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to any one of claims 1 to 8,
The tomographic image input unit inputs the plurality of tomographic images as monochrome images each having a 16-bit signal value, and then performs a gradation conversion process for converting these to monochrome images having an 8-bit signal value. Having a function of providing the subsequent tomographic image to the signal value histogram creation unit,
In the gradation conversion process, the minimum value Dmin and the maximum value Dmax of the signal values for some or all of the plurality of input tomographic images are obtained, and a predetermined contrast adjustment coefficient β (where 0<β<0. 3), the lower limit value Lmin and the upper limit value Lmax are obtained by the following equations: Lmin = Dmin + (Dmax - Dmin).β, Lmax = Dmin + (Dmax - Dmin).(1-β). ~ linearly transforming the range of the upper limit value Lmax to 0 to 255, converting signal values less than the lower limit value Lmin to 0, and converting signal values exceeding the upper limit value Lmax to 255, thereby converting the 8-bit A tomographic image display color map optimization apparatus characterized by generating a monochrome image having signal values.
請求項4、5、7または8に記載の断層画像表示用カラーマップの最適化装置において、
前記視界ヒストグラム考慮補正部が、前記視界ヒストグラムの所定の信号値範囲内の最大値VHmax を求めるために、前記視界ヒストグラムの0でない値をもつ最小の信号値に1を加えた値以上、前記視界ヒストグラムの0でない値をもつ最大の信号値から1を減じた値以下の範囲を前記所定の信号値範囲とすることを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to claim 4, 5, 7, or 8,
The field of view histogram consideration correcting unit determines the maximum value VHmax within a predetermined signal value range of the field of view histogram by adding 1 to the minimum non-zero signal value of the field of view histogram. A tomographic image display color map optimizing apparatus, wherein a range equal to or less than a value obtained by subtracting 1 from a maximum signal value having a value other than 0 in a histogram is defined as the predetermined signal value range.
請求項1~10のいずれかに記載の断層画像表示用カラーマップの最適化装置において、
前記オパシティカーブ補正部が、前記視界ヒストグラム考慮補正部によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、補正係数γ(但し、0<γ<1)で累乗する補正を行う累乗補正部を更に有することを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to any one of claims 1 to 10,
The opacity curve correction unit corrects the opacity of part or all of the opacity curve corrected by the field histogram consideration correction unit to the power of a correction coefficient γ (where 0<γ<1). A color map optimization apparatus for tomographic image display, further comprising a power correction unit.
請求項1~10のいずれかに記載の断層画像表示用カラーマップの最適化装置において、
前記オパシティカーブ補正部が、前記視界ヒストグラム考慮補正部によって補正されたオパシティカーブの一部分もしくは全部分についての不透明度に対して、当該不透明度が所定のしきい値T以上の場合は補正係数γ(但し、0<γ<1)で累乗する補正を行い、当該不透明度が前記しきい値T未満の場合は前記補正係数γの逆数で累乗する補正を行う累乗補正部を更に有することを特徴とする断層画像表示用カラーマップの最適化装置。
In the tomographic image display color map optimization device according to any one of claims 1 to 10,
The opacity curve correction unit corrects the opacity of a part or all of the opacity curve corrected by the field histogram consideration correction unit by a correction coefficient γ ( However, it is characterized by further comprising a power correcting unit that performs correction to the power of 0<γ<1) and performs correction to the power of the reciprocal of the correction coefficient γ if the opacity is less than the threshold value T. A device for optimizing a color map for tomographic image display.
請求項1~12のいずれかに記載の断層画像表示用カラーマップの最適化装置としてコンピュータを機能させるプログラム。 A program for causing a computer to function as the tomographic image display color map optimizing device according to any one of claims 1 to 12. 請求項1~12のいずれかに記載の断層画像表示用カラーマップの最適化装置を含むボリュームレンダリング装置であって、
前記断層画像表示用カラーマップの最適化装置の構成要素である前記断層画像入力部、前記カラーマップ入力部、前記信号値ヒストグラム作成部、前記視界ヒストグラム作成部、前記オパシティカーブ補正部に加えて、
前記断層画像入力部が入力した前記複数の断層画像の各画素に付与された信号値を、前記オパシティカーブ補正部から出力される前記補正カラーマップを用いて、所定の色値および不透明度を示すボクセル値に変換し、前記断層画像の各画素位置に定義された各ボクセルに前記ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成部と、
所定の視線方向から前記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理部と、
を更に備えることを特徴とする断層画像表示用ボリュームレンダリング装置。
A volume rendering device comprising the tomographic image display color map optimizing device according to any one of claims 1 to 12,
In addition to the tomographic image input unit, the color map input unit, the signal value histogram creation unit, the field histogram creation unit, and the opacity curve correction unit, which are components of the tomographic image display color map optimization device,
Signal values given to each pixel of the plurality of tomographic images input by the tomographic image input unit are indicated as predetermined color values and opacities using the correction color map output from the opacity curve correction unit. A voxel image that creates a voxel image consisting of a set of voxels arranged in a three-dimensional space by converting the values into voxels and assigning the voxel values to each voxel defined at each pixel position of the tomographic image. creation department,
a rendering processing unit that generates a volume rendering image showing a state of observing the voxel image from a predetermined viewing direction as a two-dimensional image;
A volume rendering apparatus for tomographic image display, further comprising:
請求項14に記載の断層画像表示用ボリュームレンダリング装置において、
予め作成された複数通りの標準カラーマップを格納したカラーマップ格納部を更に備え、
前記カラーマップ入力部が、オペレータの選択指示に応じて前記カラーマップ格納部から所定の標準カラーマップを入力することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 14,
further comprising a color map storage unit storing a plurality of pre-created standard color maps,
A volume rendering apparatus for tomographic image display, wherein the color map input unit inputs a predetermined standard color map from the color map storage unit in accordance with an operator's selection instruction.
請求項14または15に記載の断層画像表示用ボリュームレンダリング装置において、
オペレータの作成指示に基づいて、新たにカラーマップを作成するカラーマップ作成部を更に備え、
前記カラーマップ入力部が、前記カラーマップ作成部によって作成されたカラーマップを入力することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 14 or 15,
further comprising a color map creation unit that creates a new color map based on an operator's creation instruction,
A volume rendering apparatus for tomographic image display, wherein the color map input unit inputs the color map created by the color map creation unit.
請求項16に記載の断層画像表示用ボリュームレンダリング装置において、
前記カラーマップ作成部が、複数の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、複数の信号値区間にそれぞれ対応づけられた色値と、を前記オペレータの作成指示として入力し、この作成指示に基づいて、所定範囲内の連続的な信号値についての不透明度を補間により求めて前記オパシティカーブを作成し、前記各信号値区間に前記各色値を対応づけた前記カラーパレットを作成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 16,
The color map creation unit inputs a plurality of representative signal values, an opacity corresponding to each of these representative signal values, and a color value corresponding to each of a plurality of signal value intervals as a creation instruction from the operator. Then, based on this creation instruction, the opacity curve is created by interpolating the opacity for continuous signal values within a predetermined range, and the color palette in which the color values are associated with the signal value intervals. A volume rendering apparatus for tomographic image display, characterized in that it creates a
請求項17に記載の断層画像表示用ボリュームレンダリング装置において、
前記カラーマップ作成部が、小さい順に離散的に並べられた第1の代表信号値、第2の代表信号値、第3の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、を前記オペレータの作成指示として入力し、前記第1の代表信号値と前記第2の代表信号値との間の信号値区間および前記第2の代表信号値と前記第3の代表信号値との間の信号値区間については各々不透明度を線形補間し、前記第1の代表信号値未満の信号値区間については前記第1の代表信号値に対応する不透明度を与える補間を行い、前記第3の代表信号値を超える信号値区間については前記第3の代表信号値に対応する不透明度を与える補間を行うことにより前記オパシティカーブを作成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 17,
a first representative signal value, a second representative signal value, and a third representative signal value discretely arranged in ascending order, and an opacity corresponding to each of these representative signal values; is input as a creation instruction by the operator, and the signal value interval between the first representative signal value and the second representative signal value and the interval between the second representative signal value and the third representative signal value are input. linearly interpolate the opacity for each signal value interval between the third a volume rendering apparatus for tomographic image display, wherein the opacity curve is created by performing interpolation to give an opacity corresponding to the third representative signal value for a signal value interval exceeding the representative signal value of the third representative signal value.
請求項17に記載の断層画像表示用ボリュームレンダリング装置において、
前記カラーマップ作成部が、小さい順に離散的に並べられた第1の代表信号値および第2の代表信号値と、これら各代表信号値にそれぞれ対応する不透明度と、を前記オペレータの作成指示として入力し、前記第1の代表信号値と前記第2の代表信号値との間の信号値区間については不透明度を線形補間し、前記第1の代表信号値未満の信号値区間については前記第1の代表信号値に対応する不透明度を与える補間を行い、前記第2の代表信号値を超える信号値区間については前記第2の代表信号値に対応する不透明度を与える補間を行うことにより前記オパシティカーブを作成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 17,
The color map creation unit uses the first representative signal value and the second representative signal value discretely arranged in ascending order and the opacity corresponding to each of these representative signal values as the operator's creation instruction. linearly interpolating opacity for a signal value interval between the first representative signal value and the second representative signal value; By performing interpolation that gives an opacity corresponding to one representative signal value, and performing interpolation that gives an opacity corresponding to the second representative signal value for a signal value section exceeding the second representative signal value, A volume rendering apparatus for tomographic image display, characterized by creating an opacity curve.
請求項14~19のいずれかに記載の断層画像表示用ボリュームレンダリング装置において、
前記レンダリング処理部が、前記ボクセル画像を構成する個々のボクセルの不透明度を、当該ボクセルおよび当該ボクセルに隣接する隣接ボクセルの不透明度の平均値に置き換えるスムージング処理を行い、前記スムージング処理を経た後のボクセル画像に基づいて前記ボリュームレンダリング像を生成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to any one of claims 14 to 19,
The rendering processing unit performs a smoothing process that replaces the opacity of each voxel that constitutes the voxel image with the average value of the opacities of the voxel and adjacent voxels adjacent to the voxel, and after the smoothing process A volume rendering apparatus for tomographic image display, wherein the volume rendering image is generated based on a voxel image.
請求項14~20のいずれかに記載の断層画像表示用ボリュームレンダリング装置において、
前記レンダリング処理部が、前記ボクセル画像を構成する個々のボクセルについて、不透明度の三次元勾配を示す勾配ベクトルを求め、所定方向を向いた光源ベクトルと前記勾配ベクトルとの向きを考慮して輝度値を算出し、個々のボクセルの色値に対して前記輝度値を乗じる補正を行う陰影付加処理を行い、前記陰影付加処理を経た後のボクセル画像に基づいて前記ボリュームレンダリング像を生成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to any one of claims 14 to 20,
The rendering processing unit obtains a gradient vector representing a three-dimensional gradient of opacity for each voxel that constitutes the voxel image, and calculates a luminance value considering the direction of the light source vector pointing in a predetermined direction and the gradient vector. is calculated, shading addition processing is performed to correct the color value of each voxel by multiplying the luminance value, and the volume rendering image is generated based on the voxel image after the shading addition processing. A volume rendering device for tomographic image display.
請求項21に記載の断層画像表示用ボリュームレンダリング装置において、
前記ボクセル画像作成部が、X軸方向に所定のX軸方向ピッチで、Y軸方向に所定のY軸方向ピッチで、Z軸方向に所定のZ軸方向ピッチで、それぞれ並んで配置された三次元格子状のボクセル集合体からなるボクセル画像を作成し、
前記レンダリング処理部が、ある1つの着目ボクセルのX軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すX軸差分値と、前記着目ボクセルのY軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すY軸差分値と、前記着目ボクセルのZ軸方向に沿った両隣に配置された一対の隣接ボクセルの不透明度の差を示すZ軸差分値と、を算出し、前記X軸差分値に前記X軸方向ピッチに応じた係数を乗じた積をX軸方向成分とし、前記Y軸差分値に前記Y軸方向ピッチに応じた係数を乗じた積をY軸方向成分とし、前記Z軸差分値に前記Z軸方向ピッチに応じた係数を乗じた積をZ軸方向成分とするベクトルを、前記着目ボクセルについての勾配ベクトルとすることを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 21,
The voxel image generators are arranged side by side at a predetermined X-axis direction pitch in the X-axis direction, at a predetermined Y-axis direction pitch in the Y-axis direction, and at a predetermined Z-axis direction pitch in the Z-axis direction. Create a voxel image consisting of a grid-like voxel aggregate,
The rendering processing unit includes an X-axis difference value indicating a difference in opacity between a pair of adjacent voxels arranged on both sides of a voxel of interest along the X-axis direction, and A Y-axis difference value indicating a difference in opacity between a pair of adjacent voxels arranged on both sides, and a Z-axis indicating a difference in opacity between a pair of adjacent voxels arranged on both sides of the voxel of interest along the Z-axis direction. The product of multiplying the X-axis difference value by a coefficient corresponding to the X-axis direction pitch is defined as an X-axis component, and the Y-axis difference value is a coefficient corresponding to the Y-axis direction pitch. A vector having the multiplied product as a component in the Y-axis direction and the product of the Z-axis difference value multiplied by a coefficient corresponding to the pitch in the Z-axis direction as a component in the Z-axis direction is used as the gradient vector for the voxel of interest. A volume rendering device for displaying tomographic images.
請求項14~22のいずれかに記載の断層画像表示用ボリュームレンダリング装置において、
前記ボクセル画像作成部が、XYZ三次元直交座標系上に配置されたボクセル集合体からなるボクセル画像を作成し、
前記レンダリング処理部が、所定の投影面上にボリュームレンダリング像を生成する際に、XY平面が前記投影面に対して平行となるように前記XYZ三次元直交座標系を回転させる座標変換を行った後、前記投影面上の投影点から前記座標変換後のボクセル画像に対してZ軸に平行な方向に仮想光線を照射し、この仮想光線上の各ボクセルについての色値および不透明度に基づいて算出される色値を、前記投影点に位置する画素の画素値として与えることにより、前記ボリュームレンダリング像を生成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to any one of claims 14 to 22,
The voxel image creation unit creates a voxel image consisting of a voxel aggregate arranged on an XYZ three-dimensional orthogonal coordinate system,
When the rendering processing unit generates a volume rendering image on a predetermined projection plane, coordinate transformation is performed by rotating the XYZ three-dimensional orthogonal coordinate system so that the XY plane is parallel to the projection plane. After that, a virtual ray is irradiated from the projection point on the projection plane to the voxel image after the coordinate transformation in a direction parallel to the Z-axis, and based on the color value and opacity of each voxel on the virtual ray A volume rendering apparatus for displaying a tomographic image, wherein the volume rendering image is generated by giving the calculated color value as a pixel value of a pixel positioned at the projection point.
請求項14~22のいずれかに記載の断層画像表示用ボリュームレンダリング装置において、
前記ボクセル画像作成部が、第1のXYZ三次元直交座標系上に配置されたボクセル集合体からなる三次元テクスチャ画像を作成し、
前記レンダリング処理部が、所定の投影面上にボリュームレンダリング像を生成する際に、XY平面が前記投影面に対して平行となるような第2のXYZ三次元直交座標系を定義し、この第2のXYZ三次元直交座標系上に、XY平面に平行なマッピング平面をZ軸方向に所定間隔をおいて複数定義し、前記第1のXYZ三次元直交座標系から前記第2のXYZ三次元直交座標系への座標変換を行うことにより、前記三次元テクスチャ画像を前記複数のマッピング平面にマッピングし、前記投影面上におけるXY座標値(x,y)を有する投影点の色値を、当該投影点から最も遠い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値から、最も近い位置にあるマッピング平面上のXY座標値(x,y)の位置にマッピングされた画素の色値までを、各画素の不透明度を考慮して順にブレンドして決定することにより、前記ボリュームレンダリング像を生成することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to any one of claims 14 to 22,
The voxel image creation unit creates a three-dimensional texture image consisting of a voxel aggregate arranged on a first XYZ three-dimensional orthogonal coordinate system,
The rendering processing unit defines a second XYZ three-dimensional orthogonal coordinate system such that the XY plane is parallel to the projection plane when generating a volume rendering image on a predetermined projection plane, and A plurality of mapping planes parallel to the XY plane are defined on the XYZ three-dimensional orthogonal coordinate system of No. 2 at predetermined intervals in the Z-axis direction, and the second XYZ three-dimensional The three-dimensional texture image is mapped onto the plurality of mapping planes by performing coordinate transformation to an orthogonal coordinate system, and the color values of projection points having XY coordinate values (x, y) on the projection plane are converted to the XY coordinate values (x, y) on the nearest mapping plane from the color value of the pixel mapped at the position of XY coordinate values (x, y) on the mapping plane farthest from the projection point A volume rendering apparatus for displaying a tomographic image, wherein the volume rendering image is generated by sequentially blending and determining up to the color value of pixels mapped to a position, taking into consideration the opacity of each pixel.
請求項14~24のいずれかに記載の断層画像表示用ボリュームレンダリング装置において、
三次元空間上の位置に応じてそれぞれ所定の不透明度補正倍率を設定する不透明度補正倍率設定部を更に備え、
前記ボクセル画像作成部が、個々のボクセルにボクセル値を付与する際に、前記補正カラーマップによって示される不透明度に、当該ボクセルの位置に応じて設定されている不透明度補正倍率を乗じる補正を行い、補正後の不透明度を含むボクセル値を当該ボクセルに付与することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to any one of claims 14 to 24,
further comprising an opacity correction magnification setting unit that sets a predetermined opacity correction magnification according to the position in the three-dimensional space,
The voxel image creation unit performs correction by multiplying the opacity indicated by the correction color map by an opacity correction magnification set according to the position of the voxel when giving a voxel value to each voxel. 1. A volume rendering apparatus for displaying a tomographic image, wherein a voxel value including post-correction opacity is given to the voxel.
請求項25に記載の断層画像表示用ボリュームレンダリング装置において、
前記ボクセル画像作成部が、前記各断層画像に対応するボクセルプレーンをそれぞれXY平面に平行となるように配置し、各ボクセルプレーンにボクセルを二次元配列して、XYZ三次元直交座標系上に三次元配列されたボクセル集合体からなるボクセル画像を作成し、
前記不透明度補正倍率設定部が、前記複数のボクセルプレーンを貫通し、Z軸に平行な基準貫通線を所定位置に定義し、個々のボクセルについて、当該ボクセルと前記基準貫通線とのX軸方向に関する距離およびY軸方向に関する距離に応じた不透明度補正倍率を設定することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 25,
The voxel image creation unit arranges the voxel planes corresponding to the respective tomographic images so as to be parallel to the XY plane, arranges the voxels in each voxel plane two-dimensionally, and arranges the voxels three-dimensionally on the XYZ three-dimensional orthogonal coordinate system. Create a voxel image consisting of the original arrayed voxel collection,
The opacity correction magnification setting unit defines a reference penetration line that penetrates the plurality of voxel planes and is parallel to the Z-axis at a predetermined position, and for each voxel, the X-axis direction between the voxel and the reference penetration line. A volume rendering apparatus for displaying a tomographic image, wherein an opacity correction magnification is set in accordance with a distance with respect to and a distance with respect to the Y-axis direction.
請求項26に記載の断層画像表示用ボリュームレンダリング装置において、
前記不透明度補正倍率設定部が、前記複数のボクセルプレーン上に、前記基準貫通線との交点を中心点とし、X軸に平行な長軸とY軸に平行な短軸を有する複数の同心楕円を定義し、同一の楕円上に位置するボクセルには同一の不透明度補正倍率を設定し、かつ、前記中心点に近い楕円ほど大きな不透明度補正倍率を設定することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 26,
The opacity correction magnification setting unit provides a plurality of concentric ellipses on the plurality of voxel planes, each having a center point at an intersection with the reference penetration line and having a major axis parallel to the X axis and a minor axis parallel to the Y axis. is defined, the same opacity correction magnification is set for voxels located on the same ellipse, and a larger opacity correction magnification is set for the ellipse closer to the center point. Volume rendering device.
請求項27に記載の断層画像表示用ボリュームレンダリング装置において、
前記不透明度補正倍率設定部が、楕円の長軸もしくは短軸の長さの2乗に反比例して減衰するような不透明度補正倍率を設定することを特徴とする断層画像表示用ボリュームレンダリング装置。
In the tomographic image display volume rendering device according to claim 27,
A volume rendering apparatus for tomographic image display, wherein the opacity correction magnification setting unit sets an opacity correction magnification that attenuates in inverse proportion to the square of the length of the long axis or the short axis of the ellipse.
請求項14~28のいずれかに記載の断層画像表示用ボリュームレンダリング装置としてコンピュータを機能させるプログラム。 A program for causing a computer to function as the tomographic image display volume rendering apparatus according to any one of claims 14 to 28. 断層画像撮影装置によって撮影された断層画像群に基づいてボリュームレンダリング像を生成するために用いるカラーマップに対して、最適化を行う方法であって、
コンピュータが、所定の対象物について所定間隔で断層撮影された複数の断層画像を、それぞれ所定の信号値が付与された画素の二次元配列として入力する断層画像入力段階と、
前記コンピュータが、所定範囲内の信号値に対して、それぞれ不透明度を対応づけたオパシティカーブと、それぞれ所定の色値を対応づけたカラーパレットと、を含むカラーマップを、最適化処理の対象として入力するカラーマップ入力段階と、
前記コンピュータが、前記複数の断層画像を構成する個々の画素の信号値について、個々の信号値の出現頻度を示す信号値ヒストグラムを作成する信号値ヒストグラム作成段階と、
前記コンピュータが、前記信号値ヒストグラムに対して前記オパシティカーブによる重みづけを行うことにより、視界ヒストグラムを作成する視界ヒストグラム作成段階と、
前記コンピュータが、前記オパシティカーブを補正して補正オパシティカーブを作成し、前記オパシティカーブの代わりに前記補正オパシティカーブを含む補正カラーマップを作成する補正カラーマップ作成段階と、
を有し、
前記補正カラーマップ作成段階において、少なくとも、前記オパシティカーブに対して前記視界ヒストグラムを利用した補正を行うことを特徴とする断層画像表示用カラーマップの最適化方法。
A method of optimizing a color map used for generating a volume rendering image based on a group of tomographic images captured by a tomography apparatus, comprising:
A tomographic image input step in which a computer inputs a plurality of tomographic images obtained by tomography of a predetermined object at predetermined intervals as a two-dimensional array of pixels each assigned a predetermined signal value;
The computer selects a color map including an opacity curve in which opacities are associated with respective signal values within a predetermined range and a color palette in which predetermined color values are associated with each other as a target of optimization processing. an input color map input stage;
a signal value histogram creation step in which the computer creates a signal value histogram indicating the appearance frequency of each signal value for the signal values of each pixel constituting the plurality of tomographic images;
A visibility histogram creation step in which the computer creates a visibility histogram by weighting the signal value histogram with the opacity curve;
a correction color map creation step in which the computer corrects the opacity curve to create a correction opacity curve, and creates a correction color map including the correction opacity curve instead of the opacity curve;
has
A method for optimizing a color map for displaying a tomographic image, wherein at least the opacity curve is corrected using the field histogram in the corrected color map creation step.
請求項30に記載の断層画像表示用カラーマップの最適化方法を利用して、断層画像表示用カラーマップのデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造する製造方法であって、
前記最適化方法を構成する各段階に加えて、更に、前記コンピュータが、前記補正カラーマップ作成段階で作成された補正カラーマップのデータを情報記録媒体に記録する補正カラーマップ記録段階を有することを特徴とする断層画像表示用カラーマップのデータが記録された情報記録媒体の製造方法。
A manufacturing method for manufacturing a computer-readable information recording medium on which data of a tomographic image display color map is recorded using the method for optimizing a tomographic image display color map according to claim 30,
In addition to the steps constituting the optimization method, the computer further has a correction color map recording step of recording the correction color map data created in the correction color map creation step on an information recording medium. A method of manufacturing an information recording medium on which color map data for tomographic image display is recorded.
請求項30に記載の断層画像表示用カラーマップの最適化方法を構成する各段階を含むボリュームレンダリング方法であって、
前記コンピュータが、前記最適化方法における断層画像入力段階で入力した複数の断層画像の各画素に付与された信号値を、前記最適化方法における補正カラーマップ作成段階で作成された補正カラーマップを用いて、所定の色値および不透明度を示すボクセル値に変換し、前記断層画像の各画素位置に定義された各ボクセルに前記ボクセル値を付与することにより、三次元空間上に配置されたボクセルの集合体からなるボクセル画像を作成するボクセル画像作成段階と、
前記コンピュータが、所定の視線方向から前記ボクセル画像を観察した状態を二次元画像として示すボリュームレンダリング像を生成するレンダリング処理段階と、
を更に有することを特徴とする断層画像表示用ボリュームレンダリング方法。
A volume rendering method comprising steps constituting the method for optimizing a color map for displaying a tomographic image according to claim 30,
The computer uses the correction color map created in the correction color map creation step in the optimization method to convert the signal values assigned to each pixel of the plurality of tomographic images input in the tomographic image input step in the optimization method. to voxel values indicating a predetermined color value and opacity, and assigning the voxel values to each voxel defined at each pixel position of the tomographic image, thereby obtaining voxel values arranged in a three-dimensional space. a voxel image creation step of creating a voxel image consisting of aggregates;
a rendering processing step in which the computer generates a volume rendering image showing a state in which the voxel image is observed from a predetermined viewing direction as a two-dimensional image;
A volume rendering method for tomographic image display, further comprising:
請求項32に記載の断層画像表示用ボリュームレンダリング方法を利用して、前記ボリュームレンダリング像のデータが記録されているコンピュータ読み取り可能な情報記録媒体を製造する製造方法であって、
前記ボリュームレンダリング方法を構成する各段階に加えて、更に、前記コンピュータが、前記レンダリング処理段階で生成されたボリュームレンダリング像のデータを情報記録媒体に記録するボリュームレンダリング像記録段階を有することを特徴とする断層画像表示用ボリュームレンダリング像のデータが記録された情報記録媒体の製造方法。
33. A manufacturing method for manufacturing a computer-readable information recording medium on which the data of the volume rendering image is recorded by using the volume rendering method for displaying a tomographic image according to claim 32,
In addition to the steps constituting the volume rendering method, the computer further has a volume rendering image recording step of recording data of the volume rendering image generated in the rendering processing step on an information recording medium. A method for manufacturing an information recording medium on which data of a volume rendering image for tomographic image display is recorded.
JP2018076473A 2018-04-12 2018-04-12 Color map optimization device and volume rendering device for tomographic image display Active JP7206617B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018076473A JP7206617B2 (en) 2018-04-12 2018-04-12 Color map optimization device and volume rendering device for tomographic image display
JP2023000255A JP7521623B2 (en) 2018-04-12 2023-01-04 Volume Rendering Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018076473A JP7206617B2 (en) 2018-04-12 2018-04-12 Color map optimization device and volume rendering device for tomographic image display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023000255A Division JP7521623B2 (en) 2018-04-12 2023-01-04 Volume Rendering Device

Publications (2)

Publication Number Publication Date
JP2019180911A JP2019180911A (en) 2019-10-24
JP7206617B2 true JP7206617B2 (en) 2023-01-18

Family

ID=68338339

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018076473A Active JP7206617B2 (en) 2018-04-12 2018-04-12 Color map optimization device and volume rendering device for tomographic image display
JP2023000255A Active JP7521623B2 (en) 2018-04-12 2023-01-04 Volume Rendering Device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023000255A Active JP7521623B2 (en) 2018-04-12 2023-01-04 Volume Rendering Device

Country Status (1)

Country Link
JP (2) JP7206617B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001340336A (en) 2000-06-01 2001-12-11 Toshiba Medical System Co Ltd Ultrasonic diagnosing device and ultrasonic diagnosing method
JP2006136619A (en) 2004-11-15 2006-06-01 Ziosoft Inc Image processing method
JP2006323653A (en) 2005-05-19 2006-11-30 Ziosoft Inc Image processing method and image processing program
JP2011212219A (en) 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus, method, and program
JP2013111359A (en) 2011-11-30 2013-06-10 Fujifilm Corp Image processing device, method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090283A (en) 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP4776834B2 (en) 2001-09-19 2011-09-21 東芝医用システムエンジニアリング株式会社 Image processing device
JP5814838B2 (en) 2012-03-14 2015-11-17 富士フイルム株式会社 Image generating apparatus, method and program
JP6526428B2 (en) 2015-01-27 2019-06-05 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001340336A (en) 2000-06-01 2001-12-11 Toshiba Medical System Co Ltd Ultrasonic diagnosing device and ultrasonic diagnosing method
JP2006136619A (en) 2004-11-15 2006-06-01 Ziosoft Inc Image processing method
JP2006323653A (en) 2005-05-19 2006-11-30 Ziosoft Inc Image processing method and image processing program
JP2011212219A (en) 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus, method, and program
JP2013111359A (en) 2011-11-30 2013-06-10 Fujifilm Corp Image processing device, method, and program

Also Published As

Publication number Publication date
JP2023026595A (en) 2023-02-24
JP2019180911A (en) 2019-10-24
JP7521623B2 (en) 2024-07-24

Similar Documents

Publication Publication Date Title
US7283654B2 (en) Dynamic contrast visualization (DCV)
US7505037B2 (en) Direct volume rendering of 4D deformable volume images
US20150287188A1 (en) Organ-specific image display
US20060103670A1 (en) Image processing method and computer readable medium for image processing
JP3836097B2 (en) MEDICAL IMAGE GENERATION DEVICE AND METHOD, AND PROGRAM
US7277567B2 (en) Medical visible image generating method
JP4122314B2 (en) Projection image processing method, projection image processing program, and projection image processing apparatus
JP7003635B2 (en) Computer program, image processing device and image processing method
JP7013849B2 (en) Computer program, image processing device and image processing method
US20170301129A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing system
JP6418344B1 (en) Computer program, image processing apparatus, and image processing method
JP7131080B2 (en) volume rendering device
JP7206617B2 (en) Color map optimization device and volume rendering device for tomographic image display
JP7180123B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP6436258B1 (en) Computer program, image processing apparatus, and image processing method
JP7223312B2 (en) volume rendering device
JP2006223894A (en) Device, method and program for medical image generation
JP5245811B2 (en) Voxel array visualization device
JP7283603B2 (en) COMPUTER PROGRAM, IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD
US20200372700A1 (en) Medical imaging method and apparatus
US20130271464A1 (en) Image Generation with Multi Resolution
JP7206846B2 (en) volume rendering device
JP2019205796A (en) Medical image processing apparatus, medical image processing method, program, and MPR image generation method
US12094123B2 (en) Image data processing apparatus and method
US11443476B2 (en) Image data processing method and apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190624

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7206617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150