JP2005202791A - Method, device, and program for forming image - Google Patents

Method, device, and program for forming image Download PDF

Info

Publication number
JP2005202791A
JP2005202791A JP2004009732A JP2004009732A JP2005202791A JP 2005202791 A JP2005202791 A JP 2005202791A JP 2004009732 A JP2004009732 A JP 2004009732A JP 2004009732 A JP2004009732 A JP 2004009732A JP 2005202791 A JP2005202791 A JP 2005202791A
Authority
JP
Japan
Prior art keywords
value
template
voxels
computer
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004009732A
Other languages
Japanese (ja)
Inventor
Takeshi Joko
剛 上甲
Shuji Yamamoto
修司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MED SOLUTION KK
Original Assignee
MED SOLUTION KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MED SOLUTION KK filed Critical MED SOLUTION KK
Priority to JP2004009732A priority Critical patent/JP2005202791A/en
Publication of JP2005202791A publication Critical patent/JP2005202791A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method, a device and a program whereby a user who is not skilled in image processing can execute image processing for a desired purpose easily and in a way that secures reproducibility. <P>SOLUTION: The method generates an image suitable for a desired purpose using a volume rendering technique on a computer 20. This method comprises a step (401) in which the computer 20 obtains a plurality of voxels each having a CT value, a step (402) in which the computer 20 assigns an opacity and an RGB combination ratio corresponding to a CT value of the voxel to each of the plurality of voxels by referring to a template selected by a user from at least one template, and a step (403) in which the computer 20 generates a two dimensional color image by executing predetermined processing to the plurality of voxels. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、所望の目的に適した画像を生成する方法、装置およびプログラムに関する。   The present invention relates to a method, an apparatus, and a program for generating an image suitable for a desired purpose.

近年、3次元画像処理の分野では、ボリュームレンダリング方法を用いた画像処理が主流となっている。ボリュームレンダリング方法とは、3次元物体を構成する各ボクセルに対して不透明度とRGBの色情報とを割り当て、任意の視点からレイトレーシング(レイキャスティング)を行うことにより、3次元物体の表面のみならず、3次元物体の内部情報をも可視化する方法として知られている。   In recent years, image processing using a volume rendering method has become mainstream in the field of three-dimensional image processing. The volume rendering method assigns opacity and RGB color information to each voxel constituting a three-dimensional object, and performs ray tracing (ray casting) from an arbitrary viewpoint. It is also known as a method for visualizing internal information of a three-dimensional object.

しかし、各ボクセルに不透明度とRGBの色情報とをどのように割り当てるのかについては、明確な指針がなく、もっぱら画像処理の熟練者の勘と経験に頼っていたため、画像処理の熟練者でないユーザが、所望の目的に応じた画像処理を行うことは非常に困難であった。   However, there is no clear guideline on how to assign opacity and RGB color information to each voxel, and it relies solely on the intuition and experience of image processing experts, so users who are not image processing experts However, it has been very difficult to perform image processing according to a desired purpose.

本発明の目的の1つは、画像処理の熟練者でないユーザでも、容易に、かつ、再現性を担保した形で所望の目的に応じた画像処理を行うことを可能にする方法、装置およびプログラムを提供することにある。   One of the objects of the present invention is a method, apparatus, and program that enables a user who is not an expert in image processing to easily perform image processing according to a desired object in a form that ensures reproducibility. Is to provide.

本発明の方法は、コンピュータ上でボリュームレンダリング方法を用いて所望の目的に適した画像を生成する方法であって、該コンピュータのメモリには、少なくとも1つのテンプレートが格納されており、該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、該方法は、該コンピュータが、CT値をそれぞれ有する複数のボクセルを取得するステップと、該コンピュータが、該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てるステップと、該コンピュータが、該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成するステップとを包含し、そのことにより上記目的が達成される。   The method of the present invention is a method of generating an image suitable for a desired purpose using a volume rendering method on a computer, and at least one template is stored in the memory of the computer, Each of the two templates defines at least the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blend ratio so as to be suitable for the desired purpose. Obtaining a plurality of voxels each having a CT value, and the computer refers to a template selected by a user among the at least one template, whereby a CT value of the voxel is assigned to each of the plurality of voxels. Assigning opacity and RGB blending ratio according to But by performing predetermined processing on voxel plurality of, it includes the step of generating a two-dimensional color image, the objects can be achieved.

前記少なくとも1つのテンプレートは、臓器ごとに、もしくは、身体の部位ごとに、もしくは、疾患ごとに、もしくは、手術の種類ごとに予め設計されていてもよい。   The at least one template may be designed in advance for each organ, each body part, each disease, or each surgery type.

前記方法は、前記コンピュータが、複数のカラーの2次元画像を線形補間することにより、該複数のカラーの2次元画像の間に少なくとも1つのカラーの2次元画像を生成するステップをさらに包含してもよい。   The method further includes the computer generating a two-dimensional image of at least one color between the two-dimensional images of the plurality of colors by linearly interpolating the two-dimensional images of the plurality of colors. Also good.

本発明の装置は、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する装置であって、該装置のメモリには、少なくとも1つのテンプレートが格納されており、該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、該装置は、CT値をそれぞれ有する複数のボクセルを取得する手段と、該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てる手段と、該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成する手段とを備えており、そのことにより上記目的が達成される。   An apparatus of the present invention is an apparatus that generates an image suitable for a desired purpose using a volume rendering method, and at least one template is stored in a memory of the apparatus, and the at least one template is stored in the apparatus. Each defines at least the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blending ratio so as to suit the desired purpose, and the apparatus includes a plurality of CT values each having a CT value. , And by referring to a template selected by the user among the at least one template, each of the plurality of voxels has an opacity and an RGB blending ratio according to the CT value of the voxel. A color two-dimensional image is generated by assigning and performing predetermined processing on the plurality of voxels. And a stage, the object is achieved.

本発明のプログラムは、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する画像生成処理をコンピュータに実行させるプログラムであって、該コンピュータのメモリには、少なくとも1つのテンプレートが格納されており、該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、該画像生成処理は、CT値をそれぞれ有する複数のボクセルを取得するステップと、該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てるステップと、該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成するステップとを包含し、そのことにより上記目的が達成される。   The program of the present invention is a program for causing a computer to execute an image generation process for generating an image suitable for a desired purpose using a volume rendering method, and at least one template is stored in the memory of the computer. Each of the at least one template defines at least a relationship between a CT value and an opacity and a relationship between a CT value and an RGB blend ratio so as to be suitable for the desired purpose, The generation processing includes a step of acquiring a plurality of voxels each having a CT value and referring to a template selected by the user from among the at least one template, whereby the CT value of the voxel is set to each of the plurality of voxels. Assigning a corresponding opacity and RGB blending ratio, and the plurality By performing predetermined processing on voxel encompasses and generating a two-dimensional color image, the objects can be achieved.

本発明によれば、メモリに格納された少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、その複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とが割り当てられる。これにより、ユーザによって選択されたテンプレートの内容(すなわち、CT値と不透明度との関係とCT値とRGB配合比率との関係)を複数のボクセルに反映させることが可能になる。その結果、画像処理の熟練者でないユーザでも、容易に、かつ、再現性を担保した形で所望の目的に応じた画像処理を行うことが可能になる。   According to the present invention, by referring to a template selected by a user among at least one template stored in a memory, each of the plurality of voxels has an opacity and an RGB mixture ratio according to the CT value of the voxel. And are assigned. As a result, it is possible to reflect the contents of the template selected by the user (that is, the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blend ratio) in a plurality of voxels. As a result, even a user who is not skilled in image processing can easily perform image processing according to a desired purpose while ensuring reproducibility.

以下、図面を参照しながら本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施の形態の画像処理システム1の構成の一例を示す。画像処理システム1は、医療用画像を処理するシステムとして好適である。   FIG. 1 shows an example of the configuration of an image processing system 1 according to an embodiment of the present invention. The image processing system 1 is suitable as a system for processing medical images.

画像処理システム1は、CT装置10と、CT装置10に接続されたコンピュータ20と、コンピュータ20に接続された表示装置30とを含む。   The image processing system 1 includes a CT apparatus 10, a computer 20 connected to the CT apparatus 10, and a display device 30 connected to the computer 20.

CT装置10は、3次元物体(例えば、人体)のスライス画像を積層し、その積層されたスライス画像を複数のボクセルに分割することによって、3次元に配列された複数のボクセルを生成する。CT装置10によって生成された複数のボクセルは、コンピュータ20に出力される。   The CT apparatus 10 stacks slice images of a three-dimensional object (for example, a human body), and divides the stacked slice images into a plurality of voxels, thereby generating a plurality of voxels arranged in three dimensions. The plurality of voxels generated by the CT apparatus 10 are output to the computer 20.

図1において、参照番号12は、CT装置10によって生成され、3次元に配列された複数のボクセルV(i,j,k)の集合を模式的に示す。ここで、i=1,2,・・・L;j=1,2,・・・M;k=1,2,・・・Nであり、L、MおよびNは、それぞれ、1以上の任意の整数である。各ボクセルV(i,j,k)は、CT値を有している。CT値は、CT装置10によってボクセル単位に計測された値であり、例えば、整数によって表される。CT装置10としては、図1に示されるボクセルの集合12を出力し得る任意のタイプのCT装置を使用することができる。 In FIG. 1, reference numeral 12 schematically indicates a set of a plurality of voxels V (i, j, k) generated by the CT apparatus 10 and arranged three-dimensionally. Here, i = 1, 2,... L; j = 1, 2,... M; k = 1, 2,... N, and L, M, and N are each one or more. It is an arbitrary integer. Each voxel V (i, j, k) has a CT value. The CT value is a value measured in units of voxels by the CT apparatus 10, and is represented by an integer, for example. As the CT apparatus 10, any type of CT apparatus capable of outputting the set 12 of voxels shown in FIG. 1 can be used.

コンピュータ20は、ボクセルの集合12に基づいて、ボリュームレンダリング方法を用いて所望の目的に適したカラーの2次元画像を生成する。コンピュータ20によって生成されたカラーの2次元画像は、表示装置30に出力される。コンピュータ20としては、各種プログラムを実行するCPUと各種データを格納するメモリとを含む任意のタイプのコンピュータを使用することができる。   Based on the set 12 of voxels, the computer 20 generates a two-dimensional image of a color suitable for a desired purpose using a volume rendering method. The color two-dimensional image generated by the computer 20 is output to the display device 30. As the computer 20, any type of computer including a CPU that executes various programs and a memory that stores various data can be used.

表示装置30は、カラーの2次元画像を表示する。表示装置30としては、カラーの2次元画像を表示し得る任意のタイプの表示装置を使用することができる。例えば、表示装置30は、液晶表示装置であってもよいし、CRT表示装置であってもよい。   The display device 30 displays a color two-dimensional image. As the display device 30, any type of display device capable of displaying a color two-dimensional image can be used. For example, the display device 30 may be a liquid crystal display device or a CRT display device.

図2は、コンピュータ20の構成の一例を示す。   FIG. 2 shows an exemplary configuration of the computer 20.

コンピュータ20は、CPU21と、メモリ22と、入力インターフェース部23と、出力インターフェース部24と、ユーザインターフェース部25と、バス26とを含む。   The computer 20 includes a CPU 21, a memory 22, an input interface unit 23, an output interface unit 24, a user interface unit 25, and a bus 26.

CPU21は、プログラムを実行する。例えば、そのプログラムは、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する画像生成処理をコンピュータ20に実行させるプログラムである。そのプログラムやそのプログラムの実行に必要なデータは、例えば、メモリ22に格納されている。そのプログラムがどのような態様でメモリ22に格納されているかは問わない。例えば、メモリ22が書き換え可能なメモリである場合には、コンピュータ20の外部からそのプログラムをローディングすることにより、そのプログラムをメモリ22に格納するようにしてもよい。あるいは、メモリ22が書き換え不可能なメモリ(読み出し専用メモリ)である場合には、メモリ22に固定する(焼き付ける)形式でそのプログラムをメモリ22に格納するようにしてもよい。   The CPU 21 executes a program. For example, the program is a program that causes the computer 20 to execute an image generation process for generating an image suitable for a desired purpose using the volume rendering method. The program and data necessary for executing the program are stored in the memory 22, for example. It does not matter how the program is stored in the memory 22. For example, when the memory 22 is a rewritable memory, the program may be stored in the memory 22 by loading the program from the outside of the computer 20. Alternatively, when the memory 22 is a non-rewritable memory (read-only memory), the program may be stored in the memory 22 in a form fixed (burned) in the memory 22.

さらに、メモリ22には、少なくとも1つのテンプレートが格納されている。その少なくとも1つのテンプレートのそれぞれは、所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものである。CT値と不透明度との関係がどのような態様で定義されているかは問わない。CT値とRGB配合比率との関係がどのような態様で定義されているかは問わない。テンプレートが、CT値と不透明度との関係とCT値とRGB配合比率との関係とを少なくとも定義する限り、そのテンプレートは、任意のデータ構造を有し得る。例えば、テンプレートは、CT値と不透明度との関係を示す表形式のデータと、CT値とRGB配合比率との関係を示す表形式のデータとによって表現され得る。さらに、CT値とRGB配合比率との関係を示す表形式のデータは、CT値とR配合比率との関係を示す表形式のデータとCT値とG配合比率との関係を示す表形式のデータとCT値とB配合比率との関係を示す表形式のデータ とから構成されていてもよい。   Further, at least one template is stored in the memory 22. Each of the at least one template defines at least the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blend ratio so as to suit the desired purpose. It does not matter how the relationship between the CT value and the opacity is defined. It does not matter how the relationship between the CT value and the RGB blending ratio is defined. As long as the template defines at least the relationship between CT value and opacity and the relationship between CT value and RGB blending ratio, the template can have any data structure. For example, the template can be represented by tabular data indicating the relationship between CT values and opacity, and tabular data indicating the relationship between CT values and RGB blending ratios. Further, the tabular data indicating the relationship between the CT value and the RGB blending ratio includes the tabular data indicating the relationship between the CT value and the R blending ratio and the tabular data indicating the relationship between the CT value and the G blending ratio. And tabular data indicating the relationship between the CT value and the B blending ratio.

入力インターフェース部23は、CT装置10から複数のボクセルを受け取るための入力インターフェースとして機能する。   The input interface unit 23 functions as an input interface for receiving a plurality of voxels from the CT apparatus 10.

出力インターフェース部24は、カラーの2次元画像を表示装置30に出力するための出力インターフェースとして機能する。   The output interface unit 24 functions as an output interface for outputting a color two-dimensional image to the display device 30.

ユーザインターフェース部25には、ユーザとのインターフェースとして機能する。ユーザインターフェース部25には、例えば、マウス25aやキーボード25bなどの入力デバイスが接続されている。   The user interface unit 25 functions as an interface with the user. For example, input devices such as a mouse 25a and a keyboard 25b are connected to the user interface unit 25.

バス26は、コンピュータ20内の構成要素21〜25を相互に接続するために使用される。   The bus 26 is used to connect the components 21 to 25 in the computer 20 to each other.

図3Aは、「肺」用のテンプレートにおいて定義されるCT値と不透明度との関係とCT値とRGB配合比率との関係の一例を示す。この「肺」用のテンプレートは、「肺」という臓器をその臓器本来の実体感が表現されるように表示することに適するように予め設計されている。このようなテンプレートは、画像処理の熟練者によって予め設計され得る。   FIG. 3A shows an example of the relationship between the CT value and opacity defined in the “lung” template, and the relationship between the CT value and the RGB blend ratio. The template for “lung” is designed in advance so as to be suitable for displaying the organ “lung” so that the original sense of the organ is expressed. Such a template can be designed in advance by a person skilled in image processing.

図3Aにおいて、横軸はCT値を示し、縦軸はRGB配合比率および不透明度を示す。実線Rは、CT値に応じたR(赤色)の配合比率を示し、実線Gは、CT値に応じたG(緑色)の配合比率を示し、実線Bは、CT値に応じたB(青色)の配合比率を示す。同一のCT値に対して、R(赤色)の配合比率とG(緑色)の配合比率とB(青色)の配合比率との和は1に等しい。また、実線opacityは、CT値に応じた不透明度を示す。不透明度は、あるCT値の範囲において連続的に変化するように予め設計される。   In FIG. 3A, the horizontal axis indicates the CT value, and the vertical axis indicates the RGB blend ratio and opacity. The solid line R indicates the blending ratio of R (red) according to the CT value, the solid line G indicates the blending ratio of G (green) according to the CT value, and the solid line B indicates B (blue) according to the CT value. ). For the same CT value, the sum of the blending ratio of R (red), the blending ratio of G (green), and the blending ratio of B (blue) is equal to 1. The solid line “opacity” indicates the opacity corresponding to the CT value. The opacity is pre-designed to change continuously over a range of CT values.

このようなテンプレートは、所望の目的に適するように予め設計され得る。例えば、臓器本来の実体感が表現されるようにその臓器を表示することを目的とする場合には、臓器ごとにその目的に適したテンプレート(例えば、「肺」用のテンプレート、「心臓」用のテンプレートなど)を設計するようにすればよい。例えば、身体の各部位の実体感が表現されるようにその部位を表示することを目的とする場合には、部位ごとにその目的に適したテンプレート(例えば、「胸部」用のテンプレート、「腹部」用のテンプレートなど)を設計するようにすればよい。例えば、各疾患の病巣を明瞭に表示することを目的とする場合には、疾患ごとにその目的に適したテンプレート(例えば、「肺ガン」用のテンプレート、「乳ガン」用のテンプレートなど)を設計するようにすればよい。例えば、特定の疾患(例えば、乳ガン)の手術の進行をシミュレートすることを目的とする場合には、その手術の種類ごとにその目的に適したテンプレート(例えば、「肺ガン」手術用のテンプレート、「乳ガン」手術用のテンプレートなど)を設計するようにすればよい。   Such a template can be pre-designed to suit the desired purpose. For example, if the purpose is to display the organs so that the actual sensation of the organ is expressed, a template suitable for the purpose of each organ (for example, a template for “lung”, a “heart” Template). For example, when it is intended to display the body part so that the actual feeling of each part is expressed, a template suitable for the purpose of each part (for example, a template for “chest”, “abdomen” ”Template etc.) should be designed. For example, if the purpose is to clearly display the focus of each disease, design a template suitable for that purpose for each disease (for example, a template for “lung cancer”, a template for “breast cancer”, etc.) You just have to do it. For example, when the purpose is to simulate the progress of surgery for a specific disease (for example, breast cancer), a template suitable for that purpose for each type of surgery (for example, a template for “lung cancer” surgery). , “Breast cancer” surgery template, etc.) may be designed.

このような各種のテンプレートは、例えば、アイコンの形式で表示装置30に表示され得る。ユーザは、ユーザインターフェース部25に接続されているマウス25aやキーボード25bなどの入力デバイスを操作して、表示装置30に表示されている少なくとも1つのアイコンのうちの1つを選択することにより、ユーザによって選択されたアイコンに対応するテンプレートの使用をコンピュータ20に指令することができる。   Such various templates can be displayed on the display device 30 in the form of an icon, for example. The user operates an input device such as a mouse 25a or a keyboard 25b connected to the user interface unit 25, and selects one of at least one icon displayed on the display device 30. The computer 20 can be instructed to use the template corresponding to the icon selected by.

図3Bは、図3Aに示される実線Rを抽出したものであり、CT値とR(赤色)の配合比率との関係の一例を示す。   FIG. 3B is an extraction of the solid line R shown in FIG. 3A, and shows an example of the relationship between the CT value and the blending ratio of R (red).

図3Cは、図3Aに示される実線Gを抽出したものであり、CT値とG(緑色)の配合比率との関係の一例を示す。   FIG. 3C is an extraction of the solid line G shown in FIG. 3A and shows an example of the relationship between the CT value and the blending ratio of G (green).

図3Dは、図3Aに示される実線Bを抽出したものであり、CT値とB(青色)の配合比率との関係の一例を示す。   FIG. 3D is an extraction of the solid line B shown in FIG. 3A and shows an example of the relationship between the CT value and the blending ratio of B (blue).

図3Eは、図3Aに示される実線opacityを抽出したものであり、CT値と不透明度との関係の一例を示す。   FIG. 3E is an extraction of the solid line opacities shown in FIG. 3A, and shows an example of the relationship between CT values and opacity.

図3Fは、図3Aに示される「肺」用のテンプレートの内容(すなわち、図3Aに示されるCT値と不透明度との関係とCT値とRGB配合比率との関係)を複数のボクセルに反映させることによって得られるカラーの2次元画像の一例を示す。図3Fから、「肺」という臓器の実体感がリアルに表現されていることが分かる。このように、「肺」用のテンプレートは、「肺」という臓器の実体感をリアルに表現するための標準化された不透明度と標準化された色づけ(RGB配合比率)とを提供する。   FIG. 3F reflects the contents of the “lung” template shown in FIG. 3A (ie, the relationship between the CT value and opacity and the relationship between the CT value and the RGB blend ratio shown in FIG. 3A) in a plurality of voxels. An example of a color two-dimensional image obtained by performing the processing is shown. From FIG. 3F, it can be seen that the actual appearance of the organ “lung” is expressed realistically. As described above, the template for “lung” provides standardized opacity and standardized coloring (RGB blending ratio) for realistically expressing the actual feeling of the organ “lung”.

図4は、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する画像生成処理の手順の一例を示す。このような画像生成処理は、例えば、プログラムの形式で実現され得る。そのようなプログラムは、例えば、CPU21によって実行される。   FIG. 4 shows an example of an image generation processing procedure for generating an image suitable for a desired purpose using the volume rendering method. Such image generation processing can be realized in the form of a program, for example. Such a program is executed by the CPU 21, for example.

ステップ401:コンピュータ20は、複数のボクセルを取得する。複数のボクセルのそれぞれはCT値を有している。このような複数のボクセルの取得は、例えば、CPU21が入力インターフェース部23を介してCT装置10から出力された複数のボクセルを受け取ることによって達成される。しかし、複数のボクセルを取得する態様はこれに限定されない。コンピュータ20は、任意の態様で複数のボクセルを取得し得る。例えば、コンピュータ20は、磁気ディスクなどの記録媒体に記録された複数のボクセルを読み出すことによって複数のボクセルを取得してもよいし、CT装置10から受け取った複数のボクセルのうちの一部(例えば、CT装置10から受け取った複数のボクセルのうちユーザによって選択されたもの)を取得するようにしてもよい。   Step 401: The computer 20 acquires a plurality of voxels. Each of the plurality of voxels has a CT value. Such acquisition of a plurality of voxels is achieved, for example, when the CPU 21 receives a plurality of voxels output from the CT apparatus 10 via the input interface unit 23. However, the aspect of acquiring a plurality of voxels is not limited to this. The computer 20 may obtain a plurality of voxels in any manner. For example, the computer 20 may acquire a plurality of voxels by reading a plurality of voxels recorded on a recording medium such as a magnetic disk, or a part of the plurality of voxels received from the CT apparatus 10 (for example, , One selected by the user among the plurality of voxels received from the CT apparatus 10) may be acquired.

ステップ402:コンピュータ20は、メモリ22に格納された少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、ステップ401において取得された複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てる。例えば、当該ボクセルがCT値=100を有しており、かつ、ユーザによって選択されたテンプレートにおいてCT値=100に対応する不透明度が0.2に設定されており、かつ、ユーザによって選択されたテンプレートにおいてCT値=100に対応するRGB配合比率が(R,G,B)=(0.1,0.3,0.6)に設定されていると仮定する。この場合、ステップ402において、コンピュータ20は、ユーザによって選択されたテンプレートに定義されるCT値と不透明度との関係と、CT値とRGB配合比率との関係とを参照する。その結果、コンピュータ20は、CT値=100に対応する不透明度(0.2)と、CT値=100に対応するRGB配合比率((R,G,B)=(0.1,0.3,0.6))とを当該ボクセルに割り当てる。   Step 402: The computer 20 refers to the template selected by the user among the at least one template stored in the memory 22 to respond to each of the plurality of voxels acquired in Step 401 according to the CT value of the voxel. Assign opacity and RGB blending ratio. For example, the voxel has a CT value = 100, and the opacity corresponding to the CT value = 100 is set to 0.2 in the template selected by the user, and is selected by the user. Assume that the RGB blending ratio corresponding to CT value = 100 in the template is set to (R, G, B) = (0.1, 0.3, 0.6). In this case, in step 402, the computer 20 refers to the relationship between the CT value and the opacity defined in the template selected by the user, and the relationship between the CT value and the RGB blend ratio. As a result, the computer 20 has the opacity (0.2) corresponding to the CT value = 100 and the RGB blending ratio ((R, G, B) = (0.1, 0.3) corresponding to the CT value = 100. , 0.6)) is assigned to the voxel.

このようにして、ユーザによって選択されたテンプレートの内容(すなわち、CT値と不透明度との関係とCT値とRGB配合比率との関係)を複数のボクセルに反映させることが可能になる。その結果、画像処理の熟練者でないユーザでも、容易に、かつ、再現性を担保した形で所望の目的に応じた画像処理を行うことが可能になる。なぜなら、ユーザは所望の目的に応じて適切なテンプレートを選択すれば足り(例えば、ユーザが「肺」を実体感をもってカラー表示することを希望する場合には、ユーザは「肺」用のテンプレートを選択すれば足り)、ユーザはテンプレートの内容を知っておく必要もないし、理解しておく必要もないからである。   In this way, the contents of the template selected by the user (that is, the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blend ratio) can be reflected in a plurality of voxels. As a result, even a user who is not skilled in image processing can easily perform image processing according to a desired purpose while ensuring reproducibility. This is because it is sufficient for the user to select an appropriate template according to the desired purpose (for example, when the user desires to display “lung” in color with a sense of reality, the user selects a template for “lung”. This is because the user does not need to know or understand the contents of the template.

ステップ403:コンピュータ20は、ステップ402において不透明度とRGB配合比率とがそれぞれ割り当てられた複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成する。その所定の処理には、例えば、任意の視点からボクセル追跡(レイトレーシング)を行うことにより、複数のボクセルを投影面(2次元平面)に投影することが含まれる。このようなレイトレーシングは周知の処理であるからその説明の詳細を省略する。   Step 403: The computer 20 performs a predetermined process on the plurality of voxels to which the opacity and the RGB blending ratio are assigned in Step 402, thereby generating a color two-dimensional image. The predetermined process includes, for example, projecting a plurality of voxels onto a projection plane (two-dimensional plane) by performing voxel tracking (ray tracing) from an arbitrary viewpoint. Since such ray tracing is a well-known process, the detailed description thereof is omitted.

コンピュータ20は、ステップ403において生成されたカラーの2次元画像を表示装置30に出力する。このような出力は、例えば、CPU21が出力インターフェース部24を介してカラーの2次元画像を表示装置30に出力することによって達成される。   The computer 20 outputs the color two-dimensional image generated in step 403 to the display device 30. Such output is achieved, for example, when the CPU 21 outputs a color two-dimensional image to the display device 30 via the output interface unit 24.

このように、CPU21が上述した画像生成処理を実現するプログラムを実行することにより、コンピュータ20は、CT値をそれぞれ有する複数のボクセルを取得する手段と、メモリ22に格納された少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、その複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てる手段と、その複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成する手段とを備えた装置(ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する装置)として機能する。   As described above, when the CPU 21 executes the program for realizing the above-described image generation processing, the computer 20 acquires a plurality of voxels each having a CT value, and at least one template stored in the memory 22. By referring to the template selected by the user, a means for assigning opacity and RGB blending ratio according to the CT value of the voxel to each of the plurality of voxels, and predetermined processing for the plurality of voxels To function as an apparatus (an apparatus that generates an image suitable for a desired purpose using a volume rendering method).

なお、図4に示される各ステップの機能は、ソフトウェア(例えば、プログラム)によって実現されることに限定されない。図4に示される各ステップの機能をハードウェア(例えば、回路、ボード、半導体チップ)によって実現してもよいし、ソフトウェアとハードウェアとの組み合わせによって実現してもよい。例えば、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する装置は、ボリュームレンダリングボードであってもよい。   Note that the function of each step shown in FIG. 4 is not limited to being realized by software (for example, a program). The function of each step shown in FIG. 4 may be realized by hardware (for example, a circuit, a board, a semiconductor chip), or may be realized by a combination of software and hardware. For example, a device that generates an image suitable for a desired purpose using the volume rendering method may be a volume rendering board.

図5は、図4に示されるステップ402の機能を実現するためのユーザインターフェースの一例を示す。   FIG. 5 shows an example of a user interface for realizing the function of step 402 shown in FIG.

図5に示される例では、少なくとも1つのテンプレートがアイコンリスト500の形式で表示装置30に表示されており、複数のボクセルがファイルリスト510の形式で表示装置30に表示されている。この場合、ユーザが行うべき操作は、例えば、表示装置30に表示されている少なくとも1つのテンプレートのうちの1つ(例えば、「肺」用のテンプレート501)を選択し、かつ、表示装置30に表示されているファイルリスト510のうちの少なくとも一部(例えば、図5において参照番号512によって示される範囲)を選択することである。このようなユーザの操作により、「ユーザがテンプレートを選択すること」と「ユーザによって選択されたテンプレートの内容(すなわち、CT値と不透明度との関係とCT値とRGB配合比率との関係)を複数のボクセルに割り当てること」とを実現することが可能になる。例えば、ユーザインターフェース部25にマウス25aが接続されている場合には、ユーザがマウス25aのボタンをクリックすることにより、CPU21は、マウス25aが指している位置にあるものをユーザが選択したと認識することができる。   In the example shown in FIG. 5, at least one template is displayed on the display device 30 in the form of an icon list 500, and a plurality of voxels are displayed on the display device 30 in the form of a file list 510. In this case, the operation to be performed by the user is, for example, selecting one of at least one template displayed on the display device 30 (for example, the template 501 for “lung”) and performing the operation on the display device 30. Selecting at least a part of the displayed file list 510 (for example, a range indicated by reference numeral 512 in FIG. 5). By such a user operation, “the user selects the template” and “the contents of the template selected by the user (that is, the relationship between the CT value and the opacity and the relationship between the CT value and the RGB blending ratio). It is possible to realize “assignment to a plurality of voxels”. For example, when the mouse 25a is connected to the user interface unit 25, when the user clicks the button of the mouse 25a, the CPU 21 recognizes that the user has selected the one at the position pointed to by the mouse 25a. can do.

ファイルリスト510は、例えば、ボクセルを識別するための番号(画像番号)、寝台位置、X座標、Y座標およびZ座標を含む。ここで、X座標、Y座標およびZ座標は、ボクセルの3次元空間内の位置を特定するために使用される。   The file list 510 includes, for example, a number (image number) for identifying a voxel, a bed position, an X coordinate, a Y coordinate, and a Z coordinate. Here, the X coordinate, Y coordinate, and Z coordinate are used to specify the position of the voxel in the three-dimensional space.

ファイルリスト510を特定するために、例えば、患者リスト520が使用され得る。ファイルリスト510は、患者ごとに存在し得るからである。患者リスト520は、例えば、患者名、患者ID、性別、日時、モダリティ、検査IDおよび年齢を含む。患者リスト520もまた、表示装置30に表示され得る。   For example, a patient list 520 can be used to identify the file list 510. This is because the file list 510 may exist for each patient. The patient list 520 includes, for example, a patient name, patient ID, sex, date / time, modality, examination ID, and age. A patient list 520 may also be displayed on the display device 30.

なお、図4に示される画像生成処理に従って生成された複数のカラー2次元画像をアニメーション表示することも可能である。このような表示態様は、特定の疾患(例えば、乳ガン)の手術の進行をシミュレートする場合に特に好適である。   A plurality of color two-dimensional images generated according to the image generation process shown in FIG. 4 can be displayed as an animation. Such a display mode is particularly suitable for simulating the progress of surgery for a specific disease (for example, breast cancer).

図6Aは、アニメーション表示を行うために必要とされる4種類の転移関数(Transfer function)の一例を示す。図6Aに示される例では、転移関数”Skin”は、「皮膚」を表示することに適するように、CT値と不透明度の関係とCT値とRGB配分比率との関係を定義したものである。転移関数”Tumor”は、「腫瘍組織」を表示することに適するように、CT値と不透明度の関係とCT値とRGB配分比率との関係を定義したものである。転移関数”Lymph node”は、「リンパ節」を表示することに適するように、CT値と不透明度の関係とCT値とRGB配分比率との関係を定義したものである。転移関数”Vessel”は、「血管」を表示することに適するように、CT値と不透明度の関係とCT値とRGB配分比率との関係を定義したものである。   FIG. 6A shows an example of four types of transfer functions required to perform animation display. In the example shown in FIG. 6A, the transfer function “Skin” defines the relationship between the CT value and the opacity and the relationship between the CT value and the RGB distribution ratio so as to be suitable for displaying “skin”. . The transfer function “Tumor” defines the relationship between the CT value and the opacity and the relationship between the CT value and the RGB distribution ratio so as to be suitable for displaying “tumor tissue”. The transfer function “Lymph node” defines the relationship between the CT value and the opacity and the relationship between the CT value and the RGB distribution ratio so as to be suitable for displaying the “lymph node”. The transfer function “Vessel” defines the relationship between the CT value and the opacity and the relationship between the CT value and the RGB distribution ratio so as to be suitable for displaying “blood vessels”.

転移関数”Skin”と転移関数”Tumor”とを線形補間することによってこれらの転移関数の間に少なくとも1つの転移関数を生成し、転移関数”Tumor”と転移関数”Lymph node”とを線形補間することによってこれらの転移関数の間に少なくとも1つの転移関数を生成し、転移関数”Lymph node”と転移関数”Vessel”とを線形補間することによってこれらの転移関数の間に少なくとも1つの転移関数を生成することにより、アニメーション表示を行うために必要とされる4種類以上の転移関数を得ることができる。ここで、転移関数Xと転移関数Yとを線形補間するとは、転移関数XにおけるR(赤色)の配合比率と転移関数YにおけるR(赤色)の配合比率とを線形補間し、転移関数XにおけるG(緑色)の配合比率と転移関数YにおけるG(緑色)の配合比率とを線形補間し、転移関数XにおけるB(青色)の配合比率と転移関数YにおけるB(青色)の配合比率とを線形補間し、転移関数Xにおける不透明度と転移関数Yにおける不透明度とを線形補間することをいう。このような線形補間を連続的に行うことにより、色変化に不自然さがないアニメーション表示を実現することが可能になる。さらに、転移関数の線形補間を連続的に行うことに加えて、視点の移動、拡大/縮小、回転、平行移動の線形補間を連続的に行うことにより、動きに不自然さがないアニメーション表示を実現することが可能になる。   At least one transfer function is generated between these transfer functions by linearly interpolating the transfer function “Skin” and the transfer function “Tumor”, and the transfer function “Tumor” and the transfer function “Lymph node” are linearly interpolated. To generate at least one transfer function between these transfer functions, and at least one transfer function between these transfer functions by linearly interpolating between the transfer function “Lymph node” and the transfer function “Vessel”. By generating the above, it is possible to obtain four or more types of transfer functions required for performing animation display. Here, the linear interpolation between the transfer function X and the transfer function Y is to linearly interpolate the R (red) mixture ratio in the transfer function X and the R (red) mixture ratio in the transfer function Y, The G (green) blending ratio and the G (green) blending ratio in the transfer function Y are linearly interpolated, and the B (blue) blending ratio in the transition function X and the B (blue) blending ratio in the transition function Y are obtained. Linear interpolation is performed, and the opacity in the transfer function X and the opacity in the transfer function Y are linearly interpolated. By performing such linear interpolation continuously, it is possible to realize an animation display without unnatural color change. In addition to continuously performing linear interpolation of the transfer function, continuous linear interpolation of movement, enlargement / reduction, rotation, and parallel movement of the viewpoint enables animation display with no unnatural motion. Can be realized.

図6Bは、図6Aに示される転移関数を用いたアニメーション表示の一例を示す。図6Bから、(1)〜(5)の順に、「皮膚」→「腫瘍組織」→「リンパ節」→「血管」が連続的に表示されていく様子を当業者は理解することができる。このような表示態様は、特定の疾患(例えば、乳ガン)の手術の進行をシミュレートする場合に特に好適である。   FIG. 6B shows an example of an animation display using the transfer function shown in FIG. 6A. From FIG. 6B, those skilled in the art can understand that “skin” → “tumor tissue” → “lymph node” → “blood vessel” is sequentially displayed in the order of (1) to (5). Such a display mode is particularly suitable for simulating the progress of surgery for a specific disease (for example, breast cancer).

以上のように、本発明の好ましい実施形態を用いて本発明を例示してきたが、本発明は、この実施形態に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。   As mentioned above, although this invention has been illustrated using preferable embodiment of this invention, this invention should not be limited and limited to this embodiment. It is understood that the scope of the present invention should be construed only by the claims. It is understood that those skilled in the art can implement an equivalent range based on the description of the present invention and the common general technical knowledge from the description of specific preferred embodiments of the present invention.

本発明は、ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する方法、装置およびプログラム等として有用である。   The present invention is useful as a method, apparatus, program, and the like for generating an image suitable for a desired purpose using a volume rendering method.

本発明の実施の形態の画像処理システム1の構成の一例を示す図The figure which shows an example of a structure of the image processing system 1 of embodiment of this invention コンピュータ20の構成の一例を示す図The figure which shows an example of a structure of the computer 20 「肺」用のテンプレートにおいて定義されるCT値と不透明度との関係とCT値とRGB配合比率との関係の一例を示す図The figure which shows an example of the relationship between CT value and opacity defined in the template for “lung”, and the relationship between CT value and RGB blending ratio 図3Aに示される実線Rを抽出したものであり、CT値とR(赤色)の配合比率との関係の一例を示す図The solid line R shown in FIG. 3A is extracted, and shows an example of the relationship between the CT value and the blending ratio of R (red) 図3Aに示される実線Gを抽出したものであり、CT値とG(緑色)の配合比率との関係の一例を示す図The solid line G shown in FIG. 3A is extracted, and shows an example of the relationship between the CT value and the blending ratio of G (green) 図3Aに示される実線Bを抽出したものであり、CT値とB(青色)の配合比率との関係の一例を示す図FIG. 3B is a diagram showing an example of the relationship between the CT value and the blending ratio of B (blue), extracted from the solid line B shown in FIG. 図3Aに示される実線opacityを抽出したものであり、CT値と不透明度との関係の一例を示す図FIG. 3B is a diagram showing an example of the relationship between CT value and opacity, extracted from the solid line opacity shown in FIG. 3A. 図3Aに示される「肺」用のテンプレートの内容を複数のボクセルに反映させることによって得られるカラーの2次元画像の一例を示す図The figure which shows an example of the color two-dimensional image obtained by reflecting the content of the template for "lung" shown in FIG. 3A on a plurality of voxels ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する画像生成処理の手順の一例を示すフローチャートThe flowchart which shows an example of the procedure of the image generation process which produces | generates the image suitable for the desired objective using a volume rendering method 図4に示されるステップ402の機能を実現するためのユーザインターフェースの一例を示す図The figure which shows an example of the user interface for implement | achieving the function of step 402 shown by FIG. アニメーション表示を行うために必要とされる4種類の転移関数(Transfer function)の一例を示す図The figure which shows an example of four types of transfer functions (Transfer function) required in order to perform an animation display 図6Aに示される転移関数を用いたアニメーション表示の一例を示す図The figure which shows an example of the animation display using the transfer function shown by FIG. 6A

符号の説明Explanation of symbols

1 画像処理システム
10 CT装置
12 ボクセルの集合
20 コンピュータ
30 表示装置
DESCRIPTION OF SYMBOLS 1 Image processing system 10 CT apparatus 12 Set of voxels 20 Computer 30 Display apparatus

Claims (5)

コンピュータ上でボリュームレンダリング方法を用いて所望の目的に適した画像を生成する方法であって、
該コンピュータのメモリには、少なくとも1つのテンプレートが格納されており、
該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、
該方法は、
該コンピュータが、CT値をそれぞれ有する複数のボクセルを取得するステップと、
該コンピュータが、該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てるステップと、
該コンピュータが、該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成するステップと
を包含する、方法。
A method for generating an image suitable for a desired purpose using a volume rendering method on a computer,
At least one template is stored in the memory of the computer;
Each of the at least one template defines at least a relationship between the CT value and the opacity and a relationship between the CT value and the RGB blend ratio so as to suit the desired purpose.
The method
The computer obtaining a plurality of voxels each having a CT value;
The computer assigning an opacity and an RGB blending ratio to each of the plurality of voxels by referring to a template selected by the user among the at least one template;
The computer generating a color two-dimensional image by performing predetermined processing on the plurality of voxels.
前記少なくとも1つのテンプレートは、臓器ごとに、もしくは、身体の部位ごとに、もしくは、疾患ごとに、もしくは、手術の種類ごとに予め設計されている、請求項1に記載の方法。   The method according to claim 1, wherein the at least one template is designed in advance for each organ, for each body part, for each disease, or for each type of surgery. 前記方法は、
前記コンピュータが、複数のカラーの2次元画像を線形補間することにより、該複数のカラーの2次元画像の間に少なくとも1つのカラーの2次元画像を生成するステップをさらに包含する、請求項1に記載の方法。
The method
The computer further includes generating at least one color two-dimensional image between the plurality of color two-dimensional images by linearly interpolating the plurality of color two-dimensional images. The method described.
ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する装置であって、
該装置のメモリには、少なくとも1つのテンプレートが格納されており、
該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、
該装置は、
CT値をそれぞれ有する複数のボクセルを取得する手段と、
該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てる手段と、
該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成する手段と
を備えた、装置。
An apparatus for generating an image suitable for a desired purpose using a volume rendering method,
At least one template is stored in the memory of the device;
Each of the at least one template defines at least a relationship between the CT value and the opacity and a relationship between the CT value and the RGB blend ratio so as to suit the desired purpose.
The device
Means for obtaining a plurality of voxels each having a CT value;
Means for allocating opacity and RGB blending ratio according to the CT value of the voxel to each of the plurality of voxels by referring to the template selected by the user among the at least one template;
Means for generating a color two-dimensional image by performing predetermined processing on the plurality of voxels.
ボリュームレンダリング方法を用いて所望の目的に適した画像を生成する画像生成処理をコンピュータに実行させるプログラムであって、
該コンピュータのメモリには、少なくとも1つのテンプレートが格納されており、
該少なくとも1つのテンプレートのそれぞれは、該所望の目的に適するように、CT値と不透明度との関係と、CT値とRGB配合比率との関係とを少なくとも定義したものであり、
該画像生成処理は、
CT値をそれぞれ有する複数のボクセルを取得するステップと、
該少なくとも1つのテンプレートのうちユーザによって選択されたテンプレートを参照することにより、該複数のボクセルのそれぞれに当該ボクセルのCT値に応じた不透明度とRGB配合比率とを割り当てるステップと、
該複数のボクセルに対して所定の処理を行うことにより、カラーの2次元画像を生成するステップと
を包含する、プログラム。
A program for causing a computer to execute image generation processing for generating an image suitable for a desired purpose using a volume rendering method,
At least one template is stored in the memory of the computer;
Each of the at least one template defines at least a relationship between the CT value and the opacity and a relationship between the CT value and the RGB blend ratio so as to suit the desired purpose.
The image generation process includes:
Obtaining a plurality of voxels each having a CT value;
Assigning an opacity and an RGB blending ratio according to the CT value of the voxel to each of the plurality of voxels by referring to a template selected by the user among the at least one template;
Generating a color two-dimensional image by performing predetermined processing on the plurality of voxels.
JP2004009732A 2004-01-16 2004-01-16 Method, device, and program for forming image Withdrawn JP2005202791A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004009732A JP2005202791A (en) 2004-01-16 2004-01-16 Method, device, and program for forming image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004009732A JP2005202791A (en) 2004-01-16 2004-01-16 Method, device, and program for forming image

Publications (1)

Publication Number Publication Date
JP2005202791A true JP2005202791A (en) 2005-07-28

Family

ID=34822679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004009732A Withdrawn JP2005202791A (en) 2004-01-16 2004-01-16 Method, device, and program for forming image

Country Status (1)

Country Link
JP (1) JP2005202791A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029487A (en) * 2005-07-28 2007-02-08 Yokogawa Electric Corp Medical image data processing apparatus and medical image data processing method
WO2009122725A1 (en) 2008-04-03 2009-10-08 富士フイルム株式会社 Intermediate image generating method, device, and program
WO2022168925A1 (en) * 2021-02-04 2022-08-11 株式会社Kompath Information processing system, program, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11409A (en) * 1997-06-13 1999-01-06 Hitachi Ltd Image processing apparatus for planning radiotherapy
JP2001502453A (en) * 1996-10-16 2001-02-20 バイタル イメージズ,インコーポレイティド State-of-the-art diagnostic viewer
JP2001319220A (en) * 2000-05-03 2001-11-16 Ge Medical Systems Global Technology Co Llc Extraction of related data from medical image data volume
JP2003265408A (en) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp Endoscope guide device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001502453A (en) * 1996-10-16 2001-02-20 バイタル イメージズ,インコーポレイティド State-of-the-art diagnostic viewer
JPH11409A (en) * 1997-06-13 1999-01-06 Hitachi Ltd Image processing apparatus for planning radiotherapy
JP2001319220A (en) * 2000-05-03 2001-11-16 Ge Medical Systems Global Technology Co Llc Extraction of related data from medical image data volume
JP2003265408A (en) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp Endoscope guide device and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029487A (en) * 2005-07-28 2007-02-08 Yokogawa Electric Corp Medical image data processing apparatus and medical image data processing method
WO2009122725A1 (en) 2008-04-03 2009-10-08 富士フイルム株式会社 Intermediate image generating method, device, and program
US8416239B2 (en) 2008-04-03 2013-04-09 Fujifilm Corporation Intermediate image generation method, apparatus, and program
WO2022168925A1 (en) * 2021-02-04 2022-08-11 株式会社Kompath Information processing system, program, and information processing method

Similar Documents

Publication Publication Date Title
JP6081907B2 (en) System and method for computerized simulation of medical procedures
Gallo et al. 3D interaction with volumetric medical data: experiencing the Wiimote
JP4446663B2 (en) Method, system and computer program for creating medical reports
CN109427059B (en) Planar visualization of anatomical structures
US20160232703A1 (en) System and method for image processing
JP2009034521A (en) System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
CN104050711B (en) Medical image-processing apparatus and medical image processing method
JP2005518915A (en) Visualization of fusion between volumes
US10249092B2 (en) System and method for rendering complex data in a virtual reality or augmented reality environment
CN107169919A (en) The method and system that acceleration for 3D medical volumes is read
WO2007122896A1 (en) Medical image display system and medical image display program
JP2006055213A (en) Image processor and program
JP2015513945A6 (en) Tooth graph cut-based interactive segmentation method in 3D CT volumetric data
Pires et al. On the use of virtual reality for medical imaging visualization
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
JP4313910B2 (en) Image display device
JP2006075216A (en) Medical image processing system, program and method
JP2022547450A (en) Method, computer program, user interface, and system for analyzing medical image data in virtual multi-user collaboration
JP2010131315A (en) Medical image processor and medical image processing program
Drouin et al. PRISM: An open source framework for the interactive design of GPU volume rendering shaders
JP2005202791A (en) Method, device, and program for forming image
JP2018121857A (en) Medical image processing device, medical image processing method, and medical image processing program
JPH1153577A (en) Three-dimensional medical image processor
Williams A method for viewing and interacting with medical volumes in virtual reality
JP2008110177A (en) Medical image generating apparatus and method therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070226

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070323

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080704