JP2010075549A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2010075549A
JP2010075549A JP2008248789A JP2008248789A JP2010075549A JP 2010075549 A JP2010075549 A JP 2010075549A JP 2008248789 A JP2008248789 A JP 2008248789A JP 2008248789 A JP2008248789 A JP 2008248789A JP 2010075549 A JP2010075549 A JP 2010075549A
Authority
JP
Japan
Prior art keywords
image
wall surface
condition
processing apparatus
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008248789A
Other languages
Japanese (ja)
Inventor
Kentaro Furuhata
賢太郎 古旗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2008248789A priority Critical patent/JP2010075549A/en
Publication of JP2010075549A publication Critical patent/JP2010075549A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical image processor, etc., for visualizing relation between the inner cavity of a luminal organ and a focus part invading the external side of the organ, and displaying the relation in an easily observable form. <P>SOLUTION: Visualization processing corresponding to respective intrinsic conditions is performed with respect to the internal region looking in on the wall surface of the luminal organ and an external region including the wall surface. Especially, in the external region including the wall surface of the luminal organ, the condition is set so that the wall surface is made translucent in accordance with a fixed thickness, and the visualization processing corresponding to the condition is performed. Thus, the visualization is attained in the focus part with invasion from the wall surface to the external side, the state of a related organ, and the wall surface state of the luminal organ itself, etc. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

医用画像診断装置から得られる原画像のボリュームデータを用いて臓器の三次元画像を作成して表示することで、ユーザーに診断情報を提供する医用の画像処理装置に関するもので、特に、血管や大腸などの管腔臓器の内腔、壁面及びその外側を可視化して表示できる装置に関して使用されるものである。   The present invention relates to a medical image processing apparatus that provides diagnostic information to a user by creating and displaying a three-dimensional image of an organ using volume data of an original image obtained from a medical image diagnostic apparatus. It is used for a device that can visualize and display the lumen, wall surface, and the outside of a luminal organ.

近年の医用画像分野で使用される画像処理装置は、超音波診断装置、X線コンピュータ断層撮影装置(X線CT装置)、磁気共鳴イメージング装置(MRI装置)等の医用画像機器と組み合わせて使用され、多くの病院、検査機関等で広く利用されている。この画像処理装置によって提供される三次元画像は、手術前のシミュレーション等において、消化管の腫瘍、プラーク(斑点)の形成、狭搾症等の原因を調べる際に行う消化管腔の画像化等に有効利用されている。   Image processing apparatuses used in the medical image field in recent years are used in combination with medical imaging equipment such as an ultrasonic diagnostic apparatus, an X-ray computed tomography apparatus (X-ray CT apparatus), and a magnetic resonance imaging apparatus (MRI apparatus). Widely used in many hospitals and inspection institutions. The three-dimensional image provided by this image processing apparatus is a gastrointestinal tract cavity imaging performed when examining the cause of digestive tract tumors, plaque formation, stenosis, etc. It is used effectively.

特に、近年のコンピュータ技術の進歩により、種々の形態による画像表示が可能である。その代表的なものとして、フライスルー法がある。この手法は、X線CT装置やMRI装置などで取得された原画像のボリュームデータを用いて、管腔臓器の内腔(例えば気管支や腸管など)を、あたかも内視鏡スコープで覗いている様な画像を表示するものである。従来の画像処理装置を用いれば、ボリュームレンダリングの透明度を適切な値に設定することで、臓器の内腔から見た壁面(例えば、気管支、血管、腸管等の内壁)の状態を再構成して表示することができる。   In particular, image display in various forms is possible due to recent advances in computer technology. A typical example is a fly-through method. In this method, the volume of the original image acquired by an X-ray CT device or MRI device is used to look into the lumen of a luminal organ (such as the bronchus or intestinal tract) with an endoscope scope. A simple image is displayed. By using a conventional image processing device, the volume rendering transparency can be set to an appropriate value to reconstruct the state of the wall (eg, the inner wall of a bronchus, blood vessel, intestinal tract, etc.) seen from the lumen of the organ. Can be displayed.

しかしながら、従来の画像処理装置においては、例えば次のような問題がある。   However, the conventional image processing apparatus has the following problems, for example.

すなわち、従来の画像処理装置によって提供されるフライスルー画像は、内視鏡スコープで見ることのできる画像と同じ程度の情報しか得られず、医師が診断や治療に対して知りたいと思っている情報(例えば、内視鏡を使用した術式の適用範囲を把握するために、臓器の壁面から外側に向かって、病巣部(例えば、肺癌、大腸癌、胃癌など)が、どの程度の範囲まで浸潤しているか等を把握可能な情報)を提供することはできない。   That is, the fly-through image provided by the conventional image processing apparatus can obtain only the same level of information as the image that can be viewed with the endoscope scope, and the doctor wants to know about diagnosis and treatment. To determine the extent of the lesion (for example, lung cancer, colon cancer, stomach cancer, etc.) from the wall of the organ to the outside in order to grasp the scope of information (for example, the operation method using an endoscope) It is not possible to provide information that can be grasped such as infiltration.

本発明は、上記事情を鑑みてなされたもので、管腔臓器の内腔、壁面及びその外側に浸潤している病巣部の関係を可視化し、またこれを観察し易い形態にて表示することができる画像処理装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and visualizes the relationship between the lumen, the wall surface of a luminal organ, and a lesion portion invading the lumen, and displays the relationship in an easily observable form. An object of the present invention is to provide an image processing apparatus capable of performing the above.

本発明は、上記目的を達成するため、次のような手段を講じている。   In order to achieve the above object, the present invention takes the following measures.

本発明の第1の視点は、管腔臓器に関するボリュームデータを記憶する記憶手段と、前記管腔臓器の内腔を含む第1の領域の映像化についての第1の条件と、当該第1の条件とは異なる条件であって、前記管腔臓器の壁面及びその外側を含む第2の領域の映像化についての第2の条件と、をそれぞれ決定する決定手段と、前記第2の条件に従う映像化処理を実行し、前記第2の領域を含む画像を生成する画像生成手段と、前記画像生成手段によって作成された画像を表示する表示手段と、を具備することを特徴とする画像処理装置である。   According to a first aspect of the present invention, there is provided storage means for storing volume data relating to a luminal organ, a first condition for imaging a first region including a lumen of the luminal organ, Determining means for determining a second condition for imaging the second region including the wall surface of the luminal organ and the outside thereof, and images according to the second condition. An image processing apparatus comprising: an image generation unit that executes an image processing, and generates an image including the second area; and a display unit that displays an image created by the image generation unit. is there.

本発明の第2の視点は、被検体の管腔臓器に関するボリュームデータを取得するデータ取得手段と、前記管腔臓器の内腔を含む第1の領域の映像化についての第1の条件と、当該第1の条件とは異なる条件であって、前記管腔臓器の壁面及びその外側を含む第2の領域の映像化についての第2の条件と、をそれぞれ決定する決定手段と、前記第2の条件に従う映像化処理を実行し、前記第2の領域を含む画像を生成する画像生成手段と、前記画像生成手段によって作成された画像を表示する表示手段と、を具備することを特徴とする医用画像診断装置である。   According to a second aspect of the present invention, there is provided a data acquisition means for acquiring volume data relating to a luminal organ of a subject, a first condition for imaging a first region including a lumen of the luminal organ, Determining means for determining a second condition for imaging a second region including a wall surface of the luminal organ and the outside thereof, the second condition being different from the first condition; And an image generation unit that generates an image including the second region and a display unit that displays an image created by the image generation unit. This is a medical image diagnostic apparatus.

以上本発明によれば、管腔臓器の内腔、壁面及びその外側に浸潤している病巣部の関係を可視化し、またこれを観察し易い形態にて表示することができる画像処理装置を実現することができる。   As described above, according to the present invention, an image processing apparatus that can visualize the relationship between a lumen, a wall surface of a luminal organ, and a lesion part invading the lumen, and display the relationship in an easily observable form is realized. can do.

以下、本発明の第1実施形態及び第2実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。   Hereinafter, first and second embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.

(第1実施形態)
図1は、本実施形態に係る画像処理装置1のブロック構成図を示している。同図に示すように、本画像処理装置1は、操作部10、表示部12、送受信部14、制御部16、記憶部18、三次元画像レンダリング部20を具備している。
(First embodiment)
FIG. 1 is a block diagram of an image processing apparatus 1 according to this embodiment. As shown in the figure, the image processing apparatus 1 includes an operation unit 10, a display unit 12, a transmission / reception unit 14, a control unit 16, a storage unit 18, and a 3D image rendering unit 20.

操作部10は、画像処理において用いられる各種表示条件等の設定を入力するためのマウス、キーボード等を有する入力装置である。   The operation unit 10 is an input device having a mouse, a keyboard, and the like for inputting settings such as various display conditions used in image processing.

表示部12は、医用画像、各種設定を入力するための対話的画面等を表示する。   The display unit 12 displays a medical image, an interactive screen for inputting various settings, and the like.

送受信部14は、各種医用画像診断装置によって取得された画像等を、ネットワークNを介して他の装置と送受信する。   The transmission / reception unit 14 transmits / receives images acquired by various medical image diagnosis apparatuses to / from other apparatuses via the network N.

制御部16は、当該医用画像処理装置の動作を統括的に制御する。特に、制御部16は、記憶部18に記憶された専用プログラムを図示していないメモリ上に展開し、これに従って三次元画像レンダリング部20を構成し動作させることで、管腔臓器壁面とその外側に浸潤している病巣部の関係を可視化するための機能(以下「管腔臓器病巣部等の可視化機能」と呼ぶ。)を実現する。この管腔臓器病巣部等の可視化機能については、後で詳しく説明する。   The control unit 16 comprehensively controls the operation of the medical image processing apparatus. In particular, the control unit 16 expands the dedicated program stored in the storage unit 18 on a memory (not shown), and configures and operates the three-dimensional image rendering unit 20 in accordance with the expanded program, so that the luminal organ wall surface and the outside thereof The function for visualizing the relationship between the lesions infiltrating into the body (hereinafter referred to as “visualization function of the luminal organ lesion etc.”) is realized. The visualization function of this luminal organ lesion will be described in detail later.

記憶部18は、各種医用画像診断装置によって取得されたボリュームデータの他、管腔臓器病巣部等の可視化機能を実現するための専用プログラムを記憶する。   The storage unit 18 stores volume data acquired by various medical image diagnostic apparatuses and a dedicated program for realizing a visualization function of a luminal organ lesion or the like.

図2は、X線CT装置によって収集されるボリュームデータ(CTボリュームデータ)を模式的に示したものである。同図に示すように、CTボリュームデータは、X線CT装置によって収集される二次元画像(CT原画像)を積層し、また必要に応じて補間することで生成される。記憶部18は、この様なボリュームデータを、患者ID、検査種等を含む付帯情報と共に記憶する。   FIG. 2 schematically shows volume data (CT volume data) collected by the X-ray CT apparatus. As shown in the figure, CT volume data is generated by stacking two-dimensional images (CT original images) collected by an X-ray CT apparatus and interpolating as necessary. The storage unit 18 stores such volume data together with incidental information including a patient ID, examination type, and the like.

三次元画像レンダリング部20は、通常のボリュームレンダリング処理(管腔臓器の内腔を含む領域の映像化処理)、及び管腔臓器病巣部等を可視化するためのボリュームレンダリング処理(管腔臓器病巣部等に関する映像化処理)を実行するものであり、臓器表示条件設定部200、壁面表示条件設定部201、画像作成部202を有している。   The three-dimensional image rendering unit 20 includes a normal volume rendering process (imaging process of a region including the lumen of a luminal organ) and a volume rendering process (luminal organ lesion part) for visualizing a luminal organ lesion part. And an organ display condition setting unit 200, a wall surface display condition setting unit 201, and an image creation unit 202.

臓器表示条件設定部200は、通常のボリュームレンダリング処理において用いられる臓器表示条件を設定するものである。ここで、臓器表示条件とは、管腔臓器の内腔を含む領域を可視化するための視点位置、視線方向ベクトル、光源位置、不透明度(Opacity)又は透明度(Transparency)、FOV、カラーテーブル等の各種パラメータのうちの少なくとも一つを含むものである。以下、各パラメータについて説明する。   The organ display condition setting unit 200 sets an organ display condition used in normal volume rendering processing. Here, the organ display conditions are a viewpoint position for visualizing a region including a lumen of a hollow organ, a gaze direction vector, a light source position, opacity (transparency), FOV, a color table, etc. It includes at least one of various parameters. Hereinafter, each parameter will be described.

[視点位置、視線方向ベクトル、光源位置]
ボリュームデータ空間上に設定される視点位置、視線方向ベクトル、光源位置である。これらは、ボリュームレンダリングにおける投影変換が透視投影(Perspective Projection)であるのか、平行投影(Parallel Projection)であるのかに応じてそれぞれ設定される。
[Viewpoint position, gaze direction vector, light source position]
The viewpoint position, the line-of-sight direction vector, and the light source position set in the volume data space. These are set depending on whether the projection transformation in volume rendering is perspective projection or parallel projection.

図3(a)、(b)は、内腔を含む領域の映像化において設定される視点位置、視線方向ベクトルを説明するための図である。すなわち、初期設定または操作部10からのマニュアル操作により、ボリュームデータ空間上のある任意の点が透視投影画像の視点位置(例えば血管内の任意の点)として設定され、また、当該視点位置からの観察方向を示す視線方向(例えば、血管の長手方向)が設定される。特に、マニュアル操作による場合には、図3(a)に示す平行投影画像上に、操作部10からの操作によって視点位置及び視線方向を指定できることが好ましい。この設定に従ったボリュームレンダリング処理により、例えば図3(b)示すような透視投影画像を得ることができる。   FIGS. 3A and 3B are diagrams for explaining the viewpoint position and the line-of-sight direction vector set in the visualization of the region including the lumen. That is, an arbitrary point on the volume data space is set as a viewpoint position of the perspective projection image (for example, an arbitrary point in the blood vessel) by initial setting or manual operation from the operation unit 10, and A line-of-sight direction (for example, the longitudinal direction of the blood vessel) indicating the observation direction is set. In particular, in the case of manual operation, it is preferable that the viewpoint position and the line-of-sight direction can be designated by the operation from the operation unit 10 on the parallel projection image shown in FIG. For example, a perspective projection image as shown in FIG. 3B can be obtained by volume rendering processing according to this setting.

[不透明度又は透明度]
不透明度(又は透明度)は、ボリュームデータ空間上における原画像上の各画素値(例えばCT値)に応じて割り当てられる。
[Opacity or transparency]
The opacity (or transparency) is assigned according to each pixel value (for example, CT value) on the original image in the volume data space.

図4は、透明度の設定形態の一例を示したグラフである。ボリュームレンダリングにおいて不透明度を設定する場合、透明は0以下の値に、不透明は1以上の値に設定される。なお、このグラフを用いた不透明度の設定は一例である。従って、不透明度の設定形態は当該例に限定されず、例えば不透明度を示す直線又は曲線の形状は、各画素値と不透明度との対応関係を定義するものであれば、どの様なものであってもよい。   FIG. 4 is a graph showing an example of a transparency setting mode. When setting opacity in volume rendering, transparency is set to a value of 0 or less and opacity is set to a value of 1 or more. The setting of opacity using this graph is an example. Therefore, the opacity setting form is not limited to this example. For example, the shape of a straight line or a curve indicating opacity is not limited as long as it defines the correspondence between each pixel value and opacity. There may be.

[カラーテーブル]
原画像上の各画素値に割り当てられるボリュームレンダリング画像描画時の色であり、通常、RGBαの32ビットで表記される。しかしながら、カラーテーブルは各画素値との対応関係を定義するものであれば、どの様なものであってもよい。例えば、図5に示すように、不透明度設定のグラフを用いてカラーテーブルを定義することも可能である。同図においては、56以下の画素値を肌色、250以上の画素値を白色、56と250の間に対応する画素値を橙色に対応させるように定義している。また、この色情報については、それぞれ画素値の違いによって色にグラデーションが付けられている場合もある。
[Color table]
This is a color at the time of rendering a volume rendering image assigned to each pixel value on the original image, and is usually represented by 32 bits of RGBα. However, the color table may be anything as long as it defines the correspondence with each pixel value. For example, as shown in FIG. 5, it is also possible to define a color table using an opacity setting graph. In the figure, pixel values of 56 or less are defined to correspond to skin color, pixel values of 250 or more to white, and pixel values corresponding to between 56 and 250 are defined to correspond to orange. In addition, for this color information, there is a case where a gradation is added to the color due to a difference in pixel value.

[FOV]
視点位置から見た視線方向ベクトルの向きで、どのくらいの領域を描画するかを指定するパラメータであり、例えば角度で指定される。
[FOV]
This is a parameter for designating how much area is drawn in the direction of the line-of-sight vector viewed from the viewpoint position, and is designated by an angle, for example.

図6(a)、(b)は、透視投影の場合に設定されるFOVを説明するための図である。すなわち、図6(a)に示すように、平行投影画像上においてFOVを角度θで設定すると、視点位置を基準として視線方向にθの円柱領域(又は円錐領域等)が設定され、この領域内に存在するボリュームデータを対象としてレンダリング処理が実行され、図6(b)示すような透視投影画像を得ることができる。   FIGS. 6A and 6B are diagrams for explaining the FOV set in the case of perspective projection. That is, as shown in FIG. 6A, when the FOV is set at an angle θ on the parallel projection image, a cylindrical region (or conical region or the like) of θ is set in the line-of-sight direction with respect to the viewpoint position. The rendering process is executed on the volume data existing in the image, and a perspective projection image as shown in FIG. 6B can be obtained.

画像作成部202は、臓器表示条件設定部200によって設定された臓器表示条件、又は壁面表示条件設定部201において設定された壁面表示条件に従って、平行投影又は透視投影によるボリュームレンダリング処理を実行する。   The image creating unit 202 executes volume rendering processing by parallel projection or perspective projection according to the organ display condition set by the organ display condition setting unit 200 or the wall surface display condition set by the wall surface display condition setting unit 201.

壁面表示条件設定部201は、壁面及びその内部のボリュームレンダリング処理において用いられる壁面表示条件を設定するものである。ここで、壁面表示条件とは、壁面及びその外側を可視化するための視点位置、視線方向ベクトル、光源位置、不透明度又は透明度、FOV、カラーテーブル、管腔臓器壁面の厚さ等の各種パラメータのうちの少なくとも一つを含むものである。以下、臓器表示条件と設定が異なるパラメータについて説明する。   The wall surface display condition setting unit 201 sets a wall surface display condition used in the wall surface and the volume rendering process in the wall surface. Here, the wall surface display conditions include various parameters such as a viewpoint position for visualizing the wall surface and the outside thereof, a line-of-sight vector, a light source position, opacity or transparency, FOV, color table, and luminal organ wall thickness. Including at least one of them. Hereinafter, parameters having different settings from the organ display conditions will be described.

[不透明度又は透明度]
臓器表示条件として設定される不透明度等とは異なり、管腔臓器の壁面を対象として別途設定する。この壁面表示条件の不透明度(又は透明度)は、管腔臓器の壁面が半透明となるように設定される。なお、設定の形態については、臓器表示条件の場合と同様である。
[Opacity or transparency]
Unlike the opacity or the like set as the organ display condition, it is set separately for the wall surface of the luminal organ. The opacity (or transparency) of the wall surface display condition is set so that the wall surface of the luminal organ is translucent. The setting mode is the same as in the case of the organ display condition.

[管腔臓器壁面の厚さ]
管腔臓器病巣部等に関する映像化処理において用いられる管腔臓器壁面の厚さである。この管腔臓器壁面の厚さの設定は、手動モードと自動モードとの二つのモードを用いることができる。
[Thickness of luminal organ wall]
This is the thickness of the wall surface of the luminal organ used in the imaging process related to the luminal organ lesion. Two modes, a manual mode and an automatic mode, can be used for setting the thickness of the luminal organ wall surface.

手動モードは、表示部12において表示されるGUIを用いて、操作部10からの入力により所望の厚みを設定する操作様式である。また、自動モードは、所定のプログラムにより自動的に壁面の厚さを設定するものである。例えば、図7(a)に示すように内側壁面(内側境界面)から外側に向かって伸びる壁厚方向の垂直ベクトル上で、図7(b)に示すような原画像上のCT値のプロファイルを取り、濃淡値(画素値)の極端に変化する点(変化が閾値以上となる点)を、外側壁面とその外側にある空間の境界面とすることで、壁面の厚さを自動設定する。   The manual mode is an operation mode in which a desired thickness is set by an input from the operation unit 10 using a GUI displayed on the display unit 12. In the automatic mode, the wall thickness is automatically set by a predetermined program. For example, as shown in FIG. 7A, a profile of the CT value on the original image as shown in FIG. 7B on a vertical vector in the wall thickness direction extending outward from the inner wall surface (inner boundary surface). The thickness of the wall surface is automatically set by taking the point where the gray value (pixel value) changes extremely (the point where the change is greater than or equal to the threshold value) as the boundary surface between the outer wall surface and the outer space. .

[カラーテーブル]
管腔臓器病巣部等に関する映像化処理において用いられるカラーテーブルの設定には、第1のモードと第2のモードとを用いることができる。
[Color table]
The first mode and the second mode can be used to set the color table used in the imaging process related to the luminal organ lesion or the like.

第1のモードは、臓器表示条件として設定されるカラーテーブルにおいて管腔臓器の壁面に対応する画素値に設定された色と、管腔臓器病巣部等に関する映像化処理において管腔臓器の壁面に割り当てる色とを同じにする様式である。一方、第2のモードは、臓器表示条件として設定されるカラーテーブルにおいて管腔臓器の壁面に対応する画素値に設定された色と、管腔臓器病巣部等に関する映像化処理において管腔臓器の壁面に割り当てる色とを異なるものにする様式である。   In the first mode, the color set to the pixel value corresponding to the wall surface of the luminal organ in the color table set as the organ display condition and the wall surface of the luminal organ in the imaging process regarding the luminal organ lesion or the like. It is a style that makes the assigned color the same. On the other hand, in the second mode, the color set to the pixel value corresponding to the wall surface of the luminal organ in the color table set as the organ display condition, and the imaging of the luminal organ in the imaging process regarding the luminal organ lesion, etc. It is a style that makes the color assigned to the wall different.

(管腔臓器病巣部等に関する映像化)
次に、三次元画像レンダリング部20において実行される管腔臓器病巣部等に関する映像化処理について説明する。この処理は、臓器壁面から外側に向かって通常とは異なる条件によりボリュームレンダリングを行うことで、臓器壁面及びその内部や外側を可視化し、病巣部がどの程度の範囲まで浸潤しているかを判定可能な情報を提供するものである。なお、以下の説明においては、図8に示すように、映像化対象とする管腔臓器を血管とし、これを透視投影により映像化する場合を例とする。
(Visualization of luminal organ lesions, etc.)
Next, an imaging process related to a luminal organ lesion part and the like executed in the three-dimensional image rendering unit 20 will be described. This processing makes it possible to determine the extent to which the lesion has infiltrated by visualizing the inside and outside of the organ wall by performing volume rendering from the normal to the outside of the organ wall. Information. In the following description, as shown in FIG. 8, a case where a luminal organ to be imaged is a blood vessel and this is imaged by perspective projection is taken as an example.

図9は、管腔臓器病巣部等に関する映像化において実行される処理の流れを示したフローチャートである。同図に示すように、まず、記憶部18からボリュームデータが読み出され、臓器表示条件、壁面表示条件が設定される(ステップS1)。ここでは、典型的な例を説明するため、視点位置は血管内に、視線方向ベクトルは血管の長手方向に沿って設定されるものとする。また、各条件を構成する各パラメータの入力については、既述のしたように自動でも手動でもよい。   FIG. 9 is a flowchart showing the flow of processing executed in the visualization of a luminal organ lesion or the like. As shown in the figure, first, volume data is read from the storage unit 18, and organ display conditions and wall surface display conditions are set (step S1). Here, in order to explain a typical example, it is assumed that the viewpoint position is set in the blood vessel and the line-of-sight direction vector is set in the longitudinal direction of the blood vessel. Further, as described above, input of each parameter constituting each condition may be automatic or manual.

次に、画像生成部202は、図10に示すように、視点から視線方向に沿って各レイを延ばし、臓器表示条件設定部201によって設定された条件に従って不透明になる点までを通常のボリュームレンダリングを実行する(ステップS2)。また、画像生成部202は、ボリュームレンダリングにおいて各画素に割り当てられた不透明度に基づいて、壁面を構成する画素を特定し、壁面を検出する(ステップS3)。この壁面の検出は、例えば透明度の値が1.0に設定されているCT値を持ったが素、又は光が減衰してそれ以上奥にある物体に光が届かなくなり、奥にある物体が見えなくなる位置(画素)を特定すること等で実現できる。   Next, as shown in FIG. 10, the image generation unit 202 extends each ray from the viewpoint along the line-of-sight direction, and performs normal volume rendering until the point becomes opaque according to the conditions set by the organ display condition setting unit 201. Is executed (step S2). Further, the image generation unit 202 specifies the pixels constituting the wall surface based on the opacity assigned to each pixel in the volume rendering, and detects the wall surface (step S3). The detection of the wall surface has, for example, a CT value with a transparency value set to 1.0, or the light is attenuated and no further light reaches an object in the back, and an object in the back This can be realized by specifying a position (pixel) that cannot be seen.

次に、画像生成部202は、各レイの内側壁面との接点における濃度勾配を算出する(ステップS4)。また、画像生成部202は、図10に示すように、当該勾配に基づいて各接点において内側壁面に対し垂直なベクトルを算出し、このベクトルを各接点における壁面の厚み方向とし(ステップS5)、当該厚み方向及び壁面表示条件として設定された厚さに基づいて外壁面の境界を設定する(ステップS6)。ここでは、設定される外壁面の境界は、例えば図11に示すようにステップS2において特定された壁面から所定の距離だけ外側に位置するものとする。   Next, the image generation unit 202 calculates the density gradient at the contact point of each ray with the inner wall surface (step S4). Further, as shown in FIG. 10, the image generation unit 202 calculates a vector perpendicular to the inner wall surface at each contact point based on the gradient, and sets this vector as the thickness direction of the wall surface at each contact point (step S5). The boundary of the outer wall surface is set based on the thickness direction and the thickness set as the wall surface display condition (step S6). Here, the boundary of the outer wall surface set is assumed to be located outside by a predetermined distance from the wall surface specified in step S2, for example, as shown in FIG.

次に、画像生成部202は、壁面及びその内部に関するボリュームレンダリング処理を実行する(ステップS7)。このとき、壁面内のレンダリングは、壁面表示条件に加えて次の条件に従うものとする。   Next, the image generation unit 202 executes a volume rendering process regarding the wall surface and the inside thereof (step S7). At this time, the rendering in the wall surface follows the following conditions in addition to the wall surface display condition.

・壁面内は透明である事とし、壁面の厚み内にレイ上の点が存在する場合、光の減衰は起こらないものとする。これにより、壁面の境界部分のみが、境界面として鮮明に描出される。 -The inside of the wall shall be transparent, and if there is a point on the ray within the thickness of the wall, no light attenuation will occur. Thereby, only the boundary part of a wall surface is drawn clearly as a boundary surface.

・壁面内は均一な物質で埋まっていると仮定し、壁面内をレイが進んでいる間は、一定の度合いで光は減衰する。 ・ Assuming that the wall surface is filled with a uniform material, the light attenuates to a certain degree while the ray is moving through the wall surface.

・レイ上をトレースして行き、光が減衰し壁面以外の場所で不透明になった点で止まる。 ・ Traces on the ray and stops at the point where the light attenuates and becomes opaque in places other than the wall.

・壁面内以外の場所にレイ上の点が存在する場合、通常のボリュームレンダリングの方法で画素値の値を計算し処理する。 -If a point on the ray exists in a place other than the inside of the wall surface, the pixel value is calculated and processed by a normal volume rendering method.

次に、ステップS7において求めたボリュームレンダリング画像の影付け値を、投影面上の画素値(結果画像上のピクセル値)として、画像上に書き込むことで、投影画像を生成する(ステップS8)。   Next, a projection image is generated by writing the shadow value of the volume rendering image obtained in step S7 on the image as a pixel value on the projection plane (a pixel value on the result image) (step S8).

なお、ステップS1〜S8までのレンダリング処理を、投影面上に存在する全てのピクセルに対して実行される。   Note that the rendering processing of steps S1 to S8 is executed for all the pixels existing on the projection plane.

以上述べた一連の処理により、図12に示すような管腔臓器の壁面のみが半透明になったような透視投影画像が生成され、表示部12に表示される。医師等の観察者は、この透視投影画像を観察することで、管腔臓器壁面の内側から外側に位置するポリープその他病巣部、他の臓器等が例えば青色半透明で視認することができる。   Through the series of processes described above, a perspective projection image in which only the wall surface of the luminal organ as shown in FIG. 12 is translucent is generated and displayed on the display unit 12. By observing this perspective projection image, an observer such as a doctor can visually recognize polyps, other lesions, other organs, and the like located from the inner side to the outer side of the wall surface of the luminal organ, for example, in a blue translucent manner.

以上述べた構成によれば、以下の効果を得ることができる。   According to the configuration described above, the following effects can be obtained.

本画像処理装置によれば、管腔臓器の壁面を覗く内側領域と壁面を含む外側領域とに対して、それぞれ固有の条件に従った可視化処理を実行する。特に、管腔臓器の壁面を含む外側領域については、壁面を一定の厚みに従って半透明化するように条件を設定しこれに従う可視化処理を行うことで、壁面から外側に浸潤している病巣部、関連臓器の状態、管腔臓器自体の壁面状態等を可視化することができる。その結果、病巣部の治療や術式の検討、診断等を行う際に有用な情報を提供することができ、医療行為の質の向上に寄与することができる。   According to this image processing apparatus, the visualization process according to the specific conditions is executed on the inner area looking into the wall surface of the luminal organ and the outer area including the wall surface. In particular, for the outer region including the wall surface of the luminal organ, by setting the conditions so that the wall surface becomes translucent according to a certain thickness and performing the visualization process according to this, the lesion part infiltrating from the wall surface to the outside, The state of the related organ, the wall surface state of the luminal organ itself, etc. can be visualized. As a result, it is possible to provide useful information when performing treatment of a lesion, examination of a surgical procedure, diagnosis, and the like, and it is possible to contribute to improvement of the quality of medical practice.

(第2の実施形態)
本発明の第2の実施形態に係る画像処理装置について説明する。本実施形態に係る画像処理装置は、管腔臓器壁面外側のボリュームレンダリング処理によって得られた画像と共に、MPR三断面画像を同時に表示するものである。このMPR三断面画像は、臓器内腔又は管腔臓器壁面外側のボリュームレンダリング処理において用いられた視点位置、視線方向に基づいて特定される。
(Second Embodiment)
An image processing apparatus according to the second embodiment of the present invention will be described. The image processing apparatus according to the present embodiment simultaneously displays an MPR three-section image together with an image obtained by volume rendering processing on the outer wall surface of a luminal organ. The MPR three-section image is specified based on the viewpoint position and the line-of-sight direction used in the volume rendering process outside the organ lumen or the lumen organ wall surface.

図13は、本実施形態に係る画像処理装置1のブロック構成図を示している。同図に示すように、本画像処理装置1は、図1に示した構成に加えてMPR画像レンダリング部22をさらに具備する構成となっている。このMPR画像レンダリング部22は、位置情報入力部220、直交三段面位置決定部221、MPR画像作成部222を有している。   FIG. 13 is a block diagram of the image processing apparatus 1 according to this embodiment. As shown in the figure, the image processing apparatus 1 further includes an MPR image rendering unit 22 in addition to the configuration shown in FIG. The MPR image rendering unit 22 includes a position information input unit 220, an orthogonal three-level surface position determination unit 221, and an MPR image creation unit 222.

位置情報入力部220は、例えば臓器可視化のために生成される平行投影画像上において設定された視点位置、視線方向を、三次元画像レンダリング部20から入力する。この平行投影画像上において設定された視点位置、視線方向は、管腔臓器壁面外側の可視化において用いられた視点位置、視線方向である。しかしながら、これに拘泥されず、例えばマニュアル設定等により、当該平行投影画像上において任意の位置に設定された視点位置、視線方向を入力する様にしてもよい。   The position information input unit 220 inputs the viewpoint position and the line-of-sight direction set on the parallel projection image generated for organ visualization, for example, from the 3D image rendering unit 20. The viewpoint position and line-of-sight direction set on this parallel projection image are the viewpoint position and line-of-sight direction used in the visualization of the outside of the wall surface of the luminal organ. However, the present invention is not limited to this, and the viewpoint position and line-of-sight direction set at an arbitrary position on the parallel projection image may be input by manual setting or the like.

直交三段面位置決定部221は、位置情報入力部220によって入力された視点位置、視線方向に基づいて、直交する三断面の位置を決定する。例えば、直交三段面位置決定部221は、視点位置を含み視線方向に直交する第1の断面、及び視点位置を含む第1の断面に直交する第2の断面及び第3の断面を決定することにより、MPR画像を生成するための直交する三断面の位置を決定する。   The orthogonal three-level surface position determination unit 221 determines the positions of three orthogonal cross sections based on the viewpoint position and the line-of-sight direction input by the position information input unit 220. For example, the orthogonal three-level surface position determination unit 221 determines the first cross section including the viewpoint position and orthogonal to the line-of-sight direction, and the second and third cross sections orthogonal to the first cross section including the viewpoint position. As a result, the positions of three orthogonal cross sections for generating the MPR image are determined.

MPR画像作成部222は、決定された直交する三断面に関するMPR画像を作成する。作成されたMPR画像は、所定の形態にて表示部12に表示される。   The MPR image creation unit 222 creates MPR images related to the determined three orthogonal cross sections. The created MPR image is displayed on the display unit 12 in a predetermined form.

図14は、本画像処理装置1によって実行される管腔臓器内腔外側等に関するボリュームレンダリング処理及びMPR画像レンダリング処理の流れを示したフローチャートである。   FIG. 14 is a flowchart showing the flow of the volume rendering process and the MPR image rendering process related to the outside of the luminal organ lumen and the like executed by the image processing apparatus 1.

まず、同図に示すように、画像データの読み込み(ステップSa)、壁面外側の可視化を含む管腔臓器に関する画像生成が実行される(ステップSb)。次に、平行投影画像上において設定された視点位置及び視線方向に基づいて決定された直交三断面に関するMPR画像が生成される(ステップSc)。すなわち、直交三断面位置決定部221は、平行投影画像上において設定された視点位置を含み視線方向に直交する第1の断面、及び視点位置を含む第1の断面に直交する第2の断面及び第3の断面を決定する。MPR画像作成部222は、ステップSaにおいて読み出した画像データを用いて、決定された直交三断面に関するMPR画像を生成する。   First, as shown in the figure, image data is read (step Sa) and image generation relating to a hollow organ including visualization of the outside of the wall surface is executed (step Sb). Next, an MPR image relating to three orthogonal cross sections determined based on the viewpoint position and the line-of-sight direction set on the parallel projection image is generated (step Sc). That is, the orthogonal three-section position determining unit 221 includes a first section that includes the viewpoint position set on the parallel projection image and that is orthogonal to the line-of-sight direction, a second section that is orthogonal to the first section that includes the viewpoint position, and A third cross section is determined. The MPR image creation unit 222 uses the image data read in step Sa to generate an MPR image related to the determined three orthogonal cross sections.

次に、表示部12は、制御部16からの制御に従って、管腔臓器に関する画像及び直交三断面に関するMPR画像を所定の形態にて表示する(ステップSd)。   Next, the display unit 12 displays an image relating to the luminal organ and an MPR image relating to the orthogonal three cross sections in a predetermined form in accordance with the control from the control unit 16 (step Sd).

図15は、管腔臓器に関する画像及び直交三断面に関するMPR画像の表示形態の一例を示した図である。同図に示すように、管腔臓器に関する画像である透視投影画像Ia及び平行投影画像Ibと、直交三断面に関するMPR画像とが同時に並べて表示される。このMPR画像は、平行投影画像上において設定された視点位置及び視線方向に基づいて決定された三断面に対応するものである。また、平行投影画像Ib上には、視点位置及び視線方向がマーカとして重畳表示される。   FIG. 15 is a diagram illustrating an example of a display form of an image relating to a hollow organ and an MPR image relating to three orthogonal cross sections. As shown in the figure, a perspective projection image Ia and a parallel projection image Ib, which are images relating to a hollow organ, and an MPR image relating to three orthogonal cross sections are displayed side by side. This MPR image corresponds to three cross sections determined based on the viewpoint position and the line-of-sight direction set on the parallel projection image. In addition, the viewpoint position and the line-of-sight direction are superimposed and displayed as markers on the parallel projection image Ib.

以上述べた構成によれば、第1の実施形態で述べた効果に加えて、平行投影画像上に設定された視点位置及び視線方向に基づく直交するMPR三断面画像を生成し表示することができる。従って、観察者は、表示された透視投影画像Ia、平行投影画像Ib、MPR画像を比較することで、位置を対応付けながら、複数の画像を容易に観察することができる。その結果、病巣部の治療や術式の検討、診断等を行う際に有用な情報を提供することができ、医療行為の質の向上に寄与することができる。   According to the configuration described above, in addition to the effects described in the first embodiment, it is possible to generate and display an orthogonal MPR three-section image based on the viewpoint position and the line-of-sight direction set on the parallel projection image. . Therefore, the observer can easily observe a plurality of images while matching the positions by comparing the displayed perspective projection images Ia, parallel projection images Ib, and MPR images. As a result, it is possible to provide useful information when performing treatment of a lesion, examination of a surgical procedure, diagnosis, and the like, and it is possible to contribute to improvement of the quality of medical practice.

(第3の実施形態)
既述の第1及び第2の実施形態では、例えば図12に示したように、病巣領域をその周辺の臓器壁面と同じ半透明色(例えば、青色半透明)で映像化する例を示した。これに対し、本第3の実施形態では、病巣領域を、臓器内腔側に突出している部分(内腔病巣部分)、病巣当該病巣がないと推定した場合の管腔臓器内壁面との交差部分(交差病巣部分)、臓器内壁面から外側(すなわち、臓器壁内)に突出している病巣部分(壁内病巣部分)の三つの部分に分類し、これらを区別できるように表示する。また、各部分の大きさ及び病巣領域の大きさ等の定量的情報を計算し、提示する。
(Third embodiment)
In the first and second embodiments described above, for example, as shown in FIG. 12, an example is shown in which a lesion area is imaged in the same translucent color (for example, blue translucent) as the surrounding organ wall. . On the other hand, in the third embodiment, the lesion area intersects with the portion protruding to the organ lumen side (lumen lesion portion) and the inner wall surface of the luminal organ when it is estimated that the lesion does not exist. It is classified into three parts, that is, a part (crossed lesion part) and a lesion part (intramural lesion part) protruding outward from the inner wall surface of the organ (that is, inside the organ wall), and these are displayed so that they can be distinguished. In addition, quantitative information such as the size of each part and the size of the lesion area is calculated and presented.

図16は、第3の実施形態に係る画像処理装置の構成を示した図である。図1と比較した場合、定量的解析部203をさらに具備する点、及び画像生成部202の機能が主に異なる。なお、管腔臓器壁面外側のボリュームレンダリング処理によって得られる画像と共にMPR画像を同時に表示する場合には、図16に示した構成に加えて、図13のMPR画像レンダリング部22をさらに具備する構成となる。   FIG. 16 is a diagram illustrating a configuration of an image processing apparatus according to the third embodiment. When compared with FIG. 1, the point that the quantitative analysis unit 203 is further provided and the function of the image generation unit 202 are mainly different. In the case where the MPR image is displayed together with the image obtained by the volume rendering process outside the wall surface of the luminal organ, the MPR image rendering unit 22 of FIG. 13 is further provided in addition to the configuration shown in FIG. Become.

画像生成部202は、内腔病巣部分、交差病巣部分、壁内病巣部分を抽出(分類)し、それぞれに異なる色彩が割り当てることで、各部分が識別可能な透視投影画像を生成する。すなわち、画像生成部202は、例えば図9のステップS3において特定された壁面に基づいて、病巣が存在しないと推定した場合の管腔臓器内壁面を抽出する。また、画像生成部202は、ボリュームデータに対して所定の閾値処理を用いて、病巣領域を抽出する。さらに、画像生成部202は、抽出された管腔臓器内壁面と病巣領域とを用いて、各ボクセルを内腔病巣部分、交差病巣部分、壁内病巣部分、(病巣の存在しない)臓器壁面部分に分類する。画像生成部202は、各部分に分類されたボリュームデータを用いて既述の壁面及びその内部に関するボリュームレンダリング処理を実行し、各部分に異なる色彩を割り当てることで、それぞれが色別に表示される投影画像を生成する。   The image generation unit 202 extracts (classifies) the lumen lesion part, the crossing lesion part, and the intramural lesion part, and assigns a different color to each, thereby generating a perspective projection image in which each part can be identified. That is, for example, the image generation unit 202 extracts the inner wall surface of the luminal organ when it is estimated that no lesion exists based on the wall surface specified in step S3 of FIG. In addition, the image generation unit 202 extracts a lesion area by using a predetermined threshold process for the volume data. Further, the image generation unit 202 uses the extracted luminal organ inner wall surface and the lesion area to convert each voxel into a lumen lesion portion, a crossed lesion portion, an intramural lesion portion, and an organ wall surface portion (where no lesion exists). Classify into: The image generation unit 202 executes the volume rendering process related to the wall surface and its interior using the volume data classified into each part, and assigns a different color to each part, so that each projection is displayed by color. Generate an image.

定量的解析部203は、抽出された内腔病巣部分、交差病巣部分、壁内病巣部分の各部分の大きさ、病巣領域の大きさ等の定量的情報を計算する。すなわち、定量的解析部203は、ボリュームデータ上で分類された部分毎に含まれるボクセル数と1ボクセルの体積とに基づいて、内腔病巣部分、交差病巣部分、壁内病巣部分、病巣領域のそれぞれの大きさ(体積)を計算する。また、必要に応じて、その表面積や直径等も計算することができる。   The quantitative analysis unit 203 calculates quantitative information such as the size of each of the extracted luminal lesion portion, crossed lesion portion, intramural lesion portion, and the size of the lesion region. That is, based on the number of voxels included in each portion classified on the volume data and the volume of one voxel, the quantitative analysis unit 203 determines the lumen lesion portion, the cross lesion portion, the intramural lesion portion, and the lesion region. Each size (volume) is calculated. Moreover, the surface area, diameter, etc. are also computable as needed.

図17は、三次元画像レンダリング部20において実行される映像化処理の流れを示したフローチャートである。同図に示すステップS11〜ステップS16までの処理は、図9に示したステップS11〜ステップS16までの処理を実質的に同じであるので、その説明は省略する。   FIG. 17 is a flowchart showing the flow of the imaging process executed in the 3D image rendering unit 20. The processing from step S11 to step S16 shown in the figure is substantially the same as the processing from step S11 to step S16 shown in FIG.

画像生成部202は、ステップS3において特定された壁面に基づいて、病巣が存在しないと推定した場合の管腔臓器内壁面を抽出する。(ステップS17)。すなわち、画像生成部202は、例えばステップS3において図18に示すような壁面W(点線部分)が検出された場合には、例えばその曲率が所定の範囲内に存在するように壁面Wを近似することで、或いは所定の範囲内の値を有するボクセルを用いて壁面Wを近似することで、管腔臓器内壁面W′(実線部分)を抽出する。また、画像生成部202は、所定の閾値処理を行うことで、病巣領域を抽出する(ステップS18)。   The image generation unit 202 extracts the inner wall surface of the luminal organ when it is estimated that no lesion exists based on the wall surface specified in step S3. (Step S17). That is, for example, when the wall surface W (dotted line portion) as shown in FIG. 18 is detected in step S3, the image generation unit 202 approximates the wall surface W so that the curvature is within a predetermined range, for example. In this way, or by approximating the wall surface W using voxels having a value within a predetermined range, the inner wall surface W ′ (solid line portion) of the luminal organ is extracted. In addition, the image generation unit 202 extracts a lesion area by performing a predetermined threshold process (step S18).

画像生成部202は、抽出された管腔臓器内壁面及び病巣領域に基づいて、ボリュームデータを内腔病巣部分、交差病巣部分、壁内病巣部分、臓器壁面部分に分類する(ステップS19)。また、定量的解析部203は、抽出された内腔病巣部分、交差病巣部分、壁内病巣部分、及び病巣の各大きさを計算する定量的解析を実行する(ステップS20)。   The image generation unit 202 classifies the volume data into a lumen lesion portion, a cross lesion portion, an intramural lesion portion, and an organ wall surface portion based on the extracted luminal organ inner wall surface and lesion area (step S19). In addition, the quantitative analysis unit 203 performs a quantitative analysis for calculating the sizes of the extracted luminal lesion part, crossed lesion part, intramural lesion part, and lesion (step S20).

画像生成部202は、各部分に分類されたボリュームデータを用いて既述の壁面及びその内部に関するボリュームレンダリング処理を実行し(ステップS21)、分類された各部分に異なる色彩を割り当てることで、それぞれが色別に識別可能な投影画像を生成する(ステップS22)。生成された投影画像は、例えば内腔病巣部分、交差病巣部分、壁内病巣部分の定量的情報と共に、所定の形態で表示される(ステップS23)。   The image generation unit 202 executes the volume rendering process related to the above-described wall surface and its interior using the volume data classified into each part (step S21), and assigns a different color to each classified part. Generates a projection image identifiable by color (step S22). The generated projection image is displayed in a predetermined form together with quantitative information of the lumen lesion part, the crossing lesion part, and the intramural lesion part, for example (step S23).

図19は、内腔病巣部分、交差病巣部分、壁内病巣部分の色別表示の一例を示した図である。なお、同図では視点及び視線方向を図6に示した設定とした例を示しているため、各部分は視点に対して手前にある順番(すなわち、内腔病巣部分、交差病巣部分、壁内病巣部分の順番)に表示されている。なお、図20には図19の例に比して交差病巣部分が大きい場合の投影画像の例を、図21には、交差病巣部分が存在しない場合の例をそれぞれ示した。   FIG. 19 is a diagram illustrating an example of a color-by-color display of the lumen lesion part, the crossing lesion part, and the intramural lesion part. In addition, since the figure shows an example in which the viewpoint and the line-of-sight direction are set as shown in FIG. 6, each part is in the order in front of the viewpoint (that is, lumen lesion part, crossed lesion part, wall interior (In order of lesion). Note that FIG. 20 shows an example of a projected image when the crossed lesion portion is larger than the example of FIG. 19, and FIG. 21 shows an example when the crossed lesion portion does not exist.

以上述べた構成によれば、既述の効果に加えて、以下の効果を実現することができる。すなわち、ユーザは、内腔病巣部分、交差病巣部分、壁内病巣部分の位置関係やその大きさを、それぞれに割り当てられた色彩や定量的情報により、視覚的に認識することができる。その結果、病巣部の治療や術式の検討等を行う際に、有用な情報を提供することができ、医療行為の質の向上に寄与することができる。   According to the configuration described above, in addition to the effects described above, the following effects can be realized. That is, the user can visually recognize the positional relationship and the size of the lumen lesion part, the crossing lesion part, and the intramural lesion part based on the color and quantitative information assigned to each. As a result, useful information can be provided in the treatment of lesions, examination of surgical procedures, and the like, which can contribute to improving the quality of medical practice.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.

(1)本実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。   (1) Each function according to the present embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and developing the program on a memory. At this time, a program capable of causing the computer to execute the technique is stored in a recording medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), or a semiconductor memory. It can also be distributed.

(2)上記各実施形態において、専用スイッチを設けることで、管腔臓器の壁面を含む外側領域についての可視化処理を任意のタイミングで実行可能な構成としてもよい。係る構成によれば、例えば、対象となる壁面自体を可視化した後、透明度設定機能により透明度(又は不透明度)を所定の値に設定することで、管腔臓器の壁面を含む外側領域についての可視化処理を行うことも可能である。これにより、壁面とその外側領域との比較観察ができ、従来にはない有用な医用情報を提供することができる。   (2) In each of the above embodiments, a dedicated switch may be provided so that the visualization process for the outer region including the wall surface of the luminal organ can be executed at an arbitrary timing. According to such a configuration, for example, after visualizing the target wall surface itself, the transparency (or opacity) is set to a predetermined value by the transparency setting function, thereby visualizing the outer region including the wall surface of the luminal organ. It is also possible to perform processing. Thereby, comparative observation of a wall surface and its outer region can be performed, and useful medical information that has not been available in the past can be provided.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以上本発明によれば、管腔臓器内腔とその外側に浸潤している病巣部の関係を可視化し、またこれを観察し易い形態にて表示することができる医用画像処理装置及び医用画像診断装置を実現することができる。   As described above, according to the present invention, a medical image processing apparatus and a medical image diagnosis that can visualize the relationship between a lumen organ lumen and a lesion part infiltrating the lumen organ and display it in an easily observable form. An apparatus can be realized.

図1は、第1の実施形態に係る画像処理装置1のブロック構成図を示している。FIG. 1 is a block diagram of an image processing apparatus 1 according to the first embodiment. 図2は、X線CT装置によって収集されるボリュームデータ(CTボリュームデータ)を模式的に示したものである。FIG. 2 schematically shows volume data (CT volume data) collected by the X-ray CT apparatus. 図3(a)、(b)は、透視投影の場合に設定される視点位置、視線方向ベクトルを説明するための図である。FIGS. 3A and 3B are diagrams for explaining the viewpoint position and the line-of-sight direction vector set in the case of perspective projection. 図4は、透明度の設定形態の一例を示したグラフである。FIG. 4 is a graph showing an example of a transparency setting mode. 図5は、、不透明度設定のグラフの一例を示した図である。FIG. 5 is a diagram showing an example of an opacity setting graph. 図6(a)、(b)は、透視投影の場合に設定されるFOVを説明するための図である。FIGS. 6A and 6B are diagrams for explaining the FOV set in the case of perspective projection. 図7は、管腔臓器病巣部等に関する映像化における、外壁面の境界設定を説明するための図である。FIG. 7 is a diagram for explaining the boundary setting of the outer wall surface in the visualization related to a luminal organ lesion or the like. 図8は、ボリュームレンダリングの形態を説明するための図である。FIG. 8 is a diagram for explaining a form of volume rendering. 図9は、管腔臓器病巣部等に関する映像化において実行される処理の流れを示したフローチャートである。FIG. 9 is a flowchart showing the flow of processing executed in the visualization of a luminal organ lesion or the like. 図10は、管腔臓器病巣部等に関する映像化における、外壁面の境界設定を説明するための図である。FIG. 10 is a diagram for explaining the boundary setting of the outer wall surface in the visualization related to a luminal organ lesion or the like. 図11は、壁面検出における外壁面の境界を設定するための図である。FIG. 11 is a diagram for setting the boundary of the outer wall surface in the wall surface detection. 図12は、管腔臓器病巣部等に関する映像化処理によって得られる画像の一例を示した図である。FIG. 12 is a diagram illustrating an example of an image obtained by imaging processing regarding a luminal organ lesion or the like. 図13は、第2の実施形態に係る画像処理装置1のブロック構成図を示している。FIG. 13 is a block diagram of the image processing apparatus 1 according to the second embodiment. 図14は、管腔臓器内腔外側等に関するボリュームレンダリング処理及びMPR画像レンダリング処理の流れを示したフローチャートである。FIG. 14 is a flowchart showing the flow of volume rendering processing and MPR image rendering processing related to the outside of the lumen organ lumen and the like. 図15は、管腔臓器に関する画像及び直交三断面に関するMPR画像の表示形態の一例を示した図である。FIG. 15 is a diagram illustrating an example of a display form of an image relating to a hollow organ and an MPR image relating to three orthogonal cross sections. 図16は、第3の実施形態に係る画像処理装置の構成を示した図である。FIG. 16 is a diagram illustrating a configuration of an image processing apparatus according to the third embodiment. 図17は、三次元画像レンダリング部20において実行される映像化処理の流れを示したフローチャートである。FIG. 17 is a flowchart showing the flow of the imaging process executed in the 3D image rendering unit 20. 図18は、管腔臓器内壁面の概形を推定処理を説明するための図である。FIG. 18 is a diagram for explaining the process of estimating the rough shape of the inner wall surface of the luminal organ. 図19は、内腔病巣部分、交差病巣部分、壁内病巣部分の色別表示の一例を示した図である。FIG. 19 is a diagram illustrating an example of a color-by-color display of the lumen lesion part, the crossing lesion part, and the intramural lesion part. 図20は、図19の例に比して交差病巣部分が大きい場合の投影画像の例を示した図である。FIG. 20 is a diagram showing an example of a projected image when the crossed lesion portion is larger than the example of FIG. 図21は、交差病巣部分が存在しない場合の例を示した図である。FIG. 21 is a diagram illustrating an example in the case where there is no crossing lesion portion.

符号の説明Explanation of symbols

1…画像処理装置、10…操作部、12…表示部、14…送受信部、16…制御部、18…記憶部、20…三次元画像レンダリング部、22…MPR画像レンダリング部、200…臓器表示条件設定部、201…壁面表示条件設定部、202…画像作成部、203…定量的解析部、220…位置情報入力部、221…直交三段面位置決定部、222…MPR画像作成部 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 10 ... Operation part, 12 ... Display part, 14 ... Transmission / reception part, 16 ... Control part, 18 ... Memory | storage part, 20 ... Three-dimensional image rendering part, 22 ... MPR image rendering part, 200 ... Organ display Condition setting unit 201 ... Wall surface display condition setting unit 202 ... Image creation unit 203 ... Quantitative analysis unit 220 ... Position information input unit 221 ... Orthogonal three-level surface position determination unit 222 ... MPR image creation unit

Claims (13)

管腔臓器に関するボリュームデータを記憶する記憶手段と、
前記管腔臓器の内腔を含む第1の領域の映像化についての第1の条件と、当該第1の条件とは異なる条件であって、前記管腔臓器の壁面及びその外側を含む第2の領域の映像化についての第2の条件と、をそれぞれ決定する決定手段と、
前記第2の条件に従う映像化処理を実行し、前記第2の領域を含む画像を生成する画像生成手段と、
前記画像生成手段によって作成された画像を表示する表示手段と、
を具備することを特徴とする画像処理装置。
Storage means for storing volume data relating to the luminal organ;
A first condition for imaging the first region including the lumen of the hollow organ and a condition different from the first condition, the second condition including a wall surface of the hollow organ and the outside thereof Determining means for respectively determining a second condition for imaging of the area of
Image generating means for executing an imaging process according to the second condition and generating an image including the second area;
Display means for displaying an image created by the image generation means;
An image processing apparatus comprising:
前記決定手段は、前記管腔臓器の壁面が半透明となるように透明度又は不透明度を前記第2の条件として決定し、
前記画像生成手段は、前記第2の条件に従って、壁面が半透明である前記第2の領域を含む画像を生成すること、
を特徴とする請求項1記載の画像処理装置。
The determining means determines transparency or opacity as the second condition so that the wall of the luminal organ is translucent,
The image generating means generates an image including the second region whose wall surface is translucent according to the second condition;
The image processing apparatus according to claim 1.
前記決定手段は、前記管腔臓器の内側壁面と垂直な方向に沿った画素値の変化に基づいて、前記管腔臓器の壁面の厚さを前記第2の条件として決定することを特徴とする請求項1又は2記載の画像処理装置。   The determining means determines the thickness of the wall surface of the luminal organ as the second condition based on a change in pixel value along a direction perpendicular to the inner wall surface of the luminal organ. The image processing apparatus according to claim 1 or 2. 前記決定手段は、操作者によって設定された前記管腔臓器の壁面の厚さを前記第2の条件として決定することを特徴とする請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determining unit determines the thickness of the wall surface of the luminal organ set by an operator as the second condition. 前記第1の領域の映像化において管腔臓器の壁面と前記第2の領域の映像化において管腔臓器の壁面とに同じ色を割り当てる第1のカラーモード又は異なる色を割り当てる第2のカラーモードを選択する選択手段をさらに具備し、
前記決定手段は、前記選択されたカラーモードを前記第2の条件として決定することを特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。
The first color mode in which the same color is assigned to the wall surface of the luminal organ in the imaging of the first region and the wall surface of the lumen organ in the imaging of the second region, or the second color mode in which different colors are assigned. Further comprising a selection means for selecting
5. The image processing apparatus according to claim 1, wherein the determining unit determines the selected color mode as the second condition. 6.
前記画像生成手段は、前記ボリュームデータを用いて前記管腔臓器のMPR画像を生成し、
前記表示手段は、前記2の領域に関する画像と前記MPR画像を同時に表示すること、
を特徴とする請求項1乃至5のうちいずれか一項記載の画像処理装置。
The image generation means generates an MPR image of the luminal organ using the volume data,
The display means simultaneously displays the image relating to the two areas and the MPR image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像生成手段は、
前記第1の領域又は前記第2の領域の映像化において用いられる視点位置及び視線方向に基づいて少なくとも一つの断面を決定し、
決定された前記少なくとも一つの断面に対応する画像を前記MPR画像として生成すること、
を特徴とする請求項6記載の画像処理装置。
The image generating means includes
Determining at least one cross section based on a viewpoint position and a line-of-sight direction used in imaging of the first region or the second region;
Generating an image corresponding to the determined at least one cross section as the MPR image;
The image processing apparatus according to claim 6.
前記表示手段は、前記視点位置及び前記視線方向を、前記第1の領域を含む画像上にマーカ表示することを特徴とする請求項7記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the display unit displays the viewpoint position and the line-of-sight direction as a marker on an image including the first region. 前記第1の領域を含む画像上において前記視点位置及び前記視線方向を指定する指定手段をさらに具備し、
前記画像手段は、指定された前記視点位置及び前記視線方向に基づいて、前記MPR画像を生成すること、
を特徴とする請求項6乃至8のうちいずれか一項記載の画像処理装置。
Further comprising designation means for designating the viewpoint position and the line-of-sight direction on the image including the first region;
The image means generates the MPR image based on the designated viewpoint position and line-of-sight direction;
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
前記第1の条件に従う映像化処理と前記第2の条件に従う映像化処理とを選択する選択手段をさらに具備し、
前記画像生成手段は、前記選択手段によって選択された条件に従う映像化処理を実行して画像を生成すること、
を具備することを特徴とする請求項1乃至9のうちいずれか一項記載の画像処理装置。
And further comprising selection means for selecting the imaging process according to the first condition and the imaging process according to the second condition,
The image generation means generates an image by executing a visualization process according to the condition selected by the selection means;
The image processing apparatus according to claim 1, further comprising:
前記画像生成手段は、
前記ボリュームデータの各ボクセル値に基づいて、病巣領域と病巣がないと推定した場合の管腔臓器の内壁面とを抽出し、
前記抽出された病巣領域及び前記抽出された管腔臓器の内壁面に基づいて、管腔臓器内腔側に突出している第1の病巣部分、臓器内壁面と交差する第2の病巣部分、臓器内壁面から外側に突出している第3の病巣部分を抽出し、
前記第1の病巣部分、第2の病巣部分、第3の病巣部分に異なる色彩が割り当てられた、前記第2の領域を含む画像を生成すること、
を特徴とする請求項1乃至10のうちいずれか一項記載の画像処理装置。
The image generating means includes
Based on each voxel value of the volume data, extract the lesion area and the inner wall surface of the luminal organ when it is estimated that there is no lesion,
Based on the extracted lesion area and the inner wall surface of the extracted luminal organ, a first lesion portion protruding toward the luminal organ lumen, a second lesion portion intersecting the organ inner wall surface, and the organ Extract the third lesion that protrudes outward from the inner wall,
Generating an image including the second region in which different colors are assigned to the first lesion portion, the second lesion portion, and the third lesion portion;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記ボリュームデータの各ボクセル値に基づいて、前記第1の病巣部分、前記第2の病巣部分、前記第3の病巣部分の少なくともいずれかの大きさを計算する定量的解析手段をさらに具備することを特徴とする請求項11記載の画像処理装置。   And further comprising a quantitative analysis means for calculating a size of at least one of the first lesion portion, the second lesion portion, and the third lesion portion based on each voxel value of the volume data. The image processing apparatus according to claim 11. 被検体の管腔臓器に関するボリュームデータを取得するデータ取得手段と、
前記管腔臓器の内腔を含む第1の領域の映像化についての第1の条件と、当該第1の条件とは異なる条件であって、前記管腔臓器の壁面及びその外側を含む第2の領域の映像化についての第2の条件と、をそれぞれ決定する決定手段と、
前記第2の条件に従う映像化処理を実行し、前記第2の領域を含む画像を生成する画像生成手段と、
前記画像生成手段によって作成された画像を表示する表示手段と、
を具備することを特徴とする画像診断装置。
Data acquisition means for acquiring volume data relating to the luminal organ of the subject;
A first condition for imaging the first region including the lumen of the luminal organ and a condition different from the first condition, the second condition including a wall surface of the luminal organ and the outside thereof Determining means for determining a second condition for imaging the area of
Image generating means for executing an imaging process according to the second condition and generating an image including the second area;
Display means for displaying an image created by the image generation means;
An image diagnostic apparatus comprising:
JP2008248789A 2008-09-26 2008-09-26 Image processor Pending JP2010075549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008248789A JP2010075549A (en) 2008-09-26 2008-09-26 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008248789A JP2010075549A (en) 2008-09-26 2008-09-26 Image processor

Publications (1)

Publication Number Publication Date
JP2010075549A true JP2010075549A (en) 2010-04-08

Family

ID=42206703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008248789A Pending JP2010075549A (en) 2008-09-26 2008-09-26 Image processor

Country Status (1)

Country Link
JP (1) JP2010075549A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016575A (en) * 2010-06-07 2012-01-26 Toshiba Corp Image processing apparatus and medical image diagnosis apparatus
US9149243B2 (en) 2010-05-25 2015-10-06 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus and image data processing apparatus
JP2016039874A (en) * 2014-08-13 2016-03-24 富士フイルム株式会社 Endoscopic image diagnosis support device, system, method, and program
JP2016093531A (en) * 2011-03-29 2016-05-26 株式会社東芝 X-ray CT apparatus
US10267882B2 (en) 2010-10-13 2019-04-23 Toshiba Medical Systems Corporation MRI T1 image-guided tissue diagnostics
USRE47604E1 (en) 2010-10-13 2019-09-17 Toshiba Medical Systems Corporation Magnetic resonance imaging apparatus and method for color-coding tissue based on T1 values

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10234663A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JP2000139917A (en) * 1998-11-12 2000-05-23 Toshiba Corp Ultrasonograph
WO2005011501A1 (en) * 2003-08-01 2005-02-10 Hitachi Medical Corporation Medical image diagnosis support device and method
JP2005110973A (en) * 2003-10-08 2005-04-28 Toshiba Corp Image diagnostic device, image display device and three-dimensional image display method
JP2006346177A (en) * 2005-06-16 2006-12-28 Toshiba Corp Image diagnostic apparatus, image processor, and three-dimensional image data display method
JP2007014483A (en) * 2005-07-06 2007-01-25 Toshiba Corp Medical diagnostic apparatus and diagnostic support apparatus
JP2007209538A (en) * 2006-02-09 2007-08-23 Ziosoft Inc Image processing method and program
JP2007537771A (en) * 2003-11-03 2007-12-27 ブラッコ イメージング エス.ピー.エー. System and method for luminal tissue screening

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10234663A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JP2000139917A (en) * 1998-11-12 2000-05-23 Toshiba Corp Ultrasonograph
WO2005011501A1 (en) * 2003-08-01 2005-02-10 Hitachi Medical Corporation Medical image diagnosis support device and method
JP2005110973A (en) * 2003-10-08 2005-04-28 Toshiba Corp Image diagnostic device, image display device and three-dimensional image display method
JP2007537771A (en) * 2003-11-03 2007-12-27 ブラッコ イメージング エス.ピー.エー. System and method for luminal tissue screening
JP2006346177A (en) * 2005-06-16 2006-12-28 Toshiba Corp Image diagnostic apparatus, image processor, and three-dimensional image data display method
JP2007014483A (en) * 2005-07-06 2007-01-25 Toshiba Corp Medical diagnostic apparatus and diagnostic support apparatus
JP2007209538A (en) * 2006-02-09 2007-08-23 Ziosoft Inc Image processing method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9149243B2 (en) 2010-05-25 2015-10-06 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus and image data processing apparatus
JP2012016575A (en) * 2010-06-07 2012-01-26 Toshiba Corp Image processing apparatus and medical image diagnosis apparatus
US10267882B2 (en) 2010-10-13 2019-04-23 Toshiba Medical Systems Corporation MRI T1 image-guided tissue diagnostics
USRE47604E1 (en) 2010-10-13 2019-09-17 Toshiba Medical Systems Corporation Magnetic resonance imaging apparatus and method for color-coding tissue based on T1 values
US11698429B2 (en) 2010-10-13 2023-07-11 Toshiba Medical Systems Corporation MRI T1 image-guided tissue diagnostics
JP2016093531A (en) * 2011-03-29 2016-05-26 株式会社東芝 X-ray CT apparatus
JP2016039874A (en) * 2014-08-13 2016-03-24 富士フイルム株式会社 Endoscopic image diagnosis support device, system, method, and program

Similar Documents

Publication Publication Date Title
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP6080248B2 (en) Three-dimensional image display apparatus and method, and program
US20050281381A1 (en) Method for automatically detecting a structure in medical imaging methods, computed tomograph, workstation and computer program product
JP4563421B2 (en) Image processing method and image processing program
JP4105176B2 (en) Image processing method and image processing program
US9196057B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP2009160306A (en) Image display device, control method of image display device and control program of image display device
JP2013153883A (en) Image processing apparatus, imaging system, and image processing method
JP2006519631A (en) Execution system and execution method for virtual endoscopy
WO2007094412A1 (en) Image display device and program
JP4350226B2 (en) 3D image processing device
JP2007275318A (en) Image display device, image display method, and its program
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
JP2010075549A (en) Image processor
US20050281481A1 (en) Method for medical 3D image display and processing, computed tomograph, workstation and computer program product
JP2005523053A (en) Medical viewing system and image processing method for visualization of folded anatomical parts of an object surface
US10398286B2 (en) Medical image display control apparatus, method, and program
JP2009022411A (en) Medical image processor
JP5380231B2 (en) Medical image display apparatus and method, and program
JP2010284405A (en) Medical image processor, medical image diagnostic device and medical image processing program
JP2009268735A (en) Medical image processor
JP2010131315A (en) Medical image processor and medical image processing program
JP2011172692A (en) Medical image processor and medical image processing program
JP6487999B2 (en) Information processing apparatus, information processing method, and program
KR101464330B1 (en) Method of comparing preoperative respiratory level with intraoperative respiratory level

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131029