JP2006122663A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2006122663A JP2006122663A JP2005261020A JP2005261020A JP2006122663A JP 2006122663 A JP2006122663 A JP 2006122663A JP 2005261020 A JP2005261020 A JP 2005261020A JP 2005261020 A JP2005261020 A JP 2005261020A JP 2006122663 A JP2006122663 A JP 2006122663A
- Authority
- JP
- Japan
- Prior art keywords
- image
- curved section
- line
- data
- curved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title claims description 13
- 239000008280 blood Substances 0.000 claims description 59
- 210000004369 blood Anatomy 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 15
- 238000009877 rendering Methods 0.000 claims description 9
- 238000003745 diagnosis Methods 0.000 claims description 3
- 238000002059 diagnostic imaging Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 2
- 210000004204 blood vessel Anatomy 0.000 description 36
- 238000010586 diagram Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 14
- 238000012800 visualization Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 210000000709 aorta Anatomy 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004804 winding Methods 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000002699 Digestive System Neoplasms Diseases 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Abstract
Description
本発明は、容易に観察対象の曲断面形状を把握できる画像を提供可能な画像処理方法及び画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing method, an image processing apparatus, and an image processing method capable of providing an image with which a curved cross-sectional shape of an observation target can be easily grasped.
近年の医療用画像分野で使用される画像処理装置は、超音波診断装置、X線CTスキャン、磁気共鳴イメージング装置等の医療用画像機器と組み合わせて使用され、多くの病院、検査機関等で広く利用されている。この画像処理装置は、画像処理の高速化や解像度の向上が進み、臨床情報として有用な種々の画像を提供でき、例えば手術前のシミュレーション等において、血管の走行、消化管の腫瘍、プラーク(斑点)の形成、狭搾症等の原因を調べる際に行う消化管腔の画像化等に利用されている。 An image processing apparatus used in the medical image field in recent years is used in combination with medical imaging equipment such as an ultrasonic diagnostic apparatus, an X-ray CT scan, and a magnetic resonance imaging apparatus, and is widely used in many hospitals and examination institutions. It's being used. This image processing apparatus is capable of providing various images useful as clinical information as the speed of image processing increases and the resolution is improved. For example, in a simulation before surgery, blood vessel running, gastrointestinal tumor, plaque (spots) ), And imaging of the digestive tract cavity when examining the cause of stenosis, etc.
この様な画像処理装置において、従来、曲がっている観察対象物を含む三次元画像から、対象物を見やすく断面表示する方法として、Curved Multi−Planar Reformatting(Curved MRP:以下「C−MPR」と略す)と呼ばれる手法が知られている。C−MPRによる画像の作成は、例えば(1)三次元画像全体が表示されている画面上で折れ線を設定する。(2)画面に垂直に設定された折れ線を含む断面(C−MPR断面)を構成する。(3)その断面上の画素値を、そのまま二次元画像として表示する。といった手順を踏んで実行される。 Conventionally, in such an image processing apparatus, a curved multi-planar reformatting (Curved MRP: hereinafter abbreviated as “C-MPR”) is a method for displaying a cross section of an object in an easy-to-see manner from a three-dimensional image including a bent observation object. ) Is known. For example, (1) a polygonal line is set on a screen on which the entire three-dimensional image is displayed. (2) A cross section (C-MPR cross section) including a polygonal line set perpendicular to the screen is configured. (3) The pixel value on the cross section is displayed as it is as a two-dimensional image. It is executed following these steps.
図6は、C−MPR画像(C−MPRによって生成される画像)を説明するための図である。同図において、C−MPR断面を規定する折れ線は、a、b、c、dの四つの直線から構成されている。C−MPR画像は、それぞれ折れ線を含み画面に垂直な四つの平面から構成されるC−MPR断面上にある画素値を、そのまま表示することで生成される。従ってC−MPRは、全体としては平面上にない画素値を1つの平面上に並べて表示する方法であり、この手法によれば、平面から構成される曲面上の画像を一度に観察することができる。 FIG. 6 is a diagram for explaining a C-MPR image (an image generated by C-MPR). In the figure, the polygonal line defining the C-MPR section is composed of four straight lines a, b, c and d. A C-MPR image is generated by displaying pixel values on a C-MPR cross section composed of four planes each including a broken line and perpendicular to the screen as they are. Therefore, C-MPR is a method of displaying pixel values that are not on a plane as a whole on a single plane, and according to this method, an image on a curved surface composed of a plane can be observed at one time. it can.
また、同様に全体としては平面上にない画素値を1つの平面上に並べて表示する別の方法も知られており、例えば、(1)三次元画像全体が表示されている画面上で折れ線を設定する。(2)画面に垂直で設定された折れ線を含む断面(C−PC断面)を構成する。(3)その断面上にある画素値のみを、視点を考慮して投影面に投影し表示する。といった手順を踏んで実行される。ここでは、この表示方法をCurvd Plane Cut(C−PC)と呼ぶことにする。 Similarly, another method is also known in which pixel values that are not on a plane as a whole are displayed side by side on one plane. For example, (1) a broken line is displayed on a screen on which an entire three-dimensional image is displayed. Set. (2) A cross section (C-PC cross section) including a polygonal line set perpendicular to the screen is formed. (3) Only the pixel values on the cross section are projected and displayed on the projection plane in consideration of the viewpoint. It is executed following these steps. Here, this display method is referred to as Curvd Plane Cut (C-PC).
図7は、C−PC画像の説明図である。同図において、右側部分がC−PC画像を示しており、C−PC断面の形状がわかるような表示となっている。また、C−PC断面全体を回転させて異なる視点から眺めることも可能である。 FIG. 7 is an explanatory diagram of a C-PC image. In the figure, the right part shows a C-PC image, and the display shows the shape of the C-PC cross section. It is also possible to rotate the entire C-PC cross section and view from a different viewpoint.
しかしながら、従来の断面表示方法においては、例えば次の様な問題がある。 However, the conventional cross-sectional display method has the following problems, for example.
まず、C−MPRは、曲面を平面に展開した画像であるため、観察したい対象物の形状を把握することができない。例えば、医用画像診断においては、血管などの曲がりくねった観察対象物を見るが、観察対象物全体の曲がり具合がわかるように曲面が指定できるとは限らないため、観察対象物全体の曲がり具合を把握することはできないことがある。 First, since the C-MPR is an image obtained by developing a curved surface into a plane, the shape of an object to be observed cannot be grasped. For example, in medical image diagnosis, a torsional observation object such as a blood vessel is seen, but a curved surface cannot always be specified so that the bending condition of the entire observation object can be understood, so it is possible to grasp the bending condition of the entire observation object. There are things you can't do.
また、前述したC−MPR画像の説明から明らかなように、観察者は、C−MPR断面を設定するときに三次元画像を見ていた方向とは異なる方向からC−MPR画像を眺めることになる。観察者としては、その時点で三次元画像を見ている方向と同じ方向から観察対象物の断面を眺めるのが自然である。しかしながら、この要求はC−MPR画像では満足させることはできない。 Further, as is clear from the description of the C-MPR image described above, the observer views the C-MPR image from a direction different from the direction in which the 3D image was viewed when setting the C-MPR cross section. Become. As an observer, it is natural to view the cross section of the observation object from the same direction as the direction in which the three-dimensional image is viewed at that time. However, this requirement cannot be satisfied with C-MPR images.
さらに、一度C−MPR画像を表示させた後に観察対象物を異なる方向から観察したい場合(異なるC−MPRを設定したい場合)には、別のC−MPR断面を設定しなければならない。これは、面倒な作業であるため、観察者に対して大きな作業負担になる。実際の医療現場では、血管の断面を含む観察対象物を様々な方向から観察したいという要求がある。従って、これを満たすためには、C−MPR断面の設定を何度も繰り返さなければならないため、現実的ではない。 Furthermore, when it is desired to observe the observation object from a different direction after displaying the C-MPR image once, another C-MPR section must be set. Since this is a troublesome work, it places a heavy work burden on the observer. In an actual medical field, there is a demand for observing an observation object including a cross section of a blood vessel from various directions. Therefore, in order to satisfy this, the setting of the C-MPR section must be repeated many times, which is not realistic.
なお、C−PC画像では、平面から構成される曲面上の画像が平面に展開されることなく表示されるため、観察対象物の形状把握に関してはC−MPRよりも若干優れていると言える。しかしながら、曲面の指定方法はC−MPRと同じであるため、全体の形状を把握するには限界がある。 Note that in a C-PC image, an image on a curved surface composed of a plane is displayed without being developed on a plane, and therefore it can be said that it is slightly better than C-MPR for grasping the shape of an observation object. However, since the method of specifying a curved surface is the same as that of C-MPR, there is a limit to grasping the entire shape.
また、C−PC断面全体を回転させて異なった方向から観察することも可能である。しかしながら、C−PC断面自体は同じであり、同じデータを異なる方向から眺めることができるだけである。従って、その時点で三次元画像を見ている方向と同じ方向から観察対象物の断面を眺めたいという要求はC−PC画像でも満足させることはできない。 In addition, it is possible to observe from different directions by rotating the entire C-PC cross section. However, the C-PC cross section itself is the same, and the same data can only be viewed from different directions. Therefore, the request to view the cross section of the observation object from the same direction as the direction in which the three-dimensional image is viewed at that time cannot be satisfied even by the C-PC image.
さらに、一度C−PC画像を表示させた後に観察対象物を異なる方向から観察したい場合には、C−MPRの場合と同様に、別のC−PC断面を設定しなければならない。従って、観察者はC−PC断面の設定を何度も繰り返さなければならないため、現実的ではない。 Furthermore, when it is desired to observe the observation object from a different direction after displaying the C-PC image once, another C-PC cross section must be set as in the case of C-MPR. Therefore, the observer has to repeat the setting of the C-PC cross section many times, which is not realistic.
なお、本願に関連する公知文献としては、例えば次のようなものがある。
本発明は、上記事情を鑑みてなされたもので、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object. The purpose is to provide.
本発明は、上記目的を達成するため、次のような手段を講じている。 In order to achieve the above object, the present invention takes the following measures.
請求項1に係る発明は、入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、前記投影画像を表示する表示ユニットと、を具備することを特徴とする画像処理装置である。
The invention according to
請求項11に係る発明は、観察対象の三次元画像データを取得する取得ユニットと、前記三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、前記投影画像を表示する表示ユニットと、を具備することを特徴とする医用画像診断装置である。 The invention according to claim 11 is an acquisition unit for acquiring three-dimensional image data of an observation object, and a position data specifying unit for specifying a plurality of position data indicating the position of the observation object on the three-dimensional image data. A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction, and the three-dimensional image on the first curved section A projection image generation unit that generates a projection image by projecting data or three-dimensional image data relating to a region based on the first curved section onto the projection plane along the line-of-sight direction, and displaying the projection image A medical image diagnostic apparatus, comprising: a display unit.
請求項21に係る発明は、入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定し、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出し、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成し、前記投影画像を表示すること、を特徴とする具備する画像処理方法である。
The invention according to
以上本発明によれば、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を実現することができる。 As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object.
以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.
なお、本実施形態に係る画像処理装置は、例えば専用プログラムをワーキングメモリ上に展開し、後述する画像処理を実行する単体の医療用ワークステーションを想定している。しかしながら、これに限定する趣旨ではなく、医療画像専用ビューア、X線コンピュータ断層撮影装置、超音波診断装置、磁気共鳴イメージング装置等の各種モダリティに内蔵される画像処理装置等であってもよい。 Note that the image processing apparatus according to the present embodiment is assumed to be a single medical workstation that develops a dedicated program on a working memory and executes image processing to be described later, for example. However, the present invention is not limited to this, and may be an image processing apparatus built in various modalities such as a medical image dedicated viewer, an X-ray computed tomography apparatus, an ultrasonic diagnostic apparatus, and a magnetic resonance imaging apparatus.
また、本実施形態においては、三次元画像は、表示された画像ではなく、表示されるべき三次元画像データを意味する。この三次元画像は、実空間(三次元画像空間あるいはボリューム空間)上において定義されるものであり、ボリュームデータと呼ばれることもある。 In the present embodiment, the three-dimensional image means not the displayed image but three-dimensional image data to be displayed. This three-dimensional image is defined on a real space (three-dimensional image space or volume space), and is sometimes referred to as volume data.
図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。同図に示すように、画像処理装置10は、制御部11、主記憶部13、外部記憶部14、画像処理部15、送受信部17、表示部19、入力部21を具備している。
FIG. 1 is a block diagram of an
制御部11は、システム全体の制御中枢として、本画像処理装置10を静的又は動的に制御する。
The control unit 11 statically or dynamically controls the
主記憶部13は、ネットワークを介して送受信部17により受信した、各種モダリティによって収集された画像データ(再構成前後に拘泥されない)を記憶する。また、主記憶部13は、後述する曲断面画像生成処理を実行するための専用プログラムを記憶する。
The
外部記憶部14は、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体である。主記憶部13が記憶する画像データ、プログラム等の少なくとも一部を、当該外部記憶部14が記憶する構成であってもよい。
The
画像処理部15は、曲断面画像生成処理を実行する。この画像処理部15の構成及び曲断面画像生成処理の内容については、後で詳しく説明する。
The
送受信部17は、ネットワークを介して各種医療画像撮影装置(例えば、X線コンピュータ断層撮影装置、超音波診断装置、磁気共鳴イメージング装置等)と画像データを含む各種データの送受信を行う。
The transmission /
表示部19は、三次元画像投影部157から受け取った投影画像を、所定の形態にて表示する出力手段である。
The
入力部21は、観察者(操作者)からの各種指示・命令・情報をとりこむため入力装置(マウスやトラックボール、モード切替スイッチ、キーボード等)を有している。
The
(画像処理部15の機能及び構成)
図2は、画像処理部15の構成を示したブロック図である。同図に示すように、
本画像処理部15は、三次元画像記憶部151、位置データ記憶部152、曲断面データ演算部153、曲断面データ記憶部154、視線データ変更部155、視線データ記憶部156、三次元画像投影部157を具備している。
(Function and configuration of image processing unit 15)
FIG. 2 is a block diagram illustrating a configuration of the
The
なお、本画像処理部15の機能及び構成は、例えば当該処理を実行する専用プログラムを当該画像処理装置10にインストールし、制御部11の制御のもと、これを読み出して図示していない補助記憶部(メモリ)上で展開することによって実現することができる。当然ながら、本画像処理部15の機能等を実行させることができるプログラムは、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。
Note that the function and configuration of the
しかしながら、本実施形態は、この様なソフトウェアによる構成に限定する趣旨ではなく、例えば図2に示した少なくとも一部の構成を、グラフィックカード等によるハード構成によって実現するようにしてもよい。 However, the present embodiment is not intended to be limited to such a software configuration, and for example, at least a part of the configuration shown in FIG. 2 may be realized by a hardware configuration such as a graphic card.
三次元画像記憶部151は、主記憶部13から読み出された三次元画像データを記憶する。
The 3D
位置データ記憶部152は、入力部21、ネットワーク経由での他の装置、CD等の脱着自在な外部記憶装置等を介して入力された所定の位置データ(例えば後述する、三次元画像内の曲がった観察対象物である血管中心線データ)を記憶する。
The position
曲断面データ演算部153は、位置データ記憶部152から読み出された血管中心線データ、視線データ記憶部156から読み出された視線データをそれぞれ入力し、所定の演算によって曲断面データを生成する。この演算については、後で詳しく説明する。
The curved section
曲断面データ記憶部154は、曲断面データ演算部153によって生成された曲断面データを記憶する。
The curved section data storage unit 154 stores the curved section data generated by the curved section
視線データ変更部155は、視線方向を変更するための入力部31からの操作に応答して、視線データを生成する。すなわち、視線データ変更部155は、入力部31からの入力データからマウスやトラックボールなどの動きの方向と程度を視点又は視線方向の変化量とみなし、少なくとも視線方向を定義する視線データを作成する。なお、視線データは、必要に応じて視線方向の他に視点を定義するようにしてもよい。
The line-of-sight
視線データ記憶部156は、視線データ変更部155において作成された視線データを記憶する。
The line-of-sight
三次元画像投影部157は、三次元画像記憶部151から読み出された三次元画像と、視線データ記憶部156から読み出された視線データとに基づいて、制御部11に指示された投影方法を用いて三次元画像を投影し投影画像を生成する。生成された投影画像は、画像表示部29に出力され、所定の形態にて表示される。
The three-dimensional
また、三次元画像記憶部151から読み出された三次元画像と、視線データ記憶部156から読み出された視線データと、曲断面データ記憶部154に記憶されている曲断面データとに基づいて、所定の投影処理を実行し、投影画像を生成する。この投影処理については、後で詳しく説明する。生成された投影画像は、画像表示部29に出力され、所定の形態にて表示される。
Further, based on the 3D image read from the 3D
(曲断面画像生成処理)
図3は、本画像処理装置10によって実行される曲断面画像生成処理の手順を示したフローチャートである。同図に示すように、本曲断面画像生成処理は、大きく次の3つのステップから構成されている。
(Curved section image generation processing)
FIG. 3 is a flowchart showing the procedure of the curved slice image generation process executed by the
ステップS1:三次元画像内の観察対象物の位置を示す複数個の位置データを入力する。 Step S1: Input a plurality of position data indicating the position of the observation object in the three-dimensional image.
ステップS2:複数個の位置データと三次元画像に対する視線データとから、視線方向における曲断面を求める。 Step S2: A curved section in the line-of-sight direction is obtained from the plurality of position data and the line-of-sight data for the three-dimensional image.
ステップS3:曲断面上の三次元画像を前記視線データに基づいて投影面に投影する。 Step S3: Projecting a three-dimensional image on the curved section onto the projection plane based on the line-of-sight data.
各ステップの処理について、以下詳細に説明する。 The processing of each step will be described in detail below.
[ステップS1]
本ステップでは、三次元画像内の観察対象物の位置を示す複数個の位置データを入力する。入力される位置データがn個(nは2以上の自然数)あるとし、位置データ全体をWKと表すことにすると、i番目の位置データwKiは次の式(1)ようなデータである。
[Step S1]
In this step, a plurality of position data indicating the position of the observation object in the three-dimensional image is input. If the input position data is n (n is a natural number greater than or equal to 2) and the entire position data is expressed as W K, the i-th position data w K i is expressed by the following equation (1). is there.
位置データwKi:( wxi, wyi, wzi ) i=0,1,2,・・・,n-1 (1)
ここで、wxi, wyi, wziは、それぞれ実空間のx座標、y座標およびz座標である。
Position data w K i : ( w x i , w y i , w z i ) i = 0, 1, 2,..., N-1 (1)
Here, w x i , w y i , and w z i are the x coordinate, the y coordinate, and the z coordinate of the real space, respectively.
[ステップS2]
ステップS2では、ステップS1において入力されたn個の位置データと、視線データとから、曲断面を算出する。本ステップにおいて実行される処理は、図3のステップS21〜S23に示すように、次の三つの小ステップから構成されている。
[Step S2]
In step S2, a curved section is calculated from the n pieces of position data input in step S1 and the line-of-sight data. The processing executed in this step is composed of the following three small steps as shown in steps S21 to S23 in FIG.
ステップS2−1:位置データの座標を実空間座標系からスクリーン座標系に変換する。 Step S2-1: The coordinates of the position data are converted from the real space coordinate system to the screen coordinate system.
ステップS2−2:スクリーン座標系に変換された位置データから、スクリーン上の各点の深さ方向の座標を求める。 Step S2-2: The coordinates in the depth direction of each point on the screen are obtained from the position data converted into the screen coordinate system.
ステップS2−3:得られたスクリーン座標系の各点の座標を、実空間座標系に変換する。 Step S2-3: The coordinates of each point of the obtained screen coordinate system are converted into a real space coordinate system.
以下、各小ステップでの処理について説明する。なお、以下の説明においては、ボリュームデータが配置された実空間座標系からスクリーン座標系への変換行列をSTWと表記し、また、その逆行列をWTSと表記する。WTSは、スクリーン座標系から実空間座標系への変換行列である。ここでは、STWとWTSをまとめて視線データと呼ぶことにする。 Hereinafter, processing in each small step will be described. In the following description, the transformation matrix from the real space coordinate system in which the volume data is arranged to the screen coordinate system is denoted as S T W, and the inverse matrix is denoted as W T S. W T S is a transformation matrix from the screen coordinate system to the real space coordinate system. In this case, will be referred to as line-of-sight data are collectively S T W and W T S.
[ステップS2−1]
本ステップS2−1では、以下の式(2)に従う行列計算を行って、スクリーン座標系における位置データsKiの座標、すなわち( sxi, syi, szi )を求める。
[Step S2-1]
In step S2-1, matrix calculation according to the following equation (2) is performed to obtain the coordinates of the position data s K i in the screen coordinate system, that is, ( s x i , s y i , s z i ).
t[ Sxi Syi Szi 1 ] = STW t[ Wxi Wyi Wzi 1 ] (2)
ここで、t[]は、転置行列を意味する。転置行列内の要素である1は、STWが2つの座標系の間のずれ量(平行移動量)を加味したものとなっているために存在する。
t [S x i S y i S z i 1] = S T W t [W x i W y i W z i 1] (2)
Here, t [] means a transposed matrix. The
[ステップS2−2]
本ステップS2−2では、ステップS2−2で得られたスクリーン座標系の位置データから、スクリーン上の各点(ピクセル)SPのスクリーン座標系における深さ方向のデータを求める。スクリーン上の座標 (Sx, Sy) の点を、 SPx,y と記述すれば、深さ方向(視線方向)のデータはスクリーン座標系におけるz座標の値 Sz (深さ方向に関する情報)を求めることであり、(Sx, Sy , Sz)の集合が、求めている曲断面を表すデータとなる。
[Step S2-2]
In this step S2-2, the position data of the screen coordinate system obtained in step S2-2, obtains the data in the depth direction of the screen coordinate system of each point (pixel) S P on the screen. If the point of the coordinates ( S x, S y) on the screen is described as S P x, y , the data in the depth direction (gaze direction) is the z coordinate value S z in the screen coordinate system. Information), and a set of ( S x, S y, S z) becomes data representing the desired curved section.
スクリーン座標系に変換された実空間の位置データwKiをSKiと名づける。SKiをスクリーンに投影した点(Sxi , Syi )を用い、次の式(3)によりSPx,yと(Sxi , Syi )との間の距離Di(i=0,1,2,・・・,n-1)を計算する。 The real space position data w K i converted to the screen coordinate system is named S K i . Using a point ( S x i , S y i ) obtained by projecting S K i on the screen, the distance D i between S P x, y and ( S x i , S y i ) is calculated by the following equation (3). (I = 0, 1, 2,..., N-1) is calculated.
Di = ( (Sxi - Sx )2 + (Syi - Sy )2 )1/2 (3)
なお、図4に、スクリーン上の点SPx,yと(Sxi , Syi )との間の距離Diの一例を示した概念図を示した。
D i = (( S x i - S x) 2 + ( S y i - S y) 2 ) 1/2 (3)
FIG. 4 is a conceptual diagram showing an example of the distance D i between the point S P x, y on the screen and ( S x i , S y i ).
次に、式(4)、(5)に従ってSz を求める。 Next, S z is obtained according to equations (4) and (5).
Sz = Σ (δi Szi ) / Σδi (i=0, …, n-1) (4)
δi = 1 / Di m (5)
ここで、δiは重みであり、Di が小さいほど、つまりSKiが点(Sxi , Syi )に近いほど大きな重みとなるように考慮されている。
S z = Σ (δ i S z i ) / Σ δ i (i = 0,…, n-1) (4)
δ i = 1 / D i m (5)
Here, δ i is a weight, and is considered so that the smaller the D i is, that is, the larger the S K i is closer to the point ( S x i , S y i ), the greater the weight.
この計算をスクリーン上のすべての点について実行すると、求めている曲断面を表すデータが得られる。mは定数であり、値が大きくなればなるほど、滑らかな曲断面となる。なお、Diがゼロとなる場合、すなわち、SPx,yが位置データSKiと同一である場合には、SKiのz座標 Sziを深さ方向のデータとする。 When this calculation is executed for all points on the screen, data representing the desired curved section is obtained. m is a constant, and the larger the value, the smoother the curved cross section. When D i is zero, that is, when S P x, y is the same as the position data S K i , the z coordinate S z i of S K i is used as data in the depth direction.
[ステップS2−3]
本ステップS2−3では、ステップS2−2で求めた曲断面(中間曲断面)上の点の座標(Sx, Sy , Sz)を、次の式(6)により、実空間座標に変換する。
[Step S2-3]
In step S2-3, the coordinates ( S x, S y, S z) of the points on the curved section (intermediate curved section) obtained in step S2-2 are converted into real space coordinates by the following equation (6). Convert.
t[ Wx Wy Wz 1 ] = WTS t[ Sx Sy Sz 1 ] (6)
これによって得られる(Wx, Wy , Wz)の集合が、曲断面の実空間におけるデータである。
t [W x W y W z 1] = W T S t [S x S y S z 1] (6)
Thus obtained (W x, W y, W z) is the set of a data in the real space of the curved cross-section.
[ステップS3]
ステップS3では、ステップS2において実空間に置ける曲断面データを用いて三次元画像を投影する投影処理を実行する。すなわち、本ステップS3においては、スクリーンの各点(Sx, Sy)について、ステップS2−2で求めた座標(Sx, Sy , Sz)に対応する実空間上の座標(Wx, Wy , Wz)にある三次元画像の画素値(ボクセル)V(Wx, Wy , Wz)を得て、それを(Sx, Sy)におけるピクセル値とする投影処理を行う。
[Step S3]
In step S3, a projection process for projecting a three-dimensional image using the curved cross-section data that can be placed in the real space in step S2 is executed. That is, in this step S3, for each point ( S x, S y) on the screen, the coordinates in the real space ( W x) corresponding to the coordinates ( S x, S y, S z) obtained in step S2-2. , W y, the pixel values of the three-dimensional image in W z) (voxel) V (W x, W y , to give a W z), it (S x, the projection processing of the pixel values in S y) Do.
図5(a)、(b)は、大動脈を含む三次元CT画像に対して、本曲断面画像生成処理を実行して得られた結果を説明するための図である。すなわち、図5(a)は、ステップS2−2で得られた深さ方向のデータSzを画像として示したもので、黒い部分は白い部分よりも手前にあることを意味している。視線方向はCT画像を患者に対してほぼ正面から眺める方向に設定し、ステップS2−2におけるmの値は、8としている。また、図5(b)、ステップS3まで実行した結果である。その視線方向から見た大動脈全体の断面の形状がわかりやすく表示されており、また視線方向がそれまで眺めていた方向と変わらないので、観察者にとっては自然な画像である。なお、参考のために、大動脈の血管中心線の位置を示す曲線を画像の上に重ねて示している。 FIGS. 5A and 5B are diagrams for explaining the results obtained by executing the curved cross-sectional image generation process on the three-dimensional CT image including the aorta. That is, FIG. 5 (a), shows the data S z of the resulting depth direction in step S2-2 as an image, black portions means that in front of the white portion. The line-of-sight direction is set to a direction in which the CT image is viewed from the front of the patient, and the value of m in step S2-2 is 8. Further, FIG. 5B shows the result of execution up to step S3. Since the cross-sectional shape of the entire aorta viewed from the line-of-sight direction is displayed in an easy-to-understand manner, and the direction of the line-of-sight is not different from the direction of viewing, the image is natural for the observer. For reference, a curve indicating the position of the blood vessel center line of the aorta is shown superimposed on the image.
なお、位置データとしては、大動脈の血管中心線の位置を示すデータを用いている。大動脈の血管中心線の位置データを求めるのには、例えば、「Ali Shahrokni et al, “Fast skeltonization algorithm for 3-D elongated objects”, Proceedings of SPIE Vol.4322, pp.323-330, 2001」、「USP5,971,767」、「Onno Wink, Wiro J. Niessen, “Fast Delineation and Visualization of Vessels in 3-D Angiographic Images”, IEEE Trans. Med. Imag., Vol.19, No.4, 2000」等に開示されている手法を用いることができる。 As the position data, data indicating the position of the blood vessel center line of the aorta is used. For example, “Ali Shahrokni et al,“ Fast skeltonization algorithm for 3-D elongated objects ”, Proceedings of SPIE Vol.4322, pp.323-330, 2001” “USP5,971,767”, “Onno Wink, Wiro J. Niessen,“ Fast Delineation and Visualization of Vessels in 3-D Angiographic Images ”, IEEE Trans. Med. Imag., Vol. 19, No. 4, 2000, etc. The disclosed technique can be used.
(変形例1)
次に、本実施形態の変形例について説明する。本変形例では、ステップS3において、ステップS2で得られた曲断面に対し厚みをつけて投影する投影方法を採用するものである。
(Modification 1)
Next, a modification of this embodiment will be described. In this modification, in step S3, a projection method is employed in which the curved section obtained in step S2 is projected with a thickness.
すなわち、ステップS2で得られた曲断面上の視線方向の前後にそれぞれ一定の厚みをつけ、厚みがLボクセル分となるように投影領域を設定する。スクリーンの各点に垂直な視線上にあって、その視線が通る投影領域内のボクセルのうちで最大のボクセル値をスクリーンのその点のピクセル値として投影する。この処理は最大値投影(Maximum Intensity Projection)の名でよく知られているものである。 That is, a fixed thickness is given to the front and rear in the line-of-sight direction on the curved section obtained in step S2, and the projection area is set so that the thickness is equal to L voxels. The maximum voxel value among the voxels in the projection area that is on the line of sight perpendicular to each point on the screen and passes through the line of sight is projected as the pixel value of that point on the screen. This process is well known under the name of Maximum Intensity Projection.
図5(a)と同じ三次元CT画像および血管中心線データを用いて、L=20として設定し、本変形例により得られた画像を図5(c)に示す。同図では、その視線方向から見た大動脈全体の形状がよくわかるだけでなく、大動脈周辺の血管、臓器、骨もより把握しやすく描写できている。 FIG. 5C shows an image obtained by setting L = 20 using the same three-dimensional CT image and blood vessel centerline data as in FIG. In the figure, not only the shape of the entire aorta as seen from the direction of the line of sight is well understood, but also blood vessels, organs, and bones around the aorta are depicted more easily.
また、厚みは一定でなくても差し支えない。例えば、視線方向に対し、曲断面から奥にある領域全体を投影してもよい。さらに、投影方法についても、最大値投影以外の投影方法でもよい。例えば、不透明度と色を使用して投影を行ういわゆるボリュームレンダリングなど、関心に応じて様々な投影方法を適用することが可能である。 Further, the thickness may not be constant. For example, the entire region behind the curved cross section may be projected with respect to the line-of-sight direction. Further, the projection method may be a projection method other than the maximum value projection. For example, various projection methods can be applied depending on the interest, such as so-called volume rendering in which projection is performed using opacity and color.
(変形例2)
次に、本実施形態の他の変形例について説明する。本変形例は、視線方向を任意に変更可能なものである。
(Modification 2)
Next, another modification of the present embodiment will be described. In this modification, the line-of-sight direction can be arbitrarily changed.
すなわち、視線データ変更部155は、マウスあるいはトラックボール等の入力部21による視線方向の変更指示(例えば、ポインタを所定方向に所定量移動させる等の指示)に基づいて視線の変化量を計算し、新たな視線データを作成する。
That is, the line-of-sight
曲断面データ算出部17は、変更後の視線方向に基づいて、スクリーン座標上の曲断面データを算出する。また、三次元画像投影部157は、変更後の視線方向に基づいて、実空間内の曲断面を投影した投影画像を生成する。得られた投影画像は、画像表示部19に所定の形態にて表示される。
The curved section
以上述べた一連の処理を繰り返すと、操作者が視線方向を変更するたびに、次々と曲断面画像が作成・表示されることになる。従って、操作者は、視線方向を変更するための入力部を操作するだけで、曲がった観察対象物の断面を様々な方向から観察することができる。なお、ステップS3において、変形例1と同じ投影処理を実行した場合には、曲断面を含む厚みを持った領域が投影されるのはいうまでもない。 When the series of processes described above is repeated, every time the operator changes the line-of-sight direction, curved cross-sectional images are created and displayed one after another. Therefore, the operator can observe the cross section of the bent observation object from various directions only by operating the input unit for changing the line-of-sight direction. Needless to say, in step S3, when the same projection processing as that of the first modification is performed, a region having a thickness including a curved section is projected.
以上述べた構成によれば、以下の効果を得ることができる。 According to the configuration described above, the following effects can be obtained.
本画像処理装置によれば、曲がりくねっている観察対象を含むスクリーン上の曲断面から実空間の曲断面を求め、当該実空間の曲断面上のデータ或いはその曲断面を含む厚みを持った領域を投影している。従って、曲がりくねっている観察対象の断面を平面に展開した画像として観察する従来の手法に比して、観察対象全体の形状を容易に把握することができる投影画像を提供することができる。 According to the present image processing apparatus, a curved section in real space is obtained from a curved section on a screen including a winding observation target, and data on the curved section in the real space or a region having a thickness including the curved section is obtained. Projecting. Therefore, it is possible to provide a projection image that allows the shape of the entire observation target to be easily grasped as compared with the conventional method of observing a cross section of an observation target that is winding as an image developed on a plane.
また、本画像処理装置によれば、曲がった観察対象に対して設定された位置データと視線方向のデータとから実空間の曲断面を算出し、これを投影することで、曲断面画像を生成する。この実空間の曲断面は、スクリーン座標系に変換された位置データから、視線方向に応じて、スクリーン上の各点の深さ方向の座標を利用して求めている。従って、観察者が三次元画像を眺めている方向と同じ方向から見た実空間の曲断面を用いて投影画像が作成されるため、三次元画像を眺めている方向と異なる方向からの画像が生成される従来に比して、曲がりくねっている観察対象を自然に観察できる投影画像を提供することができる。 In addition, according to the present image processing apparatus, a curved section image in a real space is calculated from the position data set for the bent observation target and the data in the line-of-sight direction, and is projected to generate a curved section image. To do. The curved section in the real space is obtained from the position data converted into the screen coordinate system using the coordinates in the depth direction of each point on the screen according to the line-of-sight direction. Therefore, a projection image is created using a curved section of real space viewed from the same direction as the direction in which the observer is viewing the 3D image, so that an image from a direction different from the direction in which the 3D image is viewed is displayed. Compared with the generated conventional technology, it is possible to provide a projection image that allows a natural observation of a winding object.
また、本画像処理装置によれば、視線方向を変化させた場合には、新たな断面位置データを入力しなくても、変化後の視線方向から見た新たな実空間の曲断面が作成され、これを用いて投影画像が生成されることになる。これに対し、従来の手法では、視線方向を変化させた場合であっても、新たな断面位置データを入力しない限り、新たな断面画像は生成することができない。従って、従来と異なり、視線方向をどのように設定した場合であっても、曲がりくねっている観察対象を自然に観察できる投影画像を提供することができる。 Further, according to the present image processing device, when the line-of-sight direction is changed, a new curved section in real space viewed from the changed line-of-sight direction is created without inputting new cross-section position data. A projection image is generated using this. On the other hand, in the conventional method, even when the line-of-sight direction is changed, a new cross-sectional image cannot be generated unless new cross-section position data is input. Therefore, unlike the conventional case, it is possible to provide a projection image that can naturally observe a winding observation object regardless of how the line-of-sight direction is set.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理装置は、第1の実施形態で得られた曲断面を用いて、さらに血管内壁を映像化する機能(血管内壁可視化機能)を有するものである。以下、当該機能の内容およびこれに従う処理について、実施例に従って説明する。なお、以下説明の便宜上、図3のステップS2において取得される曲断面を、「第1種曲断面」と呼ぶこととする。また、第1種曲断面を利用して、血管内壁可視化機能に従う処理(血管内壁可視化処理)により生成される曲断面を、「第2種曲断面」と呼ぶことにする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The image processing apparatus according to the present embodiment has a function of visualizing a blood vessel inner wall (a blood vessel inner wall visualization function) using the curved cross section obtained in the first embodiment. Hereinafter, the contents of the function and processing according to the function will be described according to the embodiment. For the sake of convenience, the curved cross section acquired in step S2 in FIG. 3 will be referred to as a “first type curved cross section”. In addition, a curved section generated by a process (vascular inner wall visualization process) according to the blood vessel inner wall visualization function using the first type curved section will be referred to as a “second type curved section”.
(実施例1)
実施例1は、第1種曲断面上に存在する血液領域を、当該血液領域から視線奥行き方向に向かって最初に出現する非血液領域と置き換えることで、第2種曲断面を生成するものである。
Example 1
The first embodiment generates a second type curved section by replacing a blood region existing on the first type curved section with a non-blood region that first appears from the blood region in the visual line depth direction. is there.
図8は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。 FIG. 8 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.
次に、曲断面データ算出部153は、所定の範囲内の値(血液と考えられる値)を持つボクセルが第1種曲断面上に存在するか否かを判定する(ステップS3a)。その結果、該当するボクセルが第1種曲断面上に存在しないと判定された場合には、三次元画像投影部157は、当該第1種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7a)。この処理は、図3のステップS3における処理と同様である。
Next, the curved surface
一方、所定の範囲内の値を持つボクセルが第1種曲断面上に存在すると判定された場合には、曲断面データ算出部153は、該当するボクセルを抽出することで、当該第1種曲断面上に存在する血液領域を特定する(ステップS4a)。
On the other hand, when it is determined that a voxel having a value within a predetermined range exists on the first type curved section, the curved section
次に、曲断面データ算出部153は、血液領域内の各位置から視線奥行き方向に沿ってボクセル値を判定し、血液に対応しない値を有する最初のボクセルを特定することで、非血液領域(すなわち、血管内壁)を特定する(ステップS5(a))。さらに、曲断面データ算出部153は、第1種曲断面上の血液領域を特定された非血液領域と置き換えることで、血管内壁を含む第2種曲断面を生成する(ステップS6a)。
Next, the curved cross-section
次に、三次元画像投影部157は、生成された第2種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7a)。
Next, the three-dimensional
(実施例2)
実施例2は、第1種曲断面より手前に存在するデータを取り除くクリッピング処理と共に、所定の範囲内の値(血液と考えられる値)を持つボクセルに0又は(組織に対して相対的に)低い透明度を割り当てたボリュームレンダリング処理を行うことで、血管内壁を積極的に映像化するものである。
(Example 2)
In the second embodiment, 0 or (relative to the tissue) is applied to a voxel having a value within a predetermined range (value considered to be blood) together with a clipping process for removing data existing before the first type of curved section. By performing volume rendering processing with low transparency assigned, the inner wall of the blood vessel is actively imaged.
図9は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。 FIG. 9 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.
次に、三次元画像投影部157は、第1種曲断面をクリッピング面とし、当該クリッピング面より手前にあるデータを取り除くクリッピング処理を行う(ステップS3b)。また、三次元画像投影部157は、クリッピングされたデータを用いて、図10に示すように血液に対応する値を持つボクセルに低い透明度(又は透明度0)を割り当てたボリュームレンダリング処理を実行する(ステップS4b)。これにより、血管内壁が可視化されたボリュームレンダリング画像を生成することができる。なお、血液に対応する値を持つボクセルに割り当てる不透明度は、任意の値に設定することができる。
Next, the 3D
(実施例3)
実施例3は、第1の実施形態において取得した血管中心線を利用して血管内壁を特定し、これと第1種曲断面上の血液領域とを置き換えることで、第2種曲断面を生成するものである。
(Example 3)
In Example 3, the blood vessel center line acquired in the first embodiment is used to identify the inner wall of the blood vessel, and this is replaced with the blood region on the first type curved surface, thereby generating the second type curved surface. To do.
図11は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。 FIG. 11 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.
次に、曲断面データ算出部153は、血液に対応する値を持つボクセルが第1種曲断面上に存在するか否かを判定する(ステップS3c)。その結果、該当するボクセルが第1種曲断面上に存在しないと判定された場合には、三次元画像投影部157は、当該第1種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7c)。この処理は、図3のステップS3における処理と同様である。
Next, the curved section
一方、所定の範囲内の値を持つボクセルが第1種曲断面上に存在すると判定された場合には、曲断面データ算出部153は、該当するボクセルを抽出することで、当該第1種曲断面上に存在する血液領域を特定する(ステップS4c)。
On the other hand, when it is determined that a voxel having a value within a predetermined range exists on the first type curved section, the curved section
次に、曲断面データ算出部153は、図12に示すように、血管中心線から動径方向に沿って全角度についてボクセル値を判定し、例えば図13に示すようにボクセル値が所定の閾値以上変化する最初のボクセルを角度毎に特定することで、非血液領域(すなわち、血管内壁)を特定する(ステップS5(c))。さらに、曲断面データ算出部153は、第1種曲断面上の血液領域を、当該血液領域から視線奥行き方向に沿ってより深い位置に存在する非血液領域と置き換えることで、血管内壁を含む第2種曲断面を生成する(ステップS6c)。
Next, as shown in FIG. 12, the curved cross-section
次に、三次元画像投影部157は、生成された第2種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7c)。
Next, the three-dimensional
なお、本実施例のステップS5(c)において、ボクセル値の変化率の代わりに、ボクセル値そのものを基準として血管内壁を特定するようにしてもよい。すなわち、血管中心線から全動径方向に沿ってボクセル値を判定し、血液に対応しない値を有する最初のボクセルを特定することで、血管内壁を特定することができる。 In step S5 (c) of the present embodiment, the inner wall of the blood vessel may be specified based on the voxel value itself instead of the change rate of the voxel value. That is, the inner wall of the blood vessel can be specified by determining the voxel value along the entire radial direction from the blood vessel center line and specifying the first voxel having a value not corresponding to blood.
以上述べた各手法により生成された、血管内壁可視化画像は、表示部19において単独で、又は参照画像と共に例えば図14に示す形態にて表示される。ここで、参照画像とは、第1又は第2の実施形態に従う手法にて取得された表示画像と同一の対象を、同一視線方向から映像化したものである。典型的な例としては、同一対象に関する同一視線方向からのボリュームレンダリング画像を挙げることができる。この参照画像は、どの様なモダリティによって取得された画像であってもよい。また、図14の様な形態にて表示される場合には、例えば血管内壁可視化画像の視線方向、拡大率等を変更すると、これに同期して参照画像の視線方向、拡大率等も変更されることが好ましい。
The blood vessel inner wall visualized image generated by each method described above is displayed on the
また、表示部19は、血管内壁可視化画像を、図5(b)、5(c)に示すような血液が可視化された画像と共に表示するようにしてもよい。さらに、表示部19は、必要に応じて、血管内壁可視化画像、血液が可視化された画像、参照画像を同期させて同時に表示するようにしてもよい。
Further, the
以上述べた構成によれば、以下の効果を得ることができる。 According to the configuration described above, the following effects can be obtained.
本画像処理装置によれば、あたかも図5(b)、5(c)に示す血管画像から血液を取り除いて血管内壁を出現させた血管内壁可視化画像を生成し表示することができる。従って、従来では観察することができなかった血管内壁を自由に観察することができ、医療行為の質の向上に寄与することができる。 According to this image processing apparatus, it is possible to generate and display a blood vessel inner wall visualized image in which blood is removed from the blood vessel images shown in FIGS. 5B and 5C and the blood vessel inner wall appears. Therefore, the inner wall of the blood vessel that could not be observed conventionally can be observed freely, which can contribute to the improvement of the quality of medical practice.
また、血管内壁可視化画像は、参照画像と共に対応付けて表示することができる。従って、観察者は、参照画像によって診断部位全体を、血管内壁可視化画像によって細部を相互に関連付けながら観察することができる。さらに、第1の実施形態にて取得される画像と併用することで、目的に応じて血管内の血液有/無状態を自由に観察することができる。その結果、新たな診断情報を提供し得ると共に、診断情報選択の自由度を拡張することができる。 Moreover, the blood vessel inner wall visualized image can be displayed in association with the reference image. Therefore, the observer can observe the entire diagnosis site by the reference image and the details by correlating the details by the visualized blood vessel inner wall image. Furthermore, by using together with the image acquired in the first embodiment, it is possible to freely observe the presence / absence of blood in the blood vessel according to the purpose. As a result, new diagnostic information can be provided and the degree of freedom in selecting diagnostic information can be expanded.
なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.
上記各実施形態においては、例えば三次元CT画像に対する位置データの設定から曲断面の投影画像までの一連の処理を実行する画像処理装置を例に説明した。これに対し、例えば主記憶部13等に予め記憶されている位置データ、曲断面データ、視線データ等の少なくとも一つを利用して、曲断面の投影画像を生成する構成であってもよい。係る場合には、予め記憶されているデータを使用するため、観察者による入力作業等を省略することができ、また、所定のデータ生成処理動作を省略することができる。
In each of the above-described embodiments, for example, an image processing apparatus that executes a series of processes from setting of position data to a three-dimensional CT image to a projected image of a curved section has been described. On the other hand, for example, a configuration in which a projection image of a curved section is generated using at least one of position data, curved section data, line-of-sight data, etc. stored in advance in the
また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
以上本発明によれば、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を実現することができる。 As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object.
10…画像処理装置、11…制御部、13…主記憶部、14…外部記憶部、15…画像処理部、17…送受信部、19…表示部、21…入力部、15…画像処理部、31…入力部、151…三次元画像記憶部、152…位置データ記憶部、153…曲断面データ演算部、154…曲断面データ記憶部、155…視線データ変更部、156…視線データ記憶部、157…三次元画像投影部
DESCRIPTION OF
Claims (27)
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、
前記投影画像を表示する表示ユニットと、
を具備することを特徴とする画像処理装置。 On the input three-dimensional image data of the observation object, a position data specifying unit for specifying a plurality of position data indicating the position of the observation object;
A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction;
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data relating to the region based on the first curved section onto the projection plane along the line-of-sight direction. A projection image generation unit;
A display unit for displaying the projected image;
An image processing apparatus comprising:
前記三次元画像データ上に設定された前記複数個の位置データをスクリーン座標系に変換し、当該スクリーン座標系における前記各位置データの深さに関する情報を用いて、前記スクリーン座標系における中間曲断面を算出し、
前記中間曲断面を三次元空間に逆変換することにより、前記視線方向における前記第1の曲断面を算出すること、
を特徴とする請求項1乃至3のうちいずれか一項記載の画像処理装置。 The curved section calculation unit is
The plurality of position data set on the three-dimensional image data is converted into a screen coordinate system, and information on the depth of each position data in the screen coordinate system is used to obtain an intermediate curved section in the screen coordinate system. To calculate
Calculating the first curved section in the line-of-sight direction by inversely transforming the intermediate curved section into a three-dimensional space;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記曲断面算出ユニットは、前記視線変更ユニットにより前記視線データが変更された場合には、変更後の前記視線データを用いて、前記第1の曲断面を算出すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。 Further comprising a line-of-sight changing unit for changing the line-of-sight data;
The curved section calculation unit calculates the first curved section using the line-of-sight data after the change when the line-of-sight data is changed by the line-of-sight change unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記三次元画像データを構成する各ボクセルの値に基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。 The curved section calculation unit is
Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image data on the second curved section or the three-dimensional image data related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projection image by
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記観察対象物の三次元画像データから、前記第1の曲断面より手前に存在するデータを取り除くクリッピング処理を実行することで、クリッピングデータを生成し、
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。 The projection image generation unit includes:
Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Generating the projected image by performing volume rendering with a relatively low opacity assigned to the tissue for voxels having a value corresponding to blood using the clipping data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記複数個の位置データと前記三次元画像データを構成する各ボクセルの値の変化率とに基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。 The curved section calculation unit is
Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image on the second curved section or the three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projected image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、
前記投影画像を表示する表示ユニットと、
を具備することを特徴とする医用画像診断装置。 An acquisition unit for acquiring three-dimensional image data to be observed;
On the three-dimensional image data, a position data specifying unit for specifying a plurality of position data indicating the position of the observation object;
A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction;
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data relating to the region based on the first curved section onto the projection plane along the line-of-sight direction. A projection image generation unit;
A display unit for displaying the projected image;
A medical image diagnostic apparatus comprising:
前記三次元画像データ上に設定された前記複数個の位置データをスクリーン座標系に変換し、当該スクリーン座標系における前記各位置データの深さに関する情報を用いて、前記スクリーン座標系における中間曲断面を算出し、
前記中間曲断面を三次元空間に逆変換することにより、前記視線方向における前記第1の曲断面を算出すること、
を特徴とする請求項11乃至13のうちいずれか一項記載の医用画像診断装置。 The curved section calculation unit is
The plurality of position data set on the three-dimensional image data is converted into a screen coordinate system, and information on the depth of each position data in the screen coordinate system is used to obtain an intermediate curved section in the screen coordinate system. To calculate
Calculating the first curved section in the line-of-sight direction by inversely transforming the intermediate curved section into a three-dimensional space;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
前記曲断面算出ユニットは、前記視線変更ユニットにより前記視線データが変更された場合には、変更後の前記視線データを用いて、前記第1の曲断面を算出すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。 Further comprising a line-of-sight changing unit for changing the line-of-sight data;
The curved section calculation unit calculates the first curved section using the line-of-sight data after the change when the line-of-sight data is changed by the line-of-sight change unit;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記三次元画像データを構成する各ボクセルの値に基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。 The curved section calculation unit is
Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image data on the second curved section or the three-dimensional image data related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projection image by
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記観察対象物の三次元画像データから、前記第1の曲断面より手前に存在するデータを取り除くクリッピング処理を実行することで、クリッピングデータを生成し、
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。 The projection image generation unit includes:
Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Generating the projected image by performing volume rendering with a relatively low opacity assigned to the tissue for voxels having a value corresponding to blood using the clipping data;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記複数個の位置データと前記三次元画像データを構成する各ボクセルの値の変化率とに基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。 The curved section calculation unit is
Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image on the second curved section or the three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projected image;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出し、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成し、
前記投影画像を表示すること、
を特徴とする具備する画像処理方法。 On the input three-dimensional image data of the observation object, specify a plurality of position data indicating the position of the observation object,
From the plurality of position data and gaze data including a desired gaze direction, a first curved section in the gaze direction is calculated,
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data related to the region based on the first curved section onto the projection plane along the line-of-sight direction. ,
Displaying the projected image;
An image processing method comprising:
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。 Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
A projection image is generated by projecting the three-dimensional image data on the second curved section or the three-dimensional image data relating to the region based on the second curved section onto the projection plane along the line-of-sight direction. thing,
The image processing method according to claim 21, further comprising:
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。 Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Using the clipping data to generate a projected image by performing volume rendering with a relatively low opacity assigned to tissue for voxels having a value corresponding to blood;
The image processing method according to claim 21, further comprising:
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。 Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
Generating a projection image by projecting the three-dimensional image on the second curved section or a three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction;
The image processing method according to claim 21, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005261020A JP4896470B2 (en) | 2004-09-30 | 2005-09-08 | Image processing apparatus, medical image diagnostic apparatus, and image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004287280 | 2004-09-30 | ||
JP2004287280 | 2004-09-30 | ||
JP2005261020A JP4896470B2 (en) | 2004-09-30 | 2005-09-08 | Image processing apparatus, medical image diagnostic apparatus, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006122663A true JP2006122663A (en) | 2006-05-18 |
JP4896470B2 JP4896470B2 (en) | 2012-03-14 |
Family
ID=36717925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005261020A Active JP4896470B2 (en) | 2004-09-30 | 2005-09-08 | Image processing apparatus, medical image diagnostic apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4896470B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008000261A (en) * | 2006-06-21 | 2008-01-10 | Aze Ltd | Method, apparatus, and program for preparing image for observing lumen-like tissue |
JP2009136679A (en) * | 2007-12-05 | 2009-06-25 | Biosense Webster Inc | Anatomical modeling from 3-d image and surface mapping |
JP2010075554A (en) * | 2008-09-26 | 2010-04-08 | Toshiba Corp | X-ray diagnostic apparatus and image processing method thereof |
JP2017223627A (en) * | 2016-06-17 | 2017-12-21 | 株式会社東芝 | Three-dimensional display device, and three-dimensional display method and program applied to the same |
KR20190052713A (en) * | 2016-09-29 | 2019-05-16 | 코닌클리케 필립스 엔.브이. | Image processing |
JP2022089914A (en) * | 2020-12-21 | 2022-06-16 | 株式会社東芝 | Display device, display method applied to display device, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021000435A (en) | 2019-06-19 | 2021-01-07 | 株式会社リコー | Information processing device, biological information measurement device, space area value display method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05266214A (en) * | 1992-03-17 | 1993-10-15 | Hitachi Ltd | Picture display method |
JP2001014495A (en) * | 1999-06-29 | 2001-01-19 | Hitachi Medical Corp | Image display device |
JP2003260052A (en) * | 2002-03-08 | 2003-09-16 | Hitachi Medical Corp | Imaging diagnosis support system |
JP2004174241A (en) * | 2002-11-25 | 2004-06-24 | Siemens Ag | Image forming method |
-
2005
- 2005-09-08 JP JP2005261020A patent/JP4896470B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05266214A (en) * | 1992-03-17 | 1993-10-15 | Hitachi Ltd | Picture display method |
JP2001014495A (en) * | 1999-06-29 | 2001-01-19 | Hitachi Medical Corp | Image display device |
JP2003260052A (en) * | 2002-03-08 | 2003-09-16 | Hitachi Medical Corp | Imaging diagnosis support system |
JP2004174241A (en) * | 2002-11-25 | 2004-06-24 | Siemens Ag | Image forming method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008000261A (en) * | 2006-06-21 | 2008-01-10 | Aze Ltd | Method, apparatus, and program for preparing image for observing lumen-like tissue |
JP2009136679A (en) * | 2007-12-05 | 2009-06-25 | Biosense Webster Inc | Anatomical modeling from 3-d image and surface mapping |
JP2010075554A (en) * | 2008-09-26 | 2010-04-08 | Toshiba Corp | X-ray diagnostic apparatus and image processing method thereof |
JP2017223627A (en) * | 2016-06-17 | 2017-12-21 | 株式会社東芝 | Three-dimensional display device, and three-dimensional display method and program applied to the same |
KR20190052713A (en) * | 2016-09-29 | 2019-05-16 | 코닌클리케 필립스 엔.브이. | Image processing |
KR102376593B1 (en) * | 2016-09-29 | 2022-03-21 | 코닌클리케 필립스 엔.브이. | image processing |
JP2022089914A (en) * | 2020-12-21 | 2022-06-16 | 株式会社東芝 | Display device, display method applied to display device, and program |
JP7379577B2 (en) | 2020-12-21 | 2023-11-14 | 株式会社東芝 | Display device, display method and program applied to the display device |
Also Published As
Publication number | Publication date |
---|---|
JP4896470B2 (en) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7463262B2 (en) | Image processing apparatus and method | |
JP4267598B2 (en) | Image fusion processing method, image fusion processing program, and image fusion processing apparatus | |
JP4335817B2 (en) | Region of interest designation method, region of interest designation program, region of interest designation device | |
JP4891541B2 (en) | Vascular stenosis rate analysis system | |
JP4896470B2 (en) | Image processing apparatus, medical image diagnostic apparatus, and image processing method | |
JP2009034521A (en) | System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium | |
EP2017789B1 (en) | Projection image generation apparatus and program | |
JP2008259696A (en) | Three-dimensional image processor and method, and program | |
WO2010098444A1 (en) | Device and method for medical image processing | |
JP2006302103A (en) | Developed image projection method, developed image projection program and developed image projector | |
JP2006055213A (en) | Image processor and program | |
JP2008259699A (en) | Image processing method and apparatus, and program | |
JP6215057B2 (en) | Visualization device, visualization program, and visualization method | |
JP4885042B2 (en) | Image processing method, apparatus, and program | |
JP6201255B2 (en) | Medical image processing system and medical image processing program | |
JP4018679B2 (en) | Rendering processing method, rendering processing program, and rendering processing apparatus | |
Bornik et al. | Computer-aided liver surgery planning: an augmented reality approach | |
JP2015217120A (en) | Image diagnosis support apparatus, and processing method and program thereof | |
JP2006136619A (en) | Image processing method | |
JP2006000205A (en) | Projection image processing method, projection image processing program, and projection image processor | |
JP2006000127A (en) | Image processing method, apparatus and program | |
JP2010075549A (en) | Image processor | |
JP2010131315A (en) | Medical image processor and medical image processing program | |
US20060103678A1 (en) | Method and system for interactive visualization of locally oriented structures | |
JP5065740B2 (en) | Image processing method, apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111129 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4896470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |