JP2006122663A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2006122663A
JP2006122663A JP2005261020A JP2005261020A JP2006122663A JP 2006122663 A JP2006122663 A JP 2006122663A JP 2005261020 A JP2005261020 A JP 2005261020A JP 2005261020 A JP2005261020 A JP 2005261020A JP 2006122663 A JP2006122663 A JP 2006122663A
Authority
JP
Japan
Prior art keywords
image
curved section
line
data
curved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005261020A
Other languages
Japanese (ja)
Other versions
JP4896470B2 (en
Inventor
Takehiro Ema
武博 江馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2005261020A priority Critical patent/JP4896470B2/en
Publication of JP2006122663A publication Critical patent/JP2006122663A/en
Application granted granted Critical
Publication of JP4896470B2 publication Critical patent/JP4896470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of generating a more useful cross-sectional image with less work burden in the case of generating the cross-sectional image of a curved observation target. <P>SOLUTION: A plurality of position data are inputted, which indicate the position of the observation target defined in a three-dimensional space, on its three-dimensional image, which is viewed from a predetermined view point along a predetermined line-of-sight direction. A curved cross section in the line-of-sight direction is computed from the plurality of position data and line-of-sight data including the predetermined view point and the predetermined line-of-sight direction. A projection image is generated by projecting the three-dimensional image on the computed curved cross-section onto a projection surface along the line-of-sight direction. The projection image is then displayed. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、容易に観察対象の曲断面形状を把握できる画像を提供可能な画像処理方法及び画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing method, an image processing apparatus, and an image processing method capable of providing an image with which a curved cross-sectional shape of an observation target can be easily grasped.

近年の医療用画像分野で使用される画像処理装置は、超音波診断装置、X線CTスキャン、磁気共鳴イメージング装置等の医療用画像機器と組み合わせて使用され、多くの病院、検査機関等で広く利用されている。この画像処理装置は、画像処理の高速化や解像度の向上が進み、臨床情報として有用な種々の画像を提供でき、例えば手術前のシミュレーション等において、血管の走行、消化管の腫瘍、プラーク(斑点)の形成、狭搾症等の原因を調べる際に行う消化管腔の画像化等に利用されている。   An image processing apparatus used in the medical image field in recent years is used in combination with medical imaging equipment such as an ultrasonic diagnostic apparatus, an X-ray CT scan, and a magnetic resonance imaging apparatus, and is widely used in many hospitals and examination institutions. It's being used. This image processing apparatus is capable of providing various images useful as clinical information as the speed of image processing increases and the resolution is improved. For example, in a simulation before surgery, blood vessel running, gastrointestinal tumor, plaque (spots) ), And imaging of the digestive tract cavity when examining the cause of stenosis, etc.

この様な画像処理装置において、従来、曲がっている観察対象物を含む三次元画像から、対象物を見やすく断面表示する方法として、Curved Multi−Planar Reformatting(Curved MRP:以下「C−MPR」と略す)と呼ばれる手法が知られている。C−MPRによる画像の作成は、例えば(1)三次元画像全体が表示されている画面上で折れ線を設定する。(2)画面に垂直に設定された折れ線を含む断面(C−MPR断面)を構成する。(3)その断面上の画素値を、そのまま二次元画像として表示する。といった手順を踏んで実行される。   Conventionally, in such an image processing apparatus, a curved multi-planar reformatting (Curved MRP: hereinafter abbreviated as “C-MPR”) is a method for displaying a cross section of an object in an easy-to-see manner from a three-dimensional image including a bent observation object. ) Is known. For example, (1) a polygonal line is set on a screen on which the entire three-dimensional image is displayed. (2) A cross section (C-MPR cross section) including a polygonal line set perpendicular to the screen is configured. (3) The pixel value on the cross section is displayed as it is as a two-dimensional image. It is executed following these steps.

図6は、C−MPR画像(C−MPRによって生成される画像)を説明するための図である。同図において、C−MPR断面を規定する折れ線は、a、b、c、dの四つの直線から構成されている。C−MPR画像は、それぞれ折れ線を含み画面に垂直な四つの平面から構成されるC−MPR断面上にある画素値を、そのまま表示することで生成される。従ってC−MPRは、全体としては平面上にない画素値を1つの平面上に並べて表示する方法であり、この手法によれば、平面から構成される曲面上の画像を一度に観察することができる。   FIG. 6 is a diagram for explaining a C-MPR image (an image generated by C-MPR). In the figure, the polygonal line defining the C-MPR section is composed of four straight lines a, b, c and d. A C-MPR image is generated by displaying pixel values on a C-MPR cross section composed of four planes each including a broken line and perpendicular to the screen as they are. Therefore, C-MPR is a method of displaying pixel values that are not on a plane as a whole on a single plane, and according to this method, an image on a curved surface composed of a plane can be observed at one time. it can.

また、同様に全体としては平面上にない画素値を1つの平面上に並べて表示する別の方法も知られており、例えば、(1)三次元画像全体が表示されている画面上で折れ線を設定する。(2)画面に垂直で設定された折れ線を含む断面(C−PC断面)を構成する。(3)その断面上にある画素値のみを、視点を考慮して投影面に投影し表示する。といった手順を踏んで実行される。ここでは、この表示方法をCurvd Plane Cut(C−PC)と呼ぶことにする。   Similarly, another method is also known in which pixel values that are not on a plane as a whole are displayed side by side on one plane. For example, (1) a broken line is displayed on a screen on which an entire three-dimensional image is displayed. Set. (2) A cross section (C-PC cross section) including a polygonal line set perpendicular to the screen is formed. (3) Only the pixel values on the cross section are projected and displayed on the projection plane in consideration of the viewpoint. It is executed following these steps. Here, this display method is referred to as Curvd Plane Cut (C-PC).

図7は、C−PC画像の説明図である。同図において、右側部分がC−PC画像を示しており、C−PC断面の形状がわかるような表示となっている。また、C−PC断面全体を回転させて異なる視点から眺めることも可能である。   FIG. 7 is an explanatory diagram of a C-PC image. In the figure, the right part shows a C-PC image, and the display shows the shape of the C-PC cross section. It is also possible to rotate the entire C-PC cross section and view from a different viewpoint.

しかしながら、従来の断面表示方法においては、例えば次の様な問題がある。   However, the conventional cross-sectional display method has the following problems, for example.

まず、C−MPRは、曲面を平面に展開した画像であるため、観察したい対象物の形状を把握することができない。例えば、医用画像診断においては、血管などの曲がりくねった観察対象物を見るが、観察対象物全体の曲がり具合がわかるように曲面が指定できるとは限らないため、観察対象物全体の曲がり具合を把握することはできないことがある。   First, since the C-MPR is an image obtained by developing a curved surface into a plane, the shape of an object to be observed cannot be grasped. For example, in medical image diagnosis, a torsional observation object such as a blood vessel is seen, but a curved surface cannot always be specified so that the bending condition of the entire observation object can be understood, so it is possible to grasp the bending condition of the entire observation object. There are things you can't do.

また、前述したC−MPR画像の説明から明らかなように、観察者は、C−MPR断面を設定するときに三次元画像を見ていた方向とは異なる方向からC−MPR画像を眺めることになる。観察者としては、その時点で三次元画像を見ている方向と同じ方向から観察対象物の断面を眺めるのが自然である。しかしながら、この要求はC−MPR画像では満足させることはできない。   Further, as is clear from the description of the C-MPR image described above, the observer views the C-MPR image from a direction different from the direction in which the 3D image was viewed when setting the C-MPR cross section. Become. As an observer, it is natural to view the cross section of the observation object from the same direction as the direction in which the three-dimensional image is viewed at that time. However, this requirement cannot be satisfied with C-MPR images.

さらに、一度C−MPR画像を表示させた後に観察対象物を異なる方向から観察したい場合(異なるC−MPRを設定したい場合)には、別のC−MPR断面を設定しなければならない。これは、面倒な作業であるため、観察者に対して大きな作業負担になる。実際の医療現場では、血管の断面を含む観察対象物を様々な方向から観察したいという要求がある。従って、これを満たすためには、C−MPR断面の設定を何度も繰り返さなければならないため、現実的ではない。   Furthermore, when it is desired to observe the observation object from a different direction after displaying the C-MPR image once, another C-MPR section must be set. Since this is a troublesome work, it places a heavy work burden on the observer. In an actual medical field, there is a demand for observing an observation object including a cross section of a blood vessel from various directions. Therefore, in order to satisfy this, the setting of the C-MPR section must be repeated many times, which is not realistic.

なお、C−PC画像では、平面から構成される曲面上の画像が平面に展開されることなく表示されるため、観察対象物の形状把握に関してはC−MPRよりも若干優れていると言える。しかしながら、曲面の指定方法はC−MPRと同じであるため、全体の形状を把握するには限界がある。   Note that in a C-PC image, an image on a curved surface composed of a plane is displayed without being developed on a plane, and therefore it can be said that it is slightly better than C-MPR for grasping the shape of an observation object. However, since the method of specifying a curved surface is the same as that of C-MPR, there is a limit to grasping the entire shape.

また、C−PC断面全体を回転させて異なった方向から観察することも可能である。しかしながら、C−PC断面自体は同じであり、同じデータを異なる方向から眺めることができるだけである。従って、その時点で三次元画像を見ている方向と同じ方向から観察対象物の断面を眺めたいという要求はC−PC画像でも満足させることはできない。   In addition, it is possible to observe from different directions by rotating the entire C-PC cross section. However, the C-PC cross section itself is the same, and the same data can only be viewed from different directions. Therefore, the request to view the cross section of the observation object from the same direction as the direction in which the three-dimensional image is viewed at that time cannot be satisfied even by the C-PC image.

さらに、一度C−PC画像を表示させた後に観察対象物を異なる方向から観察したい場合には、C−MPRの場合と同様に、別のC−PC断面を設定しなければならない。従って、観察者はC−PC断面の設定を何度も繰り返さなければならないため、現実的ではない。   Furthermore, when it is desired to observe the observation object from a different direction after displaying the C-PC image once, another C-PC cross section must be set as in the case of C-MPR. Therefore, the observer has to repeat the setting of the C-PC cross section many times, which is not realistic.

なお、本願に関連する公知文献としては、例えば次のようなものがある。
特開平11−318884号公報
In addition, as a well-known document relevant to this application, there exist the following, for example.
Japanese Patent Laid-Open No. 11-318884

本発明は、上記事情を鑑みてなされたもので、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object. The purpose is to provide.

本発明は、上記目的を達成するため、次のような手段を講じている。   In order to achieve the above object, the present invention takes the following measures.

請求項1に係る発明は、入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、前記投影画像を表示する表示ユニットと、を具備することを特徴とする画像処理装置である。   The invention according to claim 1 includes a position data specifying unit for specifying a plurality of position data indicating positions of the observation object on the input three-dimensional image data of the observation object, and the plurality of position data. A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the line-of-sight data including the desired line-of-sight direction, and the three-dimensional image data or the first curved section on the first curved section. A projection image generation unit that generates a projection image by projecting three-dimensional image data relating to a region with reference to the projection plane along the line-of-sight direction, and a display unit that displays the projection image. An image processing apparatus characterized by the above.

請求項11に係る発明は、観察対象の三次元画像データを取得する取得ユニットと、前記三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、前記投影画像を表示する表示ユニットと、を具備することを特徴とする医用画像診断装置である。   The invention according to claim 11 is an acquisition unit for acquiring three-dimensional image data of an observation object, and a position data specifying unit for specifying a plurality of position data indicating the position of the observation object on the three-dimensional image data. A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction, and the three-dimensional image on the first curved section A projection image generation unit that generates a projection image by projecting data or three-dimensional image data relating to a region based on the first curved section onto the projection plane along the line-of-sight direction, and displaying the projection image A medical image diagnostic apparatus, comprising: a display unit.

請求項21に係る発明は、入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定し、前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出し、前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成し、前記投影画像を表示すること、を特徴とする具備する画像処理方法である。   The invention according to claim 21 specifies a plurality of position data indicating the position of the observation object on the input three-dimensional image data of the observation object, and the plurality of position data and a desired line-of-sight direction. The first curved section in the line-of-sight direction is calculated from the line-of-sight data including the three-dimensional image data on the first curved section or the region based on the first curved section. Is projected onto a projection plane along the line-of-sight direction to generate a projected image and display the projected image.

以上本発明によれば、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を実現することができる。   As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object.

以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.

なお、本実施形態に係る画像処理装置は、例えば専用プログラムをワーキングメモリ上に展開し、後述する画像処理を実行する単体の医療用ワークステーションを想定している。しかしながら、これに限定する趣旨ではなく、医療画像専用ビューア、X線コンピュータ断層撮影装置、超音波診断装置、磁気共鳴イメージング装置等の各種モダリティに内蔵される画像処理装置等であってもよい。   Note that the image processing apparatus according to the present embodiment is assumed to be a single medical workstation that develops a dedicated program on a working memory and executes image processing to be described later, for example. However, the present invention is not limited to this, and may be an image processing apparatus built in various modalities such as a medical image dedicated viewer, an X-ray computed tomography apparatus, an ultrasonic diagnostic apparatus, and a magnetic resonance imaging apparatus.

また、本実施形態においては、三次元画像は、表示された画像ではなく、表示されるべき三次元画像データを意味する。この三次元画像は、実空間(三次元画像空間あるいはボリューム空間)上において定義されるものであり、ボリュームデータと呼ばれることもある。   In the present embodiment, the three-dimensional image means not the displayed image but three-dimensional image data to be displayed. This three-dimensional image is defined on a real space (three-dimensional image space or volume space), and is sometimes referred to as volume data.

図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。同図に示すように、画像処理装置10は、制御部11、主記憶部13、外部記憶部14、画像処理部15、送受信部17、表示部19、入力部21を具備している。   FIG. 1 is a block diagram of an image processing apparatus 10 according to this embodiment. As shown in FIG. 1, the image processing apparatus 10 includes a control unit 11, a main storage unit 13, an external storage unit 14, an image processing unit 15, a transmission / reception unit 17, a display unit 19, and an input unit 21.

制御部11は、システム全体の制御中枢として、本画像処理装置10を静的又は動的に制御する。   The control unit 11 statically or dynamically controls the image processing apparatus 10 as a control center of the entire system.

主記憶部13は、ネットワークを介して送受信部17により受信した、各種モダリティによって収集された画像データ(再構成前後に拘泥されない)を記憶する。また、主記憶部13は、後述する曲断面画像生成処理を実行するための専用プログラムを記憶する。   The main storage unit 13 stores image data (not restricted before and after reconstruction) collected by various modalities received by the transmission / reception unit 17 via the network. The main storage unit 13 stores a dedicated program for executing a curved slice image generation process described later.

外部記憶部14は、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体である。主記憶部13が記憶する画像データ、プログラム等の少なくとも一部を、当該外部記憶部14が記憶する構成であってもよい。   The external storage unit 14 is a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), and a semiconductor memory. The external storage unit 14 may store at least part of image data, programs, and the like stored in the main storage unit 13.

画像処理部15は、曲断面画像生成処理を実行する。この画像処理部15の構成及び曲断面画像生成処理の内容については、後で詳しく説明する。   The image processing unit 15 executes a curved slice image generation process. The configuration of the image processing unit 15 and the content of the curved slice image generation process will be described in detail later.

送受信部17は、ネットワークを介して各種医療画像撮影装置(例えば、X線コンピュータ断層撮影装置、超音波診断装置、磁気共鳴イメージング装置等)と画像データを含む各種データの送受信を行う。   The transmission / reception unit 17 transmits / receives various data including image data to / from various medical imaging apparatuses (for example, an X-ray computed tomography apparatus, an ultrasonic diagnostic apparatus, a magnetic resonance imaging apparatus, etc.) via a network.

表示部19は、三次元画像投影部157から受け取った投影画像を、所定の形態にて表示する出力手段である。   The display unit 19 is an output unit that displays the projection image received from the three-dimensional image projection unit 157 in a predetermined form.

入力部21は、観察者(操作者)からの各種指示・命令・情報をとりこむため入力装置(マウスやトラックボール、モード切替スイッチ、キーボード等)を有している。   The input unit 21 has an input device (a mouse, a trackball, a mode switch, a keyboard, etc.) for capturing various instructions, commands, and information from an observer (operator).

(画像処理部15の機能及び構成)
図2は、画像処理部15の構成を示したブロック図である。同図に示すように、
本画像処理部15は、三次元画像記憶部151、位置データ記憶部152、曲断面データ演算部153、曲断面データ記憶部154、視線データ変更部155、視線データ記憶部156、三次元画像投影部157を具備している。
(Function and configuration of image processing unit 15)
FIG. 2 is a block diagram illustrating a configuration of the image processing unit 15. As shown in the figure
The image processing unit 15 includes a three-dimensional image storage unit 151, a position data storage unit 152, a curved section data calculation unit 153, a curved section data storage unit 154, a line-of-sight data change unit 155, a line-of-sight data storage unit 156, and a three-dimensional image projection. Part 157.

なお、本画像処理部15の機能及び構成は、例えば当該処理を実行する専用プログラムを当該画像処理装置10にインストールし、制御部11の制御のもと、これを読み出して図示していない補助記憶部(メモリ)上で展開することによって実現することができる。当然ながら、本画像処理部15の機能等を実行させることができるプログラムは、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。   Note that the function and configuration of the image processing unit 15 is, for example, an auxiliary memory (not shown) that is installed by installing a dedicated program for executing the processing in the image processing apparatus 10 and reading out the program under the control of the control unit 11. It can be realized by developing on a section (memory). Of course, a program that can execute the functions of the image processing unit 15 is stored in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, or the like. It can also be distributed.

しかしながら、本実施形態は、この様なソフトウェアによる構成に限定する趣旨ではなく、例えば図2に示した少なくとも一部の構成を、グラフィックカード等によるハード構成によって実現するようにしてもよい。   However, the present embodiment is not intended to be limited to such a software configuration, and for example, at least a part of the configuration shown in FIG. 2 may be realized by a hardware configuration such as a graphic card.

三次元画像記憶部151は、主記憶部13から読み出された三次元画像データを記憶する。   The 3D image storage unit 151 stores 3D image data read from the main storage unit 13.

位置データ記憶部152は、入力部21、ネットワーク経由での他の装置、CD等の脱着自在な外部記憶装置等を介して入力された所定の位置データ(例えば後述する、三次元画像内の曲がった観察対象物である血管中心線データ)を記憶する。   The position data storage unit 152 has predetermined position data (for example, a bend in a three-dimensional image, which will be described later) input via the input unit 21, another device via a network, a removable external storage device such as a CD. Blood vessel centerline data) that is an observation object.

曲断面データ演算部153は、位置データ記憶部152から読み出された血管中心線データ、視線データ記憶部156から読み出された視線データをそれぞれ入力し、所定の演算によって曲断面データを生成する。この演算については、後で詳しく説明する。   The curved section data calculation unit 153 inputs the blood vessel centerline data read from the position data storage unit 152 and the line-of-sight data read from the line-of-sight data storage unit 156, and generates curved section data by a predetermined calculation. . This calculation will be described later in detail.

曲断面データ記憶部154は、曲断面データ演算部153によって生成された曲断面データを記憶する。   The curved section data storage unit 154 stores the curved section data generated by the curved section data calculation unit 153.

視線データ変更部155は、視線方向を変更するための入力部31からの操作に応答して、視線データを生成する。すなわち、視線データ変更部155は、入力部31からの入力データからマウスやトラックボールなどの動きの方向と程度を視点又は視線方向の変化量とみなし、少なくとも視線方向を定義する視線データを作成する。なお、視線データは、必要に応じて視線方向の他に視点を定義するようにしてもよい。   The line-of-sight data changing unit 155 generates line-of-sight data in response to an operation from the input unit 31 for changing the line-of-sight direction. That is, the line-of-sight data changing unit 155 regards the direction and degree of movement of a mouse, a trackball, or the like as the amount of change in the viewpoint or the line-of-sight direction from the input data from the input unit 31, and creates line-of-sight data defining at least the line-of-sight direction. . The line-of-sight data may define the viewpoint in addition to the line-of-sight direction as necessary.

視線データ記憶部156は、視線データ変更部155において作成された視線データを記憶する。   The line-of-sight data storage unit 156 stores the line-of-sight data created by the line-of-sight data change unit 155.

三次元画像投影部157は、三次元画像記憶部151から読み出された三次元画像と、視線データ記憶部156から読み出された視線データとに基づいて、制御部11に指示された投影方法を用いて三次元画像を投影し投影画像を生成する。生成された投影画像は、画像表示部29に出力され、所定の形態にて表示される。   The three-dimensional image projection unit 157 is a projection method instructed by the control unit 11 based on the three-dimensional image read from the three-dimensional image storage unit 151 and the line-of-sight data read from the line-of-sight data storage unit 156. Is used to project a three-dimensional image to generate a projected image. The generated projection image is output to the image display unit 29 and displayed in a predetermined form.

また、三次元画像記憶部151から読み出された三次元画像と、視線データ記憶部156から読み出された視線データと、曲断面データ記憶部154に記憶されている曲断面データとに基づいて、所定の投影処理を実行し、投影画像を生成する。この投影処理については、後で詳しく説明する。生成された投影画像は、画像表示部29に出力され、所定の形態にて表示される。   Further, based on the 3D image read from the 3D image storage unit 151, the line-of-sight data read from the line-of-sight data storage unit 156, and the curved section data stored in the curved section data storage unit 154. Then, a predetermined projection process is executed to generate a projection image. This projection processing will be described in detail later. The generated projection image is output to the image display unit 29 and displayed in a predetermined form.

(曲断面画像生成処理)
図3は、本画像処理装置10によって実行される曲断面画像生成処理の手順を示したフローチャートである。同図に示すように、本曲断面画像生成処理は、大きく次の3つのステップから構成されている。
(Curved section image generation processing)
FIG. 3 is a flowchart showing the procedure of the curved slice image generation process executed by the image processing apparatus 10. As shown in the figure, the curved cross-section image generation processing is mainly composed of the following three steps.

ステップS1:三次元画像内の観察対象物の位置を示す複数個の位置データを入力する。 Step S1: Input a plurality of position data indicating the position of the observation object in the three-dimensional image.

ステップS2:複数個の位置データと三次元画像に対する視線データとから、視線方向における曲断面を求める。 Step S2: A curved section in the line-of-sight direction is obtained from the plurality of position data and the line-of-sight data for the three-dimensional image.

ステップS3:曲断面上の三次元画像を前記視線データに基づいて投影面に投影する。 Step S3: Projecting a three-dimensional image on the curved section onto the projection plane based on the line-of-sight data.

各ステップの処理について、以下詳細に説明する。   The processing of each step will be described in detail below.

[ステップS1]
本ステップでは、三次元画像内の観察対象物の位置を示す複数個の位置データを入力する。入力される位置データがn個(nは2以上の自然数)あるとし、位置データ全体をWKと表すことにすると、i番目の位置データwKiは次の式(1)ようなデータである。
[Step S1]
In this step, a plurality of position data indicating the position of the observation object in the three-dimensional image is input. If the input position data is n (n is a natural number greater than or equal to 2) and the entire position data is expressed as W K, the i-th position data w K i is expressed by the following equation (1). is there.

位置データwKi:( wxi, wyi, wzi ) i=0,1,2,・・・,n-1 (1)
ここで、wxi, wyi, wziは、それぞれ実空間のx座標、y座標およびz座標である。
Position data w K i : ( w x i , w y i , w z i ) i = 0, 1, 2,..., N-1 (1)
Here, w x i , w y i , and w z i are the x coordinate, the y coordinate, and the z coordinate of the real space, respectively.

[ステップS2]
ステップS2では、ステップS1において入力されたn個の位置データと、視線データとから、曲断面を算出する。本ステップにおいて実行される処理は、図3のステップS21〜S23に示すように、次の三つの小ステップから構成されている。
[Step S2]
In step S2, a curved section is calculated from the n pieces of position data input in step S1 and the line-of-sight data. The processing executed in this step is composed of the following three small steps as shown in steps S21 to S23 in FIG.

ステップS2−1:位置データの座標を実空間座標系からスクリーン座標系に変換する。 Step S2-1: The coordinates of the position data are converted from the real space coordinate system to the screen coordinate system.

ステップS2−2:スクリーン座標系に変換された位置データから、スクリーン上の各点の深さ方向の座標を求める。 Step S2-2: The coordinates in the depth direction of each point on the screen are obtained from the position data converted into the screen coordinate system.

ステップS2−3:得られたスクリーン座標系の各点の座標を、実空間座標系に変換する。 Step S2-3: The coordinates of each point of the obtained screen coordinate system are converted into a real space coordinate system.

以下、各小ステップでの処理について説明する。なお、以下の説明においては、ボリュームデータが配置された実空間座標系からスクリーン座標系への変換行列をSTWと表記し、また、その逆行列をWTSと表記する。WTSは、スクリーン座標系から実空間座標系への変換行列である。ここでは、STWWTSをまとめて視線データと呼ぶことにする。 Hereinafter, processing in each small step will be described. In the following description, the transformation matrix from the real space coordinate system in which the volume data is arranged to the screen coordinate system is denoted as S T W, and the inverse matrix is denoted as W T S. W T S is a transformation matrix from the screen coordinate system to the real space coordinate system. In this case, will be referred to as line-of-sight data are collectively S T W and W T S.

[ステップS2−1]
本ステップS2−1では、以下の式(2)に従う行列計算を行って、スクリーン座標系における位置データsKiの座標、すなわち( sxi, syi, szi )を求める。
[Step S2-1]
In step S2-1, matrix calculation according to the following equation (2) is performed to obtain the coordinates of the position data s K i in the screen coordinate system, that is, ( s x i , s y i , s z i ).

t[ Sxi Syi Szi 1 ] = STW t[ Wxi Wyi Wzi 1 ] (2)
ここで、t[]は、転置行列を意味する。転置行列内の要素である1は、STWが2つの座標系の間のずれ量(平行移動量)を加味したものとなっているために存在する。
t [S x i S y i S z i 1] = S T W t [W x i W y i W z i 1] (2)
Here, t [] means a transposed matrix. The element 1 in the transposed matrix exists because S T W takes into account the shift amount (translation amount) between the two coordinate systems.

[ステップS2−2]
本ステップS2−2では、ステップS2−2で得られたスクリーン座標系の位置データから、スクリーン上の各点(ピクセル)SPのスクリーン座標系における深さ方向のデータを求める。スクリーン上の座標 (Sx, Sy) の点を、 SPx,y と記述すれば、深さ方向(視線方向)のデータはスクリーン座標系におけるz座標の値 Sz (深さ方向に関する情報)を求めることであり、(Sx, Sy , Sz)の集合が、求めている曲断面を表すデータとなる。
[Step S2-2]
In this step S2-2, the position data of the screen coordinate system obtained in step S2-2, obtains the data in the depth direction of the screen coordinate system of each point (pixel) S P on the screen. If the point of the coordinates ( S x, S y) on the screen is described as S P x, y , the data in the depth direction (gaze direction) is the z coordinate value S z in the screen coordinate system. Information), and a set of ( S x, S y, S z) becomes data representing the desired curved section.

スクリーン座標系に変換された実空間の位置データwKiSKiと名づける。SKiをスクリーンに投影した点(Sxi , Syi )を用い、次の式(3)によりSPx,yと(Sxi , Syi )との間の距離Di(i=0,1,2,・・・,n-1)を計算する。 The real space position data w K i converted to the screen coordinate system is named S K i . Using a point ( S x i , S y i ) obtained by projecting S K i on the screen, the distance D i between S P x, y and ( S x i , S y i ) is calculated by the following equation (3). (I = 0, 1, 2,..., N-1) is calculated.

Di = ( (Sxi - Sx )2 + (Syi - Sy )2 )1/2 (3)
なお、図4に、スクリーン上の点SPx,yと(Sxi , Syi )との間の距離Diの一例を示した概念図を示した。
D i = (( S x i - S x) 2 + ( S y i - S y) 2 ) 1/2 (3)
FIG. 4 is a conceptual diagram showing an example of the distance D i between the point S P x, y on the screen and ( S x i , S y i ).

次に、式(4)、(5)に従ってSz を求める。 Next, S z is obtained according to equations (4) and (5).

Sz = Σi Szi ) / Σδi (i=0, …, n-1) (4)
δi = 1 / Di m (5)
ここで、δiは重みであり、Di が小さいほど、つまりSKiが点(Sxi , Syi )に近いほど大きな重みとなるように考慮されている。
S z = Σi S z i ) / Σ δ i (i = 0,…, n-1) (4)
δ i = 1 / D i m (5)
Here, δ i is a weight, and is considered so that the smaller the D i is, that is, the larger the S K i is closer to the point ( S x i , S y i ), the greater the weight.

この計算をスクリーン上のすべての点について実行すると、求めている曲断面を表すデータが得られる。mは定数であり、値が大きくなればなるほど、滑らかな曲断面となる。なお、Diがゼロとなる場合、すなわち、SPx,yが位置データSKiと同一である場合には、SKiのz座標 Sziを深さ方向のデータとする。 When this calculation is executed for all points on the screen, data representing the desired curved section is obtained. m is a constant, and the larger the value, the smoother the curved cross section. When D i is zero, that is, when S P x, y is the same as the position data S K i , the z coordinate S z i of S K i is used as data in the depth direction.

[ステップS2−3]
本ステップS2−3では、ステップS2−2で求めた曲断面(中間曲断面)上の点の座標(Sx, Sy , Sz)を、次の式(6)により、実空間座標に変換する。
[Step S2-3]
In step S2-3, the coordinates ( S x, S y, S z) of the points on the curved section (intermediate curved section) obtained in step S2-2 are converted into real space coordinates by the following equation (6). Convert.

t[ Wx Wy Wz 1 ] = WTS t[ Sx Sy Sz 1 ] (6)
これによって得られる(Wx, Wy , Wz)の集合が、曲断面の実空間におけるデータである。
t [W x W y W z 1] = W T S t [S x S y S z 1] (6)
Thus obtained (W x, W y, W z) is the set of a data in the real space of the curved cross-section.

[ステップS3]
ステップS3では、ステップS2において実空間に置ける曲断面データを用いて三次元画像を投影する投影処理を実行する。すなわち、本ステップS3においては、スクリーンの各点(Sx, Sy)について、ステップS2−2で求めた座標(Sx, Sy , Sz)に対応する実空間上の座標(Wx, Wy , Wz)にある三次元画像の画素値(ボクセル)V(Wx, Wy , Wz)を得て、それを(Sx, Sy)におけるピクセル値とする投影処理を行う。
[Step S3]
In step S3, a projection process for projecting a three-dimensional image using the curved cross-section data that can be placed in the real space in step S2 is executed. That is, in this step S3, for each point ( S x, S y) on the screen, the coordinates in the real space ( W x) corresponding to the coordinates ( S x, S y, S z) obtained in step S2-2. , W y, the pixel values of the three-dimensional image in W z) (voxel) V (W x, W y , to give a W z), it (S x, the projection processing of the pixel values in S y) Do.

図5(a)、(b)は、大動脈を含む三次元CT画像に対して、本曲断面画像生成処理を実行して得られた結果を説明するための図である。すなわち、図5(a)は、ステップS2−2で得られた深さ方向のデータSzを画像として示したもので、黒い部分は白い部分よりも手前にあることを意味している。視線方向はCT画像を患者に対してほぼ正面から眺める方向に設定し、ステップS2−2におけるmの値は、8としている。また、図5(b)、ステップS3まで実行した結果である。その視線方向から見た大動脈全体の断面の形状がわかりやすく表示されており、また視線方向がそれまで眺めていた方向と変わらないので、観察者にとっては自然な画像である。なお、参考のために、大動脈の血管中心線の位置を示す曲線を画像の上に重ねて示している。 FIGS. 5A and 5B are diagrams for explaining the results obtained by executing the curved cross-sectional image generation process on the three-dimensional CT image including the aorta. That is, FIG. 5 (a), shows the data S z of the resulting depth direction in step S2-2 as an image, black portions means that in front of the white portion. The line-of-sight direction is set to a direction in which the CT image is viewed from the front of the patient, and the value of m in step S2-2 is 8. Further, FIG. 5B shows the result of execution up to step S3. Since the cross-sectional shape of the entire aorta viewed from the line-of-sight direction is displayed in an easy-to-understand manner, and the direction of the line-of-sight is not different from the direction of viewing, the image is natural for the observer. For reference, a curve indicating the position of the blood vessel center line of the aorta is shown superimposed on the image.

なお、位置データとしては、大動脈の血管中心線の位置を示すデータを用いている。大動脈の血管中心線の位置データを求めるのには、例えば、「Ali Shahrokni et al, “Fast skeltonization algorithm for 3-D elongated objects”, Proceedings of SPIE Vol.4322, pp.323-330, 2001」、「USP5,971,767」、「Onno Wink, Wiro J. Niessen, “Fast Delineation and Visualization of Vessels in 3-D Angiographic Images”, IEEE Trans. Med. Imag., Vol.19, No.4, 2000」等に開示されている手法を用いることができる。   As the position data, data indicating the position of the blood vessel center line of the aorta is used. For example, “Ali Shahrokni et al,“ Fast skeltonization algorithm for 3-D elongated objects ”, Proceedings of SPIE Vol.4322, pp.323-330, 2001” “USP5,971,767”, “Onno Wink, Wiro J. Niessen,“ Fast Delineation and Visualization of Vessels in 3-D Angiographic Images ”, IEEE Trans. Med. Imag., Vol. 19, No. 4, 2000, etc. The disclosed technique can be used.

(変形例1)
次に、本実施形態の変形例について説明する。本変形例では、ステップS3において、ステップS2で得られた曲断面に対し厚みをつけて投影する投影方法を採用するものである。
(Modification 1)
Next, a modification of this embodiment will be described. In this modification, in step S3, a projection method is employed in which the curved section obtained in step S2 is projected with a thickness.

すなわち、ステップS2で得られた曲断面上の視線方向の前後にそれぞれ一定の厚みをつけ、厚みがLボクセル分となるように投影領域を設定する。スクリーンの各点に垂直な視線上にあって、その視線が通る投影領域内のボクセルのうちで最大のボクセル値をスクリーンのその点のピクセル値として投影する。この処理は最大値投影(Maximum Intensity Projection)の名でよく知られているものである。   That is, a fixed thickness is given to the front and rear in the line-of-sight direction on the curved section obtained in step S2, and the projection area is set so that the thickness is equal to L voxels. The maximum voxel value among the voxels in the projection area that is on the line of sight perpendicular to each point on the screen and passes through the line of sight is projected as the pixel value of that point on the screen. This process is well known under the name of Maximum Intensity Projection.

図5(a)と同じ三次元CT画像および血管中心線データを用いて、L=20として設定し、本変形例により得られた画像を図5(c)に示す。同図では、その視線方向から見た大動脈全体の形状がよくわかるだけでなく、大動脈周辺の血管、臓器、骨もより把握しやすく描写できている。   FIG. 5C shows an image obtained by setting L = 20 using the same three-dimensional CT image and blood vessel centerline data as in FIG. In the figure, not only the shape of the entire aorta as seen from the direction of the line of sight is well understood, but also blood vessels, organs, and bones around the aorta are depicted more easily.

また、厚みは一定でなくても差し支えない。例えば、視線方向に対し、曲断面から奥にある領域全体を投影してもよい。さらに、投影方法についても、最大値投影以外の投影方法でもよい。例えば、不透明度と色を使用して投影を行ういわゆるボリュームレンダリングなど、関心に応じて様々な投影方法を適用することが可能である。   Further, the thickness may not be constant. For example, the entire region behind the curved cross section may be projected with respect to the line-of-sight direction. Further, the projection method may be a projection method other than the maximum value projection. For example, various projection methods can be applied depending on the interest, such as so-called volume rendering in which projection is performed using opacity and color.

(変形例2)
次に、本実施形態の他の変形例について説明する。本変形例は、視線方向を任意に変更可能なものである。
(Modification 2)
Next, another modification of the present embodiment will be described. In this modification, the line-of-sight direction can be arbitrarily changed.

すなわち、視線データ変更部155は、マウスあるいはトラックボール等の入力部21による視線方向の変更指示(例えば、ポインタを所定方向に所定量移動させる等の指示)に基づいて視線の変化量を計算し、新たな視線データを作成する。   That is, the line-of-sight data changing unit 155 calculates the amount of line-of-sight change based on a line-of-sight direction change instruction (for example, an instruction to move the pointer in a predetermined direction by a predetermined amount) by the input unit 21 such as a mouse or a trackball. Create new line-of-sight data.

曲断面データ算出部17は、変更後の視線方向に基づいて、スクリーン座標上の曲断面データを算出する。また、三次元画像投影部157は、変更後の視線方向に基づいて、実空間内の曲断面を投影した投影画像を生成する。得られた投影画像は、画像表示部19に所定の形態にて表示される。   The curved section data calculation unit 17 calculates curved section data on screen coordinates based on the changed line-of-sight direction. Further, the three-dimensional image projection unit 157 generates a projection image obtained by projecting a curved section in the real space based on the changed line-of-sight direction. The obtained projected image is displayed on the image display unit 19 in a predetermined form.

以上述べた一連の処理を繰り返すと、操作者が視線方向を変更するたびに、次々と曲断面画像が作成・表示されることになる。従って、操作者は、視線方向を変更するための入力部を操作するだけで、曲がった観察対象物の断面を様々な方向から観察することができる。なお、ステップS3において、変形例1と同じ投影処理を実行した場合には、曲断面を含む厚みを持った領域が投影されるのはいうまでもない。   When the series of processes described above is repeated, every time the operator changes the line-of-sight direction, curved cross-sectional images are created and displayed one after another. Therefore, the operator can observe the cross section of the bent observation object from various directions only by operating the input unit for changing the line-of-sight direction. Needless to say, in step S3, when the same projection processing as that of the first modification is performed, a region having a thickness including a curved section is projected.

以上述べた構成によれば、以下の効果を得ることができる。   According to the configuration described above, the following effects can be obtained.

本画像処理装置によれば、曲がりくねっている観察対象を含むスクリーン上の曲断面から実空間の曲断面を求め、当該実空間の曲断面上のデータ或いはその曲断面を含む厚みを持った領域を投影している。従って、曲がりくねっている観察対象の断面を平面に展開した画像として観察する従来の手法に比して、観察対象全体の形状を容易に把握することができる投影画像を提供することができる。   According to the present image processing apparatus, a curved section in real space is obtained from a curved section on a screen including a winding observation target, and data on the curved section in the real space or a region having a thickness including the curved section is obtained. Projecting. Therefore, it is possible to provide a projection image that allows the shape of the entire observation target to be easily grasped as compared with the conventional method of observing a cross section of an observation target that is winding as an image developed on a plane.

また、本画像処理装置によれば、曲がった観察対象に対して設定された位置データと視線方向のデータとから実空間の曲断面を算出し、これを投影することで、曲断面画像を生成する。この実空間の曲断面は、スクリーン座標系に変換された位置データから、視線方向に応じて、スクリーン上の各点の深さ方向の座標を利用して求めている。従って、観察者が三次元画像を眺めている方向と同じ方向から見た実空間の曲断面を用いて投影画像が作成されるため、三次元画像を眺めている方向と異なる方向からの画像が生成される従来に比して、曲がりくねっている観察対象を自然に観察できる投影画像を提供することができる。   In addition, according to the present image processing apparatus, a curved section image in a real space is calculated from the position data set for the bent observation target and the data in the line-of-sight direction, and is projected to generate a curved section image. To do. The curved section in the real space is obtained from the position data converted into the screen coordinate system using the coordinates in the depth direction of each point on the screen according to the line-of-sight direction. Therefore, a projection image is created using a curved section of real space viewed from the same direction as the direction in which the observer is viewing the 3D image, so that an image from a direction different from the direction in which the 3D image is viewed is displayed. Compared with the generated conventional technology, it is possible to provide a projection image that allows a natural observation of a winding object.

また、本画像処理装置によれば、視線方向を変化させた場合には、新たな断面位置データを入力しなくても、変化後の視線方向から見た新たな実空間の曲断面が作成され、これを用いて投影画像が生成されることになる。これに対し、従来の手法では、視線方向を変化させた場合であっても、新たな断面位置データを入力しない限り、新たな断面画像は生成することができない。従って、従来と異なり、視線方向をどのように設定した場合であっても、曲がりくねっている観察対象を自然に観察できる投影画像を提供することができる。   Further, according to the present image processing device, when the line-of-sight direction is changed, a new curved section in real space viewed from the changed line-of-sight direction is created without inputting new cross-section position data. A projection image is generated using this. On the other hand, in the conventional method, even when the line-of-sight direction is changed, a new cross-sectional image cannot be generated unless new cross-section position data is input. Therefore, unlike the conventional case, it is possible to provide a projection image that can naturally observe a winding observation object regardless of how the line-of-sight direction is set.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理装置は、第1の実施形態で得られた曲断面を用いて、さらに血管内壁を映像化する機能(血管内壁可視化機能)を有するものである。以下、当該機能の内容およびこれに従う処理について、実施例に従って説明する。なお、以下説明の便宜上、図3のステップS2において取得される曲断面を、「第1種曲断面」と呼ぶこととする。また、第1種曲断面を利用して、血管内壁可視化機能に従う処理(血管内壁可視化処理)により生成される曲断面を、「第2種曲断面」と呼ぶことにする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The image processing apparatus according to the present embodiment has a function of visualizing a blood vessel inner wall (a blood vessel inner wall visualization function) using the curved cross section obtained in the first embodiment. Hereinafter, the contents of the function and processing according to the function will be described according to the embodiment. For the sake of convenience, the curved cross section acquired in step S2 in FIG. 3 will be referred to as a “first type curved cross section”. In addition, a curved section generated by a process (vascular inner wall visualization process) according to the blood vessel inner wall visualization function using the first type curved section will be referred to as a “second type curved section”.

(実施例1)
実施例1は、第1種曲断面上に存在する血液領域を、当該血液領域から視線奥行き方向に向かって最初に出現する非血液領域と置き換えることで、第2種曲断面を生成するものである。
Example 1
The first embodiment generates a second type curved section by replacing a blood region existing on the first type curved section with a non-blood region that first appears from the blood region in the visual line depth direction. is there.

図8は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。   FIG. 8 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.

次に、曲断面データ算出部153は、所定の範囲内の値(血液と考えられる値)を持つボクセルが第1種曲断面上に存在するか否かを判定する(ステップS3a)。その結果、該当するボクセルが第1種曲断面上に存在しないと判定された場合には、三次元画像投影部157は、当該第1種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7a)。この処理は、図3のステップS3における処理と同様である。   Next, the curved surface data calculation unit 153 determines whether or not a voxel having a value within a predetermined range (value considered to be blood) exists on the first type curved surface (step S3a). As a result, when it is determined that the corresponding voxel does not exist on the first type curved section, the three-dimensional image projection unit 157 converts the three-dimensional data on the first type curved section based on the line-of-sight data. A display image is generated by projecting onto a two-dimensional plane (step S7a). This process is the same as the process in step S3 of FIG.

一方、所定の範囲内の値を持つボクセルが第1種曲断面上に存在すると判定された場合には、曲断面データ算出部153は、該当するボクセルを抽出することで、当該第1種曲断面上に存在する血液領域を特定する(ステップS4a)。   On the other hand, when it is determined that a voxel having a value within a predetermined range exists on the first type curved section, the curved section data calculation unit 153 extracts the corresponding first voxel by extracting the corresponding voxel. A blood region existing on the cross section is specified (step S4a).

次に、曲断面データ算出部153は、血液領域内の各位置から視線奥行き方向に沿ってボクセル値を判定し、血液に対応しない値を有する最初のボクセルを特定することで、非血液領域(すなわち、血管内壁)を特定する(ステップS5(a))。さらに、曲断面データ算出部153は、第1種曲断面上の血液領域を特定された非血液領域と置き換えることで、血管内壁を含む第2種曲断面を生成する(ステップS6a)。   Next, the curved cross-section data calculation unit 153 determines the voxel value along the line-of-sight depth direction from each position in the blood region, and specifies the first voxel having a value that does not correspond to blood, whereby the non-blood region ( That is, the blood vessel inner wall is specified (step S5 (a)). Further, the curved section data calculation unit 153 generates a second type curved section including the inner wall of the blood vessel by replacing the blood region on the first type curved section with the specified non-blood region (step S6a).

次に、三次元画像投影部157は、生成された第2種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7a)。   Next, the three-dimensional image projection unit 157 generates a display image by projecting the generated three-dimensional data on the second type of curved section onto a two-dimensional plane based on the line-of-sight data (step S7a).

(実施例2)
実施例2は、第1種曲断面より手前に存在するデータを取り除くクリッピング処理と共に、所定の範囲内の値(血液と考えられる値)を持つボクセルに0又は(組織に対して相対的に)低い透明度を割り当てたボリュームレンダリング処理を行うことで、血管内壁を積極的に映像化するものである。
(Example 2)
In the second embodiment, 0 or (relative to the tissue) is applied to a voxel having a value within a predetermined range (value considered to be blood) together with a clipping process for removing data existing before the first type of curved section. By performing volume rendering processing with low transparency assigned, the inner wall of the blood vessel is actively imaged.

図9は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。   FIG. 9 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.

次に、三次元画像投影部157は、第1種曲断面をクリッピング面とし、当該クリッピング面より手前にあるデータを取り除くクリッピング処理を行う(ステップS3b)。また、三次元画像投影部157は、クリッピングされたデータを用いて、図10に示すように血液に対応する値を持つボクセルに低い透明度(又は透明度0)を割り当てたボリュームレンダリング処理を実行する(ステップS4b)。これにより、血管内壁が可視化されたボリュームレンダリング画像を生成することができる。なお、血液に対応する値を持つボクセルに割り当てる不透明度は、任意の値に設定することができる。   Next, the 3D image projection unit 157 uses the first type of curved section as a clipping plane, and performs a clipping process to remove data in front of the clipping plane (step S3b). Further, the three-dimensional image projection unit 157 uses the clipped data to execute volume rendering processing in which low transparency (or transparency 0) is assigned to voxels having values corresponding to blood as shown in FIG. 10 ( Step S4b). Thereby, a volume rendering image in which the inner wall of the blood vessel is visualized can be generated. The opacity assigned to the voxel having a value corresponding to blood can be set to an arbitrary value.

(実施例3)
実施例3は、第1の実施形態において取得した血管中心線を利用して血管内壁を特定し、これと第1種曲断面上の血液領域とを置き換えることで、第2種曲断面を生成するものである。
(Example 3)
In Example 3, the blood vessel center line acquired in the first embodiment is used to identify the inner wall of the blood vessel, and this is replaced with the blood region on the first type curved surface, thereby generating the second type curved surface. To do.

図11は、本実施例に係る血管内壁可視化処理の流れを示したフローチャートである。まず、同図に示すように、三次元画像内の観察対象物の位置を示す複数の位置データが入力され(ステップS1)、入力された複数の位置データと三次元画像に対する視線データとから、視線方向における第1種曲断面が計算される(ステップS2)。これらの処理については、第1の実施形態のものと同様である。   FIG. 11 is a flowchart showing the flow of the blood vessel inner wall visualization process according to the present embodiment. First, as shown in the figure, a plurality of position data indicating the position of the observation object in the three-dimensional image is input (step S1), and from the input plurality of position data and the line-of-sight data for the three-dimensional image, A first type curved section in the viewing direction is calculated (step S2). These processes are the same as those in the first embodiment.

次に、曲断面データ算出部153は、血液に対応する値を持つボクセルが第1種曲断面上に存在するか否かを判定する(ステップS3c)。その結果、該当するボクセルが第1種曲断面上に存在しないと判定された場合には、三次元画像投影部157は、当該第1種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7c)。この処理は、図3のステップS3における処理と同様である。   Next, the curved section data calculation unit 153 determines whether or not a voxel having a value corresponding to blood exists on the first type curved section (step S3c). As a result, when it is determined that the corresponding voxel does not exist on the first type curved section, the three-dimensional image projection unit 157 converts the three-dimensional data on the first type curved section based on the line-of-sight data. A display image is generated by projecting onto a two-dimensional plane (step S7c). This process is the same as the process in step S3 of FIG.

一方、所定の範囲内の値を持つボクセルが第1種曲断面上に存在すると判定された場合には、曲断面データ算出部153は、該当するボクセルを抽出することで、当該第1種曲断面上に存在する血液領域を特定する(ステップS4c)。   On the other hand, when it is determined that a voxel having a value within a predetermined range exists on the first type curved section, the curved section data calculation unit 153 extracts the corresponding first voxel by extracting the corresponding voxel. A blood region existing on the cross section is specified (step S4c).

次に、曲断面データ算出部153は、図12に示すように、血管中心線から動径方向に沿って全角度についてボクセル値を判定し、例えば図13に示すようにボクセル値が所定の閾値以上変化する最初のボクセルを角度毎に特定することで、非血液領域(すなわち、血管内壁)を特定する(ステップS5(c))。さらに、曲断面データ算出部153は、第1種曲断面上の血液領域を、当該血液領域から視線奥行き方向に沿ってより深い位置に存在する非血液領域と置き換えることで、血管内壁を含む第2種曲断面を生成する(ステップS6c)。   Next, as shown in FIG. 12, the curved cross-section data calculation unit 153 determines voxel values for all angles along the radial direction from the blood vessel center line. For example, as shown in FIG. By specifying the first voxel changing as described above for each angle, the non-blood region (that is, the inner wall of the blood vessel) is specified (step S5 (c)). Furthermore, the curved cross-section data calculation unit 153 replaces the blood region on the first type curved cross-section with a non-blood region existing at a deeper position along the visual line depth direction from the blood region, thereby including a blood vessel inner wall. A two-kind cross section is generated (step S6c).

次に、三次元画像投影部157は、生成された第2種曲断面上の三次元データを、視線データに基づいて二次元平面に投影することで、表示画像を生成する(ステップS7c)。   Next, the three-dimensional image projection unit 157 generates a display image by projecting the generated three-dimensional data on the second type of curved section onto a two-dimensional plane based on the line-of-sight data (step S7c).

なお、本実施例のステップS5(c)において、ボクセル値の変化率の代わりに、ボクセル値そのものを基準として血管内壁を特定するようにしてもよい。すなわち、血管中心線から全動径方向に沿ってボクセル値を判定し、血液に対応しない値を有する最初のボクセルを特定することで、血管内壁を特定することができる。   In step S5 (c) of the present embodiment, the inner wall of the blood vessel may be specified based on the voxel value itself instead of the change rate of the voxel value. That is, the inner wall of the blood vessel can be specified by determining the voxel value along the entire radial direction from the blood vessel center line and specifying the first voxel having a value not corresponding to blood.

以上述べた各手法により生成された、血管内壁可視化画像は、表示部19において単独で、又は参照画像と共に例えば図14に示す形態にて表示される。ここで、参照画像とは、第1又は第2の実施形態に従う手法にて取得された表示画像と同一の対象を、同一視線方向から映像化したものである。典型的な例としては、同一対象に関する同一視線方向からのボリュームレンダリング画像を挙げることができる。この参照画像は、どの様なモダリティによって取得された画像であってもよい。また、図14の様な形態にて表示される場合には、例えば血管内壁可視化画像の視線方向、拡大率等を変更すると、これに同期して参照画像の視線方向、拡大率等も変更されることが好ましい。   The blood vessel inner wall visualized image generated by each method described above is displayed on the display unit 19 alone or together with the reference image, for example, in the form shown in FIG. Here, the reference image is obtained by visualizing the same object as the display image acquired by the method according to the first or second embodiment from the same line-of-sight direction. A typical example is a volume rendering image from the same line-of-sight direction regarding the same object. This reference image may be an image acquired by any modality. Further, when the image is displayed in the form as shown in FIG. 14, for example, when the line-of-sight direction and the enlargement ratio of the blood vessel inner wall visualized image are changed, the line-of-sight direction and the enlargement ratio of the reference image are also changed in synchronization therewith. It is preferable.

また、表示部19は、血管内壁可視化画像を、図5(b)、5(c)に示すような血液が可視化された画像と共に表示するようにしてもよい。さらに、表示部19は、必要に応じて、血管内壁可視化画像、血液が可視化された画像、参照画像を同期させて同時に表示するようにしてもよい。   Further, the display unit 19 may display the blood vessel inner wall visualized image together with the image visualized of blood as shown in FIGS. 5 (b) and 5 (c). Furthermore, the display unit 19 may synchronize and display the blood vessel inner wall visualized image, the blood visualized image, and the reference image as necessary.

以上述べた構成によれば、以下の効果を得ることができる。   According to the configuration described above, the following effects can be obtained.

本画像処理装置によれば、あたかも図5(b)、5(c)に示す血管画像から血液を取り除いて血管内壁を出現させた血管内壁可視化画像を生成し表示することができる。従って、従来では観察することができなかった血管内壁を自由に観察することができ、医療行為の質の向上に寄与することができる。   According to this image processing apparatus, it is possible to generate and display a blood vessel inner wall visualized image in which blood is removed from the blood vessel images shown in FIGS. 5B and 5C and the blood vessel inner wall appears. Therefore, the inner wall of the blood vessel that could not be observed conventionally can be observed freely, which can contribute to the improvement of the quality of medical practice.

また、血管内壁可視化画像は、参照画像と共に対応付けて表示することができる。従って、観察者は、参照画像によって診断部位全体を、血管内壁可視化画像によって細部を相互に関連付けながら観察することができる。さらに、第1の実施形態にて取得される画像と併用することで、目的に応じて血管内の血液有/無状態を自由に観察することができる。その結果、新たな診断情報を提供し得ると共に、診断情報選択の自由度を拡張することができる。   Moreover, the blood vessel inner wall visualized image can be displayed in association with the reference image. Therefore, the observer can observe the entire diagnosis site by the reference image and the details by correlating the details by the visualized blood vessel inner wall image. Furthermore, by using together with the image acquired in the first embodiment, it is possible to freely observe the presence / absence of blood in the blood vessel according to the purpose. As a result, new diagnostic information can be provided and the degree of freedom in selecting diagnostic information can be expanded.

なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.

上記各実施形態においては、例えば三次元CT画像に対する位置データの設定から曲断面の投影画像までの一連の処理を実行する画像処理装置を例に説明した。これに対し、例えば主記憶部13等に予め記憶されている位置データ、曲断面データ、視線データ等の少なくとも一つを利用して、曲断面の投影画像を生成する構成であってもよい。係る場合には、予め記憶されているデータを使用するため、観察者による入力作業等を省略することができ、また、所定のデータ生成処理動作を省略することができる。   In each of the above-described embodiments, for example, an image processing apparatus that executes a series of processes from setting of position data to a three-dimensional CT image to a projected image of a curved section has been described. On the other hand, for example, a configuration in which a projection image of a curved section is generated using at least one of position data, curved section data, line-of-sight data, etc. stored in advance in the main storage unit 13 or the like may be used. In such a case, since data stored in advance is used, an input operation by an observer can be omitted, and a predetermined data generation processing operation can be omitted.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以上本発明によれば、曲がっている観察対象物の断面画像を生成する場合において、少ない作業負担でより有益な断面画像を生成可能な画像処理装置、及び画像処理方法を実現することができる。   As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing method capable of generating a more useful cross-sectional image with a small work load when generating a cross-sectional image of a bent observation object.

図1は、本実施形態に係る画像処理装置10のブロック構成図を示している。FIG. 1 is a block diagram of an image processing apparatus 10 according to this embodiment. 図2は、画像処理部15の構成を示したブロック図である。FIG. 2 is a block diagram illustrating a configuration of the image processing unit 15. 図3は、本画像処理装置10によって実行される曲断面画像生成処理の手順を示したフローチャートである。FIG. 3 is a flowchart showing the procedure of the curved slice image generation process executed by the image processing apparatus 10. 図4は、スクリーン上の点SPx,yと(Sxi , Syi )との間の距離Diの一例を示した概念図である。FIG. 4 is a conceptual diagram showing an example of the distance D i between the point S P x, y on the screen and ( S x i , S y i ). 図5(a)、(b)は、大動脈を含む三次元CT画像に対して、本曲断面画像生成処理を実行して得られた結果を説明するための図である。図5(c)は、本実施形態の変形例1を説明するための図である。FIGS. 5A and 5B are diagrams for explaining the results obtained by executing the curved cross-sectional image generation process on the three-dimensional CT image including the aorta. FIG.5 (c) is a figure for demonstrating the modification 1 of this embodiment. 図6は、観察対象物の断面表示手法であるC−MPRを説明するための概念図である。FIG. 6 is a conceptual diagram for explaining C-MPR which is a method for displaying a cross section of an observation object. 図7は、観察対象物の断面表示手法であるC−PCを説明するための概念図である。FIG. 7 is a conceptual diagram for explaining C-PC, which is a method for displaying a cross section of an observation object. 図8は、実施例1に係る血管内壁可視化処理の流れを示したフローチャートである。FIG. 8 is a flowchart illustrating the flow of the blood vessel inner wall visualization process according to the first embodiment. 図9は、実施例2に係る血管内壁可視化処理の流れを示したフローチャートである。FIG. 9 is a flowchart illustrating the flow of the blood vessel inner wall visualization process according to the second embodiment. 図10は、ボリュームレンダリングにおける不透明度の割り当てを説明するための図である。FIG. 10 is a diagram for explaining opacity assignment in volume rendering. 図11は、実施例3に係る血管内壁可視化処理の流れを示したフローチャートである。FIG. 11 is a flowchart illustrating the flow of the blood vessel inner wall visualization process according to the third embodiment. 図12は、血管中心線を利用した非血液領域の特定手法について説明するための図である。FIG. 12 is a diagram for explaining a method for specifying a non-blood region using a blood vessel center line. 図13は、動径方向に沿ったボクセル値の変化を示した図である。FIG. 13 is a diagram showing a change in the voxel value along the radial direction. 図14は、参照画像の表示形態の例を示した図である。FIG. 14 is a diagram illustrating an example of the display form of the reference image.

符号の説明Explanation of symbols

10…画像処理装置、11…制御部、13…主記憶部、14…外部記憶部、15…画像処理部、17…送受信部、19…表示部、21…入力部、15…画像処理部、31…入力部、151…三次元画像記憶部、152…位置データ記憶部、153…曲断面データ演算部、154…曲断面データ記憶部、155…視線データ変更部、156…視線データ記憶部、157…三次元画像投影部 DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11 ... Control part, 13 ... Main memory part, 14 ... External storage part, 15 ... Image processing part, 17 ... Transmission / reception part, 19 ... Display part, 21 ... Input part, 15 ... Image processing part, DESCRIPTION OF SYMBOLS 31 ... Input part, 151 ... Three-dimensional image storage part, 152 ... Position data storage part, 153 ... Curve cross section data calculating part, 154 ... Curve cross section data storage part, 155 ... Gaze data change part, 156 ... Gaze data storage part, 157 ... 3D image projection unit

Claims (27)

入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、
前記投影画像を表示する表示ユニットと、
を具備することを特徴とする画像処理装置。
On the input three-dimensional image data of the observation object, a position data specifying unit for specifying a plurality of position data indicating the position of the observation object;
A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction;
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data relating to the region based on the first curved section onto the projection plane along the line-of-sight direction. A projection image generation unit;
A display unit for displaying the projected image;
An image processing apparatus comprising:
前記曲断面算出ユニットは、前記各位置データの前記視線方向に関する深さ情報を用いて、前記第1の曲断面を算出することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the curved section calculation unit calculates the first curved section using depth information regarding the line-of-sight direction of each position data. 前記曲断面算出ユニットは、前記複数個の位置データとの距離に従って係数が変化する重み付けを用いて、前記第1の曲断面を算出することを特徴とする請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the curved section calculation unit calculates the first curved section using a weight whose coefficient changes according to a distance from the plurality of position data. . 前記曲断面算出ユニットは、
前記三次元画像データ上に設定された前記複数個の位置データをスクリーン座標系に変換し、当該スクリーン座標系における前記各位置データの深さに関する情報を用いて、前記スクリーン座標系における中間曲断面を算出し、
前記中間曲断面を三次元空間に逆変換することにより、前記視線方向における前記第1の曲断面を算出すること、
を特徴とする請求項1乃至3のうちいずれか一項記載の画像処理装置。
The curved section calculation unit is
The plurality of position data set on the three-dimensional image data is converted into a screen coordinate system, and information on the depth of each position data in the screen coordinate system is used to obtain an intermediate curved section in the screen coordinate system. To calculate
Calculating the first curved section in the line-of-sight direction by inversely transforming the intermediate curved section into a three-dimensional space;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記視線データを変更する視線変更ユニットをさらに具備し、
前記曲断面算出ユニットは、前記視線変更ユニットにより前記視線データが変更された場合には、変更後の前記視線データを用いて、前記第1の曲断面を算出すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。
Further comprising a line-of-sight changing unit for changing the line-of-sight data;
The curved section calculation unit calculates the first curved section using the line-of-sight data after the change when the line-of-sight data is changed by the line-of-sight change unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記曲断面算出ユニットは、
前記三次元画像データを構成する各ボクセルの値に基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。
The curved section calculation unit is
Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image data on the second curved section or the three-dimensional image data related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projection image by
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記投影画像生成ユニットは、
前記観察対象物の三次元画像データから、前記第1の曲断面より手前に存在するデータを取り除くクリッピング処理を実行することで、クリッピングデータを生成し、
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。
The projection image generation unit includes:
Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Generating the projected image by performing volume rendering with a relatively low opacity assigned to the tissue for voxels having a value corresponding to blood using the clipping data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記曲断面算出ユニットは、
前記複数個の位置データと前記三次元画像データを構成する各ボクセルの値の変化率とに基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。
The curved section calculation unit is
Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image on the second curved section or the three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projected image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示ユニットは、前記投影画像を、前記観察対象物を前記視線方向から映像化した参照画像と対応付けて同時に表示することを特徴とする請求項1乃至8のうちいずれか一項記載の画像処理装置。   The image according to any one of claims 1 to 8, wherein the display unit simultaneously displays the projection image in association with a reference image obtained by visualizing the observation object from the line-of-sight direction. Processing equipment. 前記位置データは、血管中心線に関するデータであることを特徴とする請求項1乃至9のうちいずれか一項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the position data is data related to a blood vessel center line. 観察対象の三次元画像データを取得する取得ユニットと、
前記三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定する位置データ特定ユニットと、
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出する曲断面算出ユニットと、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成する投影画像生成ユニットと、
前記投影画像を表示する表示ユニットと、
を具備することを特徴とする医用画像診断装置。
An acquisition unit for acquiring three-dimensional image data to be observed;
On the three-dimensional image data, a position data specifying unit for specifying a plurality of position data indicating the position of the observation object;
A curved section calculation unit for calculating a first curved section in the line-of-sight direction from the plurality of position data and line-of-sight data including a desired line-of-sight direction;
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data relating to the region based on the first curved section onto the projection plane along the line-of-sight direction. A projection image generation unit;
A display unit for displaying the projected image;
A medical image diagnostic apparatus comprising:
前記曲断面算出ユニットは、前記各位置データの前記視線方向に関する深さ情報を用いて、前記第1の曲断面を算出することを特徴とする請求項11記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 11, wherein the curved section calculation unit calculates the first curved section using depth information regarding the line-of-sight direction of each position data. 前記曲断面算出ユニットは、前記複数個の位置データとの距離に従って係数が変化する重み付けを用いて、前記第1の曲断面を算出することを特徴とする請求項11又は12記載の医用画像診断装置。   The medical image diagnosis according to claim 11 or 12, wherein the curved section calculation unit calculates the first curved section using a weight whose coefficient changes in accordance with a distance from the plurality of position data. apparatus. 前記曲断面算出ユニットは、
前記三次元画像データ上に設定された前記複数個の位置データをスクリーン座標系に変換し、当該スクリーン座標系における前記各位置データの深さに関する情報を用いて、前記スクリーン座標系における中間曲断面を算出し、
前記中間曲断面を三次元空間に逆変換することにより、前記視線方向における前記第1の曲断面を算出すること、
を特徴とする請求項11乃至13のうちいずれか一項記載の医用画像診断装置。
The curved section calculation unit is
The plurality of position data set on the three-dimensional image data is converted into a screen coordinate system, and information on the depth of each position data in the screen coordinate system is used to obtain an intermediate curved section in the screen coordinate system. To calculate
Calculating the first curved section in the line-of-sight direction by inversely transforming the intermediate curved section into a three-dimensional space;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
前記視線データを変更する視線変更ユニットをさらに具備し、
前記曲断面算出ユニットは、前記視線変更ユニットにより前記視線データが変更された場合には、変更後の前記視線データを用いて、前記第1の曲断面を算出すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。
Further comprising a line-of-sight changing unit for changing the line-of-sight data;
The curved section calculation unit calculates the first curved section using the line-of-sight data after the change when the line-of-sight data is changed by the line-of-sight change unit;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記曲断面算出ユニットは、
前記三次元画像データを構成する各ボクセルの値に基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。
The curved section calculation unit is
Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image data on the second curved section or the three-dimensional image data related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projection image by
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記投影画像生成ユニットは、
前記観察対象物の三次元画像データから、前記第1の曲断面より手前に存在するデータを取り除くクリッピング処理を実行することで、クリッピングデータを生成し、
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。
The projection image generation unit includes:
Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Generating the projected image by performing volume rendering with a relatively low opacity assigned to the tissue for voxels having a value corresponding to blood using the clipping data;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記曲断面算出ユニットは、
前記複数個の位置データと前記三次元画像データを構成する各ボクセルの値の変化率とに基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記投影画像生成ユニットは、前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで前記投影画像を生成すること、
を特徴とする請求項11乃至14のうちいずれか一項記載の医用画像診断装置。
The curved section calculation unit is
Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
The projection image generation unit projects the three-dimensional image on the second curved section or the three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction. Generating the projected image;
The medical image diagnostic apparatus according to claim 11, wherein the medical image diagnostic apparatus is any one of claims 11 to 14.
前記表示ユニットは、前記投影画像を、前記観察対象物を前記視線方向から映像化した参照画像と対応付けて同時に表示することを特徴とする請求項11乃至18のうちいずれか一項記載の医用画像診断装置。   19. The medical device according to claim 11, wherein the display unit simultaneously displays the projection image in association with a reference image obtained by visualizing the observation object from the line-of-sight direction. Diagnostic imaging device. 前記位置データは、血管中心線に関するデータであることを特徴とする請求項11乃至19のうちいずれか一項記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 11, wherein the position data is data related to a blood vessel center line. 入力される観察対象物の三次元画像データ上において、当該観察対象物の位置を示す複数個の位置データを特定し、
前記複数個の位置データと所望する視線方向を含む視線データとから、当該視線方向における第1の曲断面を算出し、
前記第1の曲断面上の前記三次元画像データ又は前記第1の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成し、
前記投影画像を表示すること、
を特徴とする具備する画像処理方法。
On the input three-dimensional image data of the observation object, specify a plurality of position data indicating the position of the observation object,
From the plurality of position data and gaze data including a desired gaze direction, a first curved section in the gaze direction is calculated,
A projection image is generated by projecting the three-dimensional image data on the first curved section or the three-dimensional image data related to the region based on the first curved section onto the projection plane along the line-of-sight direction. ,
Displaying the projected image;
An image processing method comprising:
前記第1の曲断面算出においては、前記各位置データの前記視線方向に関する深さ情報を用いて、前記第1の曲断面を算出することを特徴とする請求項21記載の画像処理方法。   The image processing method according to claim 21, wherein, in the first curved section calculation, the first curved section is calculated using depth information regarding the line-of-sight direction of each position data. 前記第1の曲断面算出においては、前記複数個の位置データとの距離に従って係数が変化する重み付けを用いて、前記第1の曲断面を算出することを特徴とする請求項21又は22記載の画像処理方法。   23. The first curved cross section according to claim 21 or 22, wherein, in the first curved cross section calculation, the first curved cross section is calculated using a weight that changes a coefficient according to a distance from the plurality of position data. Image processing method. 前記三次元画像データを構成する各ボクセルの値に基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記第2の曲断面上の前記三次元画像データ又は前記第2の曲断面を基準とした領域に関する三次元画像データを、前記視線方向に沿って投影面に投影することで投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。
Based on the value of each voxel constituting the three-dimensional image data, the blood region existing on the first curved section and the first non-blood region appearing along the line-of-sight direction from the blood region are identified. And
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
A projection image is generated by projecting the three-dimensional image data on the second curved section or the three-dimensional image data relating to the region based on the second curved section onto the projection plane along the line-of-sight direction. thing,
The image processing method according to claim 21, further comprising:
前記観察対象物の三次元画像データから、前記第1の曲断面より手前に存在するデータを取り除くクリッピング処理を実行することで、クリッピングデータを生成し、
前記クリッピングデータを用いて、血液に対応する値を有するボクセルについて、組織に対し相対的に低い不透明度を割り当てたボリュームレンダリングを実行することで、投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。
Generate clipping data by executing a clipping process that removes data existing before the first curved section from the three-dimensional image data of the observation object,
Using the clipping data to generate a projected image by performing volume rendering with a relatively low opacity assigned to tissue for voxels having a value corresponding to blood;
The image processing method according to claim 21, further comprising:
前記複数個の位置データと前記三次元画像データを構成する各ボクセルの値の変化率とに基づいて、前記第1の曲断面上に存在する血液領域と、当該血液領域から前記視線方向に沿って最初に出現する非血液領域とを特定し、
前記第1の曲断面上に存在する前記血液領域と前記非血液領域とを置き換えることで、第2の曲断面を生成し、
前記第2の曲断面上の前記三次元画像又は前記第2の曲断面を基準とした領域に関する三次元画像を、前記視線方向に沿って投影面に投影することで投影画像を生成すること、
をさらに具備することを特徴とする請求項21乃至23のうちいずれか一項記載の画像処理方法。
Based on the plurality of position data and the rate of change of the value of each voxel constituting the three-dimensional image data, a blood region existing on the first curved section, and the blood region along the line-of-sight direction Identify the first non-blood region that appears,
By replacing the blood region and the non-blood region present on the first curved cross section, a second curved cross section is generated,
Generating a projection image by projecting the three-dimensional image on the second curved section or a three-dimensional image related to the region based on the second curved section onto the projection plane along the line-of-sight direction;
The image processing method according to claim 21, further comprising:
前記投影画像の表示においては、前記観察対象物を前記視線方向から映像化した参照画像と対応付けて同時に表示することを特徴とする請求項21乃至26のうちいずれか一項記載の画像処理方法。   27. The image processing method according to claim 21, wherein, in displaying the projection image, the observation object is simultaneously displayed in association with a reference image visualized from the line-of-sight direction. .
JP2005261020A 2004-09-30 2005-09-08 Image processing apparatus, medical image diagnostic apparatus, and image processing method Active JP4896470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005261020A JP4896470B2 (en) 2004-09-30 2005-09-08 Image processing apparatus, medical image diagnostic apparatus, and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004287280 2004-09-30
JP2004287280 2004-09-30
JP2005261020A JP4896470B2 (en) 2004-09-30 2005-09-08 Image processing apparatus, medical image diagnostic apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2006122663A true JP2006122663A (en) 2006-05-18
JP4896470B2 JP4896470B2 (en) 2012-03-14

Family

ID=36717925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005261020A Active JP4896470B2 (en) 2004-09-30 2005-09-08 Image processing apparatus, medical image diagnostic apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP4896470B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008000261A (en) * 2006-06-21 2008-01-10 Aze Ltd Method, apparatus, and program for preparing image for observing lumen-like tissue
JP2009136679A (en) * 2007-12-05 2009-06-25 Biosense Webster Inc Anatomical modeling from 3-d image and surface mapping
JP2010075554A (en) * 2008-09-26 2010-04-08 Toshiba Corp X-ray diagnostic apparatus and image processing method thereof
JP2017223627A (en) * 2016-06-17 2017-12-21 株式会社東芝 Three-dimensional display device, and three-dimensional display method and program applied to the same
KR20190052713A (en) * 2016-09-29 2019-05-16 코닌클리케 필립스 엔.브이. Image processing
JP2022089914A (en) * 2020-12-21 2022-06-16 株式会社東芝 Display device, display method applied to display device, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021000435A (en) 2019-06-19 2021-01-07 株式会社リコー Information processing device, biological information measurement device, space area value display method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266214A (en) * 1992-03-17 1993-10-15 Hitachi Ltd Picture display method
JP2001014495A (en) * 1999-06-29 2001-01-19 Hitachi Medical Corp Image display device
JP2003260052A (en) * 2002-03-08 2003-09-16 Hitachi Medical Corp Imaging diagnosis support system
JP2004174241A (en) * 2002-11-25 2004-06-24 Siemens Ag Image forming method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266214A (en) * 1992-03-17 1993-10-15 Hitachi Ltd Picture display method
JP2001014495A (en) * 1999-06-29 2001-01-19 Hitachi Medical Corp Image display device
JP2003260052A (en) * 2002-03-08 2003-09-16 Hitachi Medical Corp Imaging diagnosis support system
JP2004174241A (en) * 2002-11-25 2004-06-24 Siemens Ag Image forming method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008000261A (en) * 2006-06-21 2008-01-10 Aze Ltd Method, apparatus, and program for preparing image for observing lumen-like tissue
JP2009136679A (en) * 2007-12-05 2009-06-25 Biosense Webster Inc Anatomical modeling from 3-d image and surface mapping
JP2010075554A (en) * 2008-09-26 2010-04-08 Toshiba Corp X-ray diagnostic apparatus and image processing method thereof
JP2017223627A (en) * 2016-06-17 2017-12-21 株式会社東芝 Three-dimensional display device, and three-dimensional display method and program applied to the same
KR20190052713A (en) * 2016-09-29 2019-05-16 코닌클리케 필립스 엔.브이. Image processing
KR102376593B1 (en) * 2016-09-29 2022-03-21 코닌클리케 필립스 엔.브이. image processing
JP2022089914A (en) * 2020-12-21 2022-06-16 株式会社東芝 Display device, display method applied to display device, and program
JP7379577B2 (en) 2020-12-21 2023-11-14 株式会社東芝 Display device, display method and program applied to the display device

Also Published As

Publication number Publication date
JP4896470B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
US7463262B2 (en) Image processing apparatus and method
JP4267598B2 (en) Image fusion processing method, image fusion processing program, and image fusion processing apparatus
JP4335817B2 (en) Region of interest designation method, region of interest designation program, region of interest designation device
JP4891541B2 (en) Vascular stenosis rate analysis system
JP4896470B2 (en) Image processing apparatus, medical image diagnostic apparatus, and image processing method
JP2009034521A (en) System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
EP2017789B1 (en) Projection image generation apparatus and program
JP2008259696A (en) Three-dimensional image processor and method, and program
WO2010098444A1 (en) Device and method for medical image processing
JP2006302103A (en) Developed image projection method, developed image projection program and developed image projector
JP2006055213A (en) Image processor and program
JP2008259699A (en) Image processing method and apparatus, and program
JP6215057B2 (en) Visualization device, visualization program, and visualization method
JP4885042B2 (en) Image processing method, apparatus, and program
JP6201255B2 (en) Medical image processing system and medical image processing program
JP4018679B2 (en) Rendering processing method, rendering processing program, and rendering processing apparatus
Bornik et al. Computer-aided liver surgery planning: an augmented reality approach
JP2015217120A (en) Image diagnosis support apparatus, and processing method and program thereof
JP2006136619A (en) Image processing method
JP2006000205A (en) Projection image processing method, projection image processing program, and projection image processor
JP2006000127A (en) Image processing method, apparatus and program
JP2010075549A (en) Image processor
JP2010131315A (en) Medical image processor and medical image processing program
US20060103678A1 (en) Method and system for interactive visualization of locally oriented structures
JP5065740B2 (en) Image processing method, apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111221

R150 Certificate of patent or registration of utility model

Ref document number: 4896470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350