JP2014000124A - Medical image processor and medical image processing method - Google Patents

Medical image processor and medical image processing method Download PDF

Info

Publication number
JP2014000124A
JP2014000124A JP2012135547A JP2012135547A JP2014000124A JP 2014000124 A JP2014000124 A JP 2014000124A JP 2012135547 A JP2012135547 A JP 2012135547A JP 2012135547 A JP2012135547 A JP 2012135547A JP 2014000124 A JP2014000124 A JP 2014000124A
Authority
JP
Japan
Prior art keywords
cross
pixel
sectional
image
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012135547A
Other languages
Japanese (ja)
Inventor
Manami Iwami
真奈美 石見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2012135547A priority Critical patent/JP2014000124A/en
Publication of JP2014000124A publication Critical patent/JP2014000124A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processor, etc. that are capable of creating a cross-sectional image having cross-sectional thickness ununiform at each pixel in a process for creating any cross-sectional image on the basis of three-dimensional volume data.SOLUTION: When a user inputs a sectional position of a cross-sectional image to be created for an observation object in a process for creating and displaying an image of any cross section on the basis of three-dimensional volume data having a plurality of sheets of two-dimensional tomogram images piled up therein, a CPU 101 of a medical image processor 100 calculates the cross-sectional thickness at each pixel in the cross-sectional image on the basis of shape of the observation object. When a plurality of orthogonal cross-sectional images are created along a curved portion like a blood vessel, for example, the cross-sectional thickness at each pixel is calculated on the basis of the positions of adjacent cross sections. The CPU 101 further extracts the pixel value data corresponding to the calculated cross-sectional thickness from the three-dimensional volume data to calculate the pixel value of each pixel in the cross-sectional image.

Description

本発明は、3次元医用画像に対し、所望の3次元位置に点を設定するための操作を支援する医用画像処理装置及び医用画像処理方法に関する。   The present invention relates to a medical image processing apparatus and a medical image processing method for supporting an operation for setting a point at a desired three-dimensional position for a three-dimensional medical image.

従来から、例えばX線CT(computed tomography)装置やMRI(magnetic resonance imaging)装置、超音波診断装置、核医学診断装置等を含む医用画像診断装置やその他の画像生成装置によって撮影される一連の断層像群を用いて3次元画像を生成し、表示する医用画像処理装置が知られている。また、特許文献1には、複数枚の断層像が積み上げられてなる3次元画像(3次元ボリュームデータ)を基に、診断目的に応じた断面位置及び厚さで断面画像を再構成する画像処理装置について記載されている。特許文献1の画像処理装置では、ユーザが所望の断面位置及び断面厚さを入力すると、入力された断面厚さに対応する枚数の断層像を基となる3次元画像から抽出し、これらの複数の断層像の各画素の画素値を加算することにより1枚の断面画像をリアルタイムに再構成することが記載されている。
また、3次元画像を基に断面画像を再構成する技術として、MPR(Multi Planer Reconstruction)や、CPR(Curved Planer Reconstruction)といった技術が提案されている。MPRとは、3次元画像を基にユーザが任意に指定した位置で断面画像を再構成する技術である。CPRとは、3次元画像を基に血管等の管腔臓器の芯線に沿った切断面の画像を再構成する技術である。
Conventionally, for example, a series of tomographic images taken by a medical image diagnostic apparatus and other image generating apparatuses including an X-ray CT (computed tomography) apparatus, an MRI (magnetic resonance imaging) apparatus, an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus, etc. A medical image processing apparatus that generates and displays a three-dimensional image using an image group is known. Patent Document 1 discloses image processing for reconstructing a cross-sectional image at a cross-sectional position and thickness according to a diagnostic purpose based on a three-dimensional image (three-dimensional volume data) formed by stacking a plurality of tomographic images. The device is described. In the image processing apparatus disclosed in Patent Document 1, when a user inputs a desired cross-sectional position and cross-sectional thickness, a number of tomographic images corresponding to the input cross-sectional thickness are extracted from a base three-dimensional image, and a plurality of these It is described that one cross-sectional image is reconstructed in real time by adding pixel values of each pixel of the tomographic image.
In addition, as a technique for reconstructing a cross-sectional image based on a three-dimensional image, techniques such as MPR (Multi Planer Reconstruction) and CPR (Curved Planer Reconstruction) are proposed. MPR is a technique for reconstructing a cross-sectional image at a position arbitrarily designated by a user based on a three-dimensional image. CPR is a technique for reconstructing an image of a cut surface along a core line of a luminal organ such as a blood vessel based on a three-dimensional image.

特開2001−87229号公報JP 2001-87229 A

しかしながら、上述の特許文献1に記載されるように、従来は3次元画像(3次元ボリュームデータ)を基に作成する断面画像の断面厚さは各画素で一律である。そのため、観察対象とする部位が例えば血管のように湾曲している場合は、断面位置や断面厚さの設定の仕方によっては、再構成する断面画像に反映されない部分ができることがある。具体的には例えば、血管が大きくカーブしている部位について直交断面画像を複数枚再構成する場合、断面厚さを薄くとると各直交断面のカーブの外側に対応する画素では元となる3次元画像のデータを全て反映することができないことがある。そのため、観察対象のすべての画素値データが断面画像に反映されず、重要な病変等が見逃される虞がある。   However, as described in Patent Document 1 described above, conventionally, the cross-sectional thickness of a cross-sectional image created based on a three-dimensional image (three-dimensional volume data) is uniform for each pixel. For this reason, when the site to be observed is curved like a blood vessel, for example, a portion that is not reflected in the reconstructed cross-sectional image may be formed depending on how the cross-sectional position and cross-sectional thickness are set. Specifically, for example, when reconstructing a plurality of orthogonal cross-sectional images for a site where a blood vessel is greatly curved, if the cross-sectional thickness is reduced, the pixel corresponding to the outside of the curve of each orthogonal cross-section is the original three-dimensional It may not be possible to reflect all image data. Therefore, all pixel value data to be observed is not reflected in the cross-sectional image, and important lesions and the like may be missed.

本発明は、以上の問題点に鑑みてなされたものであり、3次元ボリュームデータに基づいて任意位置での2次元断面画像を作成する処理において、各画素で断面厚さが一律でない断面画像を生成することにより、観察対象の形状等に応じて必要なデータをもれなく反映した2次元断面画像を作成することが可能な医用画像処理装置及び医用画像処理方法を提供することを目的とする。   The present invention has been made in view of the above problems, and in the process of creating a two-dimensional cross-sectional image at an arbitrary position based on three-dimensional volume data, a cross-sectional image with a non-uniform cross-sectional thickness at each pixel is obtained. It is an object of the present invention to provide a medical image processing apparatus and a medical image processing method that can generate a two-dimensional cross-sectional image that reflects all necessary data according to the shape of an observation target.

前述した目的を達成するために、第1の発明は、複数枚の断層像を積み上げた3次元ボリュームデータに基づき任意位置での断面画像を作成し、表示する医用画像処理装置であって、前記断面画像の各画素にそれぞれ一律でない断面厚さを設定する断面厚設定手段と、前記断面厚設定手段により設定された断面厚さに相当する分の画素値データを前記ボリュームデータから抽出し、抽出した画素値データに基づいて前記断面画像の各画素の画素値を算出する画素値算出手段と、前記画素値算出手段により算出された画素値から成る断面画像を作成し、表示する表示手段と、を具備することを特徴とする医用画像処理装置である。   In order to achieve the above-described object, the first invention is a medical image processing apparatus for creating and displaying a cross-sectional image at an arbitrary position based on three-dimensional volume data obtained by stacking a plurality of tomographic images, A cross-sectional thickness setting means for setting a non-uniform cross-sectional thickness for each pixel of the cross-sectional image, and pixel value data corresponding to the cross-sectional thickness set by the cross-sectional thickness setting means is extracted from the volume data and extracted. Pixel value calculation means for calculating the pixel value of each pixel of the cross-sectional image based on the pixel value data, and display means for creating and displaying a cross-sectional image composed of the pixel values calculated by the pixel value calculation means, A medical image processing apparatus.

第2の発明は、複数枚の断層像を積み上げた3次元ボリュームデータに基づき任意位置での断面画像を作成する医用画像処理方法であって、前記断面画像の各画素にそれぞれ一律でない断面厚さを設定する断面厚設定ステップと、前記断面厚設定ステップにより設定された断面厚さに相当する分の画素値データを前記ボリュームデータから抽出し、抽出した画素値データに基づいて前記断面画像の各画素の画素値を算出する画素値算出ステップと、前記画素値算出ステップにより算出された画素値から成る断面画像を作成する表示ステップと、を含むことを特徴とする医用画像処理方法である。   A second invention is a medical image processing method for creating a cross-sectional image at an arbitrary position based on three-dimensional volume data obtained by stacking a plurality of tomographic images, wherein the cross-sectional thickness is not uniform for each pixel of the cross-sectional image. A cross-sectional thickness setting step for setting the cross-sectional thickness, and pixel value data corresponding to the cross-sectional thickness set by the cross-sectional thickness setting step is extracted from the volume data, and each of the cross-sectional images based on the extracted pixel value data A medical image processing method comprising: a pixel value calculating step for calculating a pixel value of a pixel; and a display step for creating a cross-sectional image composed of the pixel values calculated in the pixel value calculating step.

本発明の医用画像処理装置及び医用画像処理方法によれば、3次元ボリュームデータに基づいて任意位置での2次元断面画像を作成する処理において、各画素で断面厚さが一律でない断面画像を生成することが可能となり、これにより観察対象の形状等に応じて必要なデータをもれなく反映した2次元断面画像を作成することが可能となる。   According to the medical image processing apparatus and the medical image processing method of the present invention, in a process of creating a two-dimensional cross-sectional image at an arbitrary position based on three-dimensional volume data, a cross-sectional image in which the cross-sectional thickness is not uniform is generated at each pixel. This makes it possible to create a two-dimensional cross-sectional image that reflects all necessary data according to the shape of the object to be observed.

医用画像処理装置100の全体構成を示す図The figure which shows the whole structure of the medical image processing apparatus 100 第1の実施の形態の直交断面画像作成処理の流れを説明するフローチャートThe flowchart explaining the flow of the orthogonal cross-section image creation process of 1st Embodiment 湾曲する対象に対して直交する断面画像を作成する場合の断面厚さの算出の仕方を説明する図The figure explaining how to calculate the cross-sectional thickness when creating a cross-sectional image orthogonal to the object to be curved 第2の実施の形態のCPR切断面画像作成処理の流れを説明するフローチャートThe flowchart explaining the flow of the CPR cut surface image creation process of 2nd Embodiment 管腔臓器のCPR切断面画像34について説明する図The figure explaining the CPR cut surface image 34 of a luminal organ 管腔臓器のCPR切断面画像34の各画素の断面厚さの算出の仕方を説明する図The figure explaining how to calculate the cross-sectional thickness of each pixel of the CPR cut surface image 34 of the luminal organ

以下図面に基づいて、本発明の実施形態を詳細に説明する。
[第1の実施の形態]
まず、図1を参照して、本発明の医用画像処理装置100を適用した画像処理システム1の構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
First, the configuration of an image processing system 1 to which the medical image processing apparatus 100 of the present invention is applied will be described with reference to FIG.

図1に示すように、画像処理システム1は、表示装置107、マウス108、入力装置109を有する医用画像処理装置100と、医用画像処理装置100にネットワーク110を介して接続される画像データベース111と、医用画像撮影装置112とを備える。   As shown in FIG. 1, the image processing system 1 includes a medical image processing apparatus 100 having a display device 107, a mouse 108, and an input device 109, and an image database 111 connected to the medical image processing apparatus 100 via a network 110. And a medical image photographing device 112.

医用画像処理装置100は、画像作成、画像解析等の処理を行うコンピュータである。
医用画像処理装置100は、図1に示すように、CPU(Central Processing Unit)101、主メモリ102、記憶装置103、通信インタフェース(通信I/F)104、表示メモリ105、及び外部機器とのインタフェース(I/F)106を備え、各部はバス113を介して接続されている。
The medical image processing apparatus 100 is a computer that performs processing such as image creation and image analysis.
As shown in FIG. 1, the medical image processing apparatus 100 includes a CPU (Central Processing Unit) 101, a main memory 102, a storage device 103, a communication interface (communication I / F) 104, a display memory 105, and an interface with an external device. (I / F) 106 is provided, and each unit is connected via a bus 113.

CPU101は、主メモリ102または記憶装置103等に格納されるプログラムを主メモリ102のRAM上のワークメモリ領域に呼び出して実行し、バス113を介して接続された各部を駆動制御し、医用画像処理装置100が行う各種処理を実現する。   The CPU 101 calls a program stored in the main memory 102 or the storage device 103 to the work memory area on the RAM of the main memory 102 and executes the program, drives and controls each unit connected via the bus 113, and performs medical image processing. Various processes performed by the apparatus 100 are realized.

また、CPU101は、後述する断面画像作成処理において、3次元ボリュームデータを基に任意位置での断面画像を作成する。この際、断面画像の断面厚さを各画素で一律とせず、個々の画素に対してそれぞれに断面厚さを与える。例えば、CPU101は断面画像の各画素の断面厚さを観察対象の形状に合わせて算出し、設定する。断面画像作成処理の詳細については後述する。   Further, the CPU 101 creates a cross-sectional image at an arbitrary position based on the three-dimensional volume data in a cross-sectional image creation process described later. At this time, the cross-sectional thickness of the cross-sectional image is not uniform for each pixel, and a cross-sectional thickness is given to each pixel. For example, the CPU 101 calculates and sets the cross-sectional thickness of each pixel of the cross-sectional image according to the shape of the observation target. Details of the cross-sectional image creation process will be described later.

主メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。また、RAMは、ROM、記憶装置103等からロードしたプログラム、データ等を一時的に保持するとともに、CPU101が各種処理を行う為に使用するワークエリアを備える。   The main memory 102 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily stores programs, data, and the like loaded from the ROM, the storage device 103, and the like, and includes a work area used by the CPU 101 for performing various processes.

記憶装置103は、HDD(ハードディスクドライブ)や他の記録媒体へのデータの読み書きを行う記憶装置であり、CPU101が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラムが格納されている。これらの各プログラムコードは、CPU101により必要に応じて読み出されて主メモリ102のRAMに移され、各種の手段として実行される。   The storage device 103 is a storage device that reads and writes data to and from an HDD (hard disk drive) and other recording media, and stores a program executed by the CPU 101, data necessary for program execution, an OS (operating system), and the like. . As for the program, a control program corresponding to the OS and an application program are stored. Each of these program codes is read by the CPU 101 as necessary, transferred to the RAM of the main memory 102, and executed as various means.

通信I/F104は、通信制御装置、通信ポート等を有し、医用画像処理装置100とネットワーク110との通信を媒介する。また通信I/F104は、ネットワーク110を介して、画像データベース111や、他のコンピュータ、或いは、X線CT装置、MRI装置等の医用画像撮影装置112との通信制御を行う。
I/F106は、周辺機器を接続させるためのポートであり、周辺機器とのデータの送受信を行う。例えば、マウス108やタッチペン等のポインティングデバイスをI/F106を介して接続させるようにしてもよい。
The communication I / F 104 includes a communication control device, a communication port, and the like, and mediates communication between the medical image processing apparatus 100 and the network 110. The communication I / F 104 controls communication with the image database 111, another computer, or a medical image photographing apparatus 112 such as an X-ray CT apparatus or an MRI apparatus via the network 110.
The I / F 106 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device. For example, a pointing device such as a mouse 108 or a touch pen may be connected via the I / F 106.

マウス108は、ボタンスイッチと、変位量を検知するセンサとを有し、位置の変位量データやボタンスイッチの入力データ等をI/F106を介してCPU101へ出力する。   The mouse 108 has a button switch and a sensor for detecting the displacement, and outputs position displacement data, button switch input data, and the like to the CPU 101 via the I / F 106.

表示メモリ105は、CPU101から入力される表示データを一時的に蓄積するバッファである。蓄積された表示データは所定のタイミングで表示装置107に出力される。   The display memory 105 is a buffer that temporarily accumulates display data input from the CPU 101. The accumulated display data is output to the display device 107 at a predetermined timing.

表示装置107は、液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、表示メモリ105を介してCPU101に接続される。表示装置107はCPU101の制御により表示メモリ105に蓄積された表示データを表示する。   The display device 107 includes a display device such as a liquid crystal panel and a CRT monitor, and a logic circuit for executing display processing in cooperation with the display device, and is connected to the CPU 101 via the display memory 105. The display device 107 displays display data stored in the display memory 105 under the control of the CPU 101.

入力装置109は、例えば、キーボード等の入力装置であり、操作者によって入力される各種の指示や情報をCPU101に出力する。操作者は、表示装置107、入力装置109、及びマウス108等の外部機器を使用して対話的に医用画像処理装置100を操作する。   The input device 109 is an input device such as a keyboard, for example, and outputs various instructions and information input by the operator to the CPU 101. The operator interactively operates the medical image processing apparatus 100 using external devices such as the display device 107, the input device 109, and the mouse 108.

ネットワーク110は、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット、インターネット等の各種通信網を含み、画像データベース111やサーバ、他の情報機器等と医用画像処理装置100との通信接続を媒介する。   The network 110 includes various communication networks such as a LAN (Local Area Network), a WAN (Wide Area Network), an intranet, and the Internet, and communication connection between the image database 111, a server, other information devices, and the medical image processing apparatus 100. Mediate.

画像データベース111は、医用画像撮影装置112によって撮影された画像データを蓄積して記憶するものである。図1に示す画像処理システム1では、画像データベース111はネットワーク110を介して医用画像処理装置100に接続される構成であるが、医用画像処理装置100内の例えば記憶装置103に画像データベース111を設けるようにしてもよい。   The image database 111 accumulates and stores image data photographed by the medical image photographing device 112. In the image processing system 1 shown in FIG. 1, the image database 111 is configured to be connected to the medical image processing apparatus 100 via the network 110, but the image database 111 is provided in, for example, the storage device 103 in the medical image processing apparatus 100. You may do it.

次に、図2〜図3を参照して、医用画像処理装置100の動作について説明する。
なお、第1の実施の形態では、観察対象のカーブ(湾曲)に沿って設定される直交断面の画像を作成する処理について説明する。
Next, the operation of the medical image processing apparatus 100 will be described with reference to FIGS.
In the first embodiment, a process for creating an image of an orthogonal cross section set along a curve (curvature) to be observed will be described.

医用画像処理装置100のCPU101は、主メモリ102から図2の断面画像作成処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて処理を実行する。また、以下の処理の実行開始に際して、演算対象とする画像データは画像データベース111等からネットワーク110及び通信I/F104を介して取り込まれ、医用画像処理装置100の記憶装置103に記憶されているものとする。   The CPU 101 of the medical image processing apparatus 100 reads the program and data related to the cross-sectional image creation process of FIG. 2 from the main memory 102, and executes processing based on this program and data. In addition, when the execution of the following processing is started, image data to be calculated is acquired from the image database 111 or the like via the network 110 and the communication I / F 104 and stored in the storage device 103 of the medical image processing apparatus 100. And

図2に示す断面画像作成処理において、まず操作者によりマウス108やキーボード(入力装置109)等が操作され、観察対象となる一連の断層像データが選択されると、医用画像処理装置100のCPU101は、選択された断層像データを入力画像データとして読み込む(ステップS101)。入力画像データの好適な例として、CT画像、MR画像、または超音波画像等が挙げられる。   In the cross-sectional image creation process shown in FIG. 2, first, when the operator operates the mouse 108, the keyboard (input device 109), and the like to select a series of tomographic image data to be observed, the CPU 101 of the medical image processing apparatus 100. Reads the selected tomographic image data as input image data (step S101). Suitable examples of the input image data include a CT image, an MR image, or an ultrasonic image.

次に、CPU101は、ステップS101で取得した2次元断層像データから、臓器領域の3次元ボリュームデータを作成し(ステップS102)、3次元画像20として表示装置107に表示する(ステップS103)。   Next, the CPU 101 creates three-dimensional volume data of the organ region from the two-dimensional tomographic image data acquired in step S101 (step S102), and displays it on the display device 107 as the three-dimensional image 20 (step S103).

次に、CPU101は断面位置の入力を受け付ける(ステップS104)。
断面位置の入力処理では、CPU101は、まず表示されている3次元画像20のうち観察対象とする部位を解析し、観察対象とする部位のカーブに合わせて中心線21を指定する。中心線21は、作成しようとする断面の基準となる線であり、ユーザが指定した複数の点を結ぶ線としてもよいし、周辺の画素値の変化に基づいてCPU101が決定してもよい。観察対象が血管等のような管腔臓器の場合は、CPU101が周辺の画素値の変化に基づいて血管領域を抽出し、更に血管の芯線を抽出し、中心線21とすればよい。更にCPU101は、断面位置の指定を受け付ける。観察対象とする部位のある区間に複数の直交断面画像を連続的に作成させる場合は、区間の開始位置及び終了位置と、断面間隔の入力を受け付ける。CPU101は、入力された開始位置及び終了位置と、断面間隔とに基づき、中心線21に沿って複数の断面位置を決定する。なお、断面位置の指定は上述のように区間及び断面間隔を指定するものでなく、ユーザが各断面位置をマウス等でひとつずつ指定するようにしてもよい。
観察対象がねじれている場合は、ねじれに沿って中心線21を設定すれば、上述の処理と同様に中心線21に対する直交断面を設定可能である。
Next, the CPU 101 receives an input of a cross-sectional position (step S104).
In the cross-section position input process, the CPU 101 first analyzes a part to be observed in the displayed three-dimensional image 20 and designates the center line 21 according to the curve of the part to be observed. The center line 21 is a line serving as a reference for a cross section to be created, and may be a line connecting a plurality of points designated by the user, or may be determined by the CPU 101 based on changes in peripheral pixel values. When the observation target is a luminal organ such as a blood vessel, the CPU 101 may extract a blood vessel region based on changes in peripheral pixel values, further extract a blood vessel core line, and use it as the center line 21. Furthermore, the CPU 101 accepts designation of a cross-sectional position. In the case where a plurality of orthogonal cross-sectional images are continuously created in a section having a region to be observed, input of the start position and end position of the section and the section interval is accepted. The CPU 101 determines a plurality of cross-sectional positions along the center line 21 based on the input start position and end position and the cross-sectional interval. The designation of the cross-sectional position does not specify the section and the cross-sectional interval as described above, but the user may designate each cross-sectional position one by one with a mouse or the like.
When the observation target is twisted, if the center line 21 is set along the twist, an orthogonal cross section with respect to the center line 21 can be set similarly to the above-described processing.

断面位置が指定されると、CPU101は、作成する直交断面画像内の各画素についてそれぞれ断面厚さを設定する(ステップS105)。断面厚さは、観察対象の形状に基づいて算出する。   When the cross-sectional position is designated, the CPU 101 sets the cross-sectional thickness for each pixel in the orthogonal cross-sectional image to be created (step S105). The cross-sectional thickness is calculated based on the shape of the observation target.

ここで、図3を参照して断面厚さの算出処理について説明する。
図3(A)には、観察対象とする部位の湾曲(カーブ)に沿って中心線21が指定され、中心線21に対して直交する複数の直交断面(A断面24、B断面23、C断面25)の断面位置が指定されている例が示されている。以下、B断面23の作成処理について説明する。
B断面23の両隣には、2つの断面(A断面24及びC断面25)の断面位置が指定されている。
CPU101は、まず作成対象とするB断面23と隣接するA断面24との中間に中間断面A−B26を設定する。中間断面A−B26は、A断面24及びB断面23から等距離とする。同様に、B断面23と隣接するC断面25との中間にも中間断面B−C27を設定する。
Here, the cross-sectional thickness calculation process will be described with reference to FIG.
In FIG. 3A, a center line 21 is designated along a curve (curve) of a region to be observed, and a plurality of orthogonal cross sections (A cross section 24, B cross section 23, C, perpendicular to the center line 21). An example is shown in which the cross-sectional position of the cross-section 25) is specified. Hereinafter, the process of creating the B cross section 23 will be described.
On both sides of the B cross section 23, the cross section positions of two cross sections (A cross section 24 and C cross section 25) are designated.
First, the CPU 101 sets an intermediate cross section A-B 26 between the B cross section 23 to be created and the adjacent A cross section 24. The intermediate cross section A-B 26 is equidistant from the A cross section 24 and the B cross section 23. Similarly, an intermediate section B-C27 is also set between the B section 23 and the adjacent C section 25.

CPU101は、図3(B)に示すように、B断面23内の各画素Pi,jの断面厚さdi,jを求める。以下、説明のために、B断面23の断面画像の画素Pi,jに対応する3次元ボリュームデータ上の位置をQi,jと呼ぶ。iは0〜m、jは0〜nの整数とする。
画素Pi、jの断面厚さdi、jは、当該画素Pi,jに対応するB断面23上の点Qi,jから延びB断面23に直交する直線が中間断面A−B26及び中間断面B−C27とそれぞれ交わる点の間の距離とする。
このようにして、CPU101は、B断面23内の各画素について断面厚さを算出する。すると、カーブの外側位置に対応する直交断面上の画素では、カーブの内側位置に対応する直交断面上の画素と比較して、断面厚さが大きく設定されることとなる。
As shown in FIG. 3B, the CPU 101 obtains a cross-sectional thickness d i, j of each pixel P i, j in the B cross-section 23. Hereinafter, for description, the position on the three-dimensional volume data corresponding to the pixel P i, j of the cross-sectional image of the B cross-section 23 is referred to as Q i, j . i is an integer from 0 to m, and j is an integer from 0 to n.
Pixel P i, j of the cross-sectional thickness d i, j is the pixel P i, points Q i on B cross section 23 corresponding to j, straight line perpendicular to the B section 23 extending from the j intermediate section A-B26 and It is set as the distance between the points that intersect with the intermediate cross section B-C27.
In this way, the CPU 101 calculates the cross-sectional thickness for each pixel in the B cross-section 23. Then, in the pixel on the orthogonal cross section corresponding to the outer position of the curve, the cross section thickness is set larger than that of the pixel on the orthogonal cross section corresponding to the inner position of the curve.

次に、CPU101は、B断面23の各画素の画素値を算出する。例えば、画素Pi,jの画素値を算出する場合、CPU101は画素Pi,jの断面厚さdi,jに相当する分の画素値データを基となる3次元ボリュームデータから抽出し(ステップS106)、抽出した画素値データに基づいて各画素Pi,jの画素値を算出する(ステップS107)。
各画素Pi,jの画素値は、具体的には例えば、3次元ボリュームデータから抽出した画素値データの平均値とする。または、抽出した画素値データのうち最大値または最小値をB断面23の各画素の画素値とするようにしてもよい。
Next, the CPU 101 calculates the pixel value of each pixel on the B cross section 23. For example, to calculate the pixel value of the pixel P i, j, CPU 101 extracts the pixel P i, j of the cross-sectional thickness d i, 3-dimensional volume data on which to base the amount of the pixel value data corresponding to the j ( In step S106, the pixel value of each pixel Pi, j is calculated based on the extracted pixel value data (step S107).
Specifically, the pixel value of each pixel Pi, j is, for example, an average value of pixel value data extracted from three-dimensional volume data. Alternatively, the maximum value or the minimum value among the extracted pixel value data may be used as the pixel value of each pixel of the B cross section 23.

抽出した画素値データの平均値をB断面23の各画素Pi,jの画素値とする場合には、中間断面A−B26と中間断面B−C27との間にあるすべての画素値データを1枚の断面画像に反映させることができる。このため、断面厚さが一律の場合に見落とされがちな湾曲の外側部分の画素値データも漏れなく断面画像に反映することができる。
また、元となる2次元画像データがCT画像の場合、3次元ボリュームデータから抽出した画素値データのうち最大値をB断面23の各画素の画素値とすれば、血管等のCT値が高い部分を強調表示できる。また、最小値をB断面23の各画素の画素値とすれば、空気等のCT値が低い部分を強調表示できる。
このように、B断面23の各画素の画素値の算出方法は、観察対象や診断目的や元となる画像の種別(CT画像、MR画像といった種別)に応じて選択できるようにすることが望ましい。
When the average value of the extracted pixel value data is used as the pixel value of each pixel Pi, j of the B section 23, all the pixel value data between the intermediate sections A-B26 and B-C27 are stored. It can be reflected in one cross-sectional image. For this reason, pixel value data of the outer portion of the curve, which is often overlooked when the cross-sectional thickness is uniform, can be reflected in the cross-sectional image without omission.
In addition, when the original two-dimensional image data is a CT image, if the maximum value among the pixel value data extracted from the three-dimensional volume data is the pixel value of each pixel of the B cross section 23, the CT value of the blood vessel or the like is high. The part can be highlighted. Further, if the minimum value is the pixel value of each pixel of the B cross section 23, a portion having a low CT value such as air can be highlighted.
As described above, it is desirable that the calculation method of the pixel value of each pixel of the B cross section 23 can be selected according to the observation target, the diagnostic purpose, and the type of the original image (type such as CT image or MR image). .

また、B断面23の各画素Pi,jの画素値を算出する際、B断面23上の対応点Qi,jから参照する画素値データの3次元空間での位置までの距離に応じた重みをかけるようにしてもよい。このとき、B断面23から近い方に重みをかけるようにしても良いし、遠い方に重みをかけるようにしても良い。近い方に重みをかけて作成した断面画像と遠い方に重みをかけて作成した断面画像とを比較することにより、断面厚さのどの部分にどのような画素値の領域があるのか判断しやすくなる。 Further, when calculating the pixel value of each pixel P i, j on the B cross section 23, it corresponds to the distance from the corresponding point Q i, j on the B cross section 23 to the position of the pixel value data to be referenced in the three-dimensional space. A weight may be applied. At this time, a weight closer to the B cross section 23 may be weighted, or a distance farther away may be weighted. By comparing the cross-sectional image created by weighting the near side with the cross-sectional image created by weighting the far side, it is easy to determine what pixel value region is in which part of the cross-sectional thickness Become.

B断面23のすべての画素Pi,jについて画素値を算出すると、CPU101は算出した画素値を持つ断面画像を作成し、表示装置107に表示する(ステップS108)。次の断面の作成処理へ移行する場合は、ステップS105〜ステップS108を繰り返す。 When the pixel values are calculated for all the pixels P i, j on the B cross section 23, the CPU 101 creates a cross-sectional image having the calculated pixel values and displays it on the display device 107 (step S108). When the process proceeds to the next cross-section creation process, steps S105 to S108 are repeated.

以上説明したように、医用画像処理装置100は、3次元ボリュームデータを基に断面画像を作成する際に、断面画像の断面厚さを各画素で一律とせず、観察対象の形状に基づいて算出する。このため、観察対象のデータをもれなく反映した断面画像を作成できる。特に、第1の実施の形態では、臓器の湾曲に沿って複数の直交断面画像を作成する場合に、各画素の断面厚さを隣接する直交断面との距離に基づいて算出するため、例えば湾曲の外側位置のあるような部位のデータも直交断面の該当画素の断面厚さに含めることができ、もれなく反映させることができる。
また、指定した中心線21に沿った直交断面画像を作成できるため、観察対象がねじれている場合にも適用できる。
As described above, when the medical image processing apparatus 100 creates a cross-sectional image based on the three-dimensional volume data, the cross-sectional thickness of the cross-sectional image is not uniform for each pixel, but is calculated based on the shape of the observation target. To do. For this reason, it is possible to create a cross-sectional image that perfectly reflects the data to be observed. In particular, in the first embodiment, when creating a plurality of orthogonal cross-sectional images along the curvature of the organ, the cross-sectional thickness of each pixel is calculated based on the distance from the adjacent orthogonal cross-section. The data of the part having the outer position of can be included in the cross-sectional thickness of the corresponding pixel in the orthogonal cross-section, and can be reflected without exception.
Further, since an orthogonal cross-sectional image along the designated center line 21 can be created, the present invention can also be applied when the observation target is twisted.

なお、上述の説明では、断面厚さdi,jを算出する際に、隣接する断面の位置に基づいて対象とする断面の各画素の断面厚さを求める例を説明した。すなわち、断面画像には、断面厚さ方向の前方及び後方にあるデータが両方とも反映されることとなった。このように断面の前方及び後方の両側のデータを反映した画像を作成した上で、更に、断面画像の前方または後方のどちら側に病変等の注目画素が含まれているかを確認したい場合は、片側だけの画素値データをボリュームデータから抽出して各画素Pi,jの画素値を求めるようにしても良い。
すなわち図3(A)の例において、CPU101は、B断面23の各画素Pi,jの断面厚さdi、jを求める際、対応するB断面23上の点Qi、jと点Qi、jから延びB断面23に直交する直線が中間断面A−B26に交わる点との間の距離を断面厚さdi,jとし、B断面23と中間断面A−B26との間のボリュームデータ(画素値データ)を用いて画素Pi,jの画素値を求めるようにしても良い。逆に、B断面23上の点Qi、jと点Qi、jから延びB断面23に直交する直線が中間断面B−C27に交わる点との距離を断面厚さdi,jとし、B断面23と中間断面B−C27との間のボリュームデータ(画素値データ)を用いて画素Pi,jの画素値を求めるようにしても良い。
In the above description, the example in which the cross-sectional thickness of each pixel of the target cross-section is obtained based on the position of the adjacent cross-section when calculating the cross-sectional thickness d i, j is described. In other words, both the front and rear data in the cross-sectional thickness direction are reflected in the cross-sectional image. In this way, after creating an image reflecting the data on both the front and rear sides of the cross section, if you want to check whether the target pixel such as a lesion is included on the front or rear side of the cross section image, The pixel value data for only one side may be extracted from the volume data to obtain the pixel value of each pixel Pi, j .
That is, in the example of FIG. 3A, when the CPU 101 obtains the cross-sectional thicknesses d i, j of the pixels P i, j on the B cross-section 23, the points Q i, j and Q on the corresponding B cross-section 23 are obtained. The distance between a point extending from i, j and perpendicular to the B section 23 intersects the intermediate section A-B26 is defined as a section thickness d i, j, and the volume between the B section 23 and the intermediate section A-B26 The pixel value of the pixel P i, j may be obtained using data (pixel value data). Conversely, the distance between the point Q i, j on the B cross section 23 and the point extending from the point Q i, j and perpendicular to the B cross section 23 intersects the intermediate cross section B-C27 is the cross section thickness d i, j . You may make it obtain | require the pixel value of pixel Pi, j using the volume data (pixel value data) between B cross section 23 and intermediate | middle cross section B-C27.

このように、作成する断面の前後両側のデータを反映した断面画像と併せて、片側(前方または後方)のデータを反映した片側断面画像も更に作成するようにすれば、両者を比較することで、断面のどちら側にどのような濃度値分布があるかを比較しやすくなり、病変等の着目箇所を絞り込んで観察しやすくなる。   In this way, in addition to the cross-sectional image reflecting the data on both sides before and after the cross section to be created, if one-side cross-sectional image reflecting the data on one side (front or rear) is further created, the two can be compared. It becomes easy to compare which density value distribution is on which side of the cross-section, and it becomes easy to narrow down a point of interest such as a lesion and observe it.

[第2の実施の形態]
次に、図4〜図6を参照して、本発明の第2の実施の形態について説明する。
第2の実施の形態の医用画像処理装置100のハードウエア構成は第1の実施の形態と同様である。以下、第1の実施の形態と重複する説明は省略し、同一の各部は同一の符号を用いて説明することとする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
The hardware configuration of the medical image processing apparatus 100 of the second embodiment is the same as that of the first embodiment. Hereinafter, the description which overlaps with 1st Embodiment is abbreviate | omitted, and the same each part shall be demonstrated using the same code | symbol.

第2の実施の形態では、血管等の管腔臓器の芯線に沿った切断面(以下、CPR切断面という)画像の作成について説明する。
第2の実施の形態において、CPU101はCPR切断面34の画像を作成する際に、各画素の断面厚さを一律とせず、観察対象の形状に合わせて決定する。
以下、図4〜図6を参照して第2の実施の形態のCPR切断面についての断面画像作成処理について説明する。
In the second embodiment, creation of a cut surface (hereinafter referred to as a CPR cut surface) image along a core line of a luminal organ such as a blood vessel will be described.
In the second embodiment, when creating an image of the CPR cut surface 34, the CPU 101 determines the cross-sectional thickness of each pixel according to the shape of the object to be observed without making it uniform.
Hereinafter, the cross-sectional image creation process for the CPR cut surface according to the second embodiment will be described with reference to FIGS. 4 to 6.

図4に示す断面画像作成処理において、まず第1の実施の形態と同様に、操作者により一連の断層像データ31a〜31hが選択されると、医用画像処理装置100のCPU101は、選択された断層像データ31a〜31hを入力画像データとして読み込み(ステップS201)、臓器領域の3次元画像30を作成し(ステップS202)、表示装置107に表示する(ステップS203)。   In the cross-sectional image creation process shown in FIG. 4, first, as in the first embodiment, when the operator selects a series of tomographic image data 31a to 31h, the CPU 101 of the medical image processing apparatus 100 selects the selected one. The tomographic image data 31a to 31h are read as input image data (step S201), a three-dimensional image 30 of the organ region is created (step S202), and displayed on the display device 107 (step S203).

次に、CPU101はボリュームデータから観察対象とする臓器の抽出処理及び芯線抽出処理を行う(ステップS204)。
図5は、入力された断層像データ31a〜31hから作成された3次元ボリュームデータ(3次元画像)30と、観察対象とする血管35を示す図である。血管35内のCT値は他の部分より高いため、CT値の変化に基づいて元となるボリュームデータ30から図5に示すような血管35の領域を抽出できる。また、血管32の芯線も抽出できる。
次に、CPU101は芯線32に沿ってCPR切断面34を指定する(ステップS205)。切断面34の指定処理では、CPU101は、ボリュームデータに基づいて観察対象となる管腔臓器の芯線32を抽出し、作成する切断面画像の範囲の入力を受け付ける。図5の例では、例えば、芯線上の点32aから点32hまでの範囲の切断面画像の範囲とする。点32a,32b,・・・,32hは、それぞれ断層像31a,31b,・・・,31hと芯線32との交点である。
CPU101は、入力された範囲についてステップS205以降の処理を行い、CPR切断面画像を作成する。
Next, the CPU 101 performs an extraction process of an organ to be observed and a core line extraction process from the volume data (step S204).
FIG. 5 is a diagram showing three-dimensional volume data (three-dimensional image) 30 created from input tomographic image data 31a to 31h and a blood vessel 35 to be observed. Since the CT value in the blood vessel 35 is higher than that in other portions, the region of the blood vessel 35 as shown in FIG. 5 can be extracted from the original volume data 30 based on the change in the CT value. Further, the core line of the blood vessel 32 can also be extracted.
Next, the CPU 101 designates the CPR cut surface 34 along the core wire 32 (step S205). In the process of specifying the cut plane 34, the CPU 101 extracts the core line 32 of the luminal organ to be observed based on the volume data, and receives an input of the range of the cut plane image to be created. In the example of FIG. 5, for example, the range of the cut surface image in the range from the point 32 a to the point 32 h on the core line is set. Points 32a, 32b,..., 32h are intersections of the tomographic images 31a, 31b,.
The CPU 101 performs processing from step S205 on for the input range, and creates a CPR cut surface image.

切断面34が指定されると、CPU101は、作成するCPR切断面画像34内の各画素についてそれぞれ断面厚さを算出する(ステップS206)。断面厚さは、観察対象とする血管35の太さとする。血管35の太さは、ステップS204の臓器抽出処理によって算出済みである。   When the cut surface 34 is designated, the CPU 101 calculates the cross-sectional thickness for each pixel in the CPR cut surface image 34 to be created (step S206). The cross-sectional thickness is the thickness of the blood vessel 35 to be observed. The thickness of the blood vessel 35 has been calculated by the organ extraction process in step S204.

次に、CPU101は、CPR切断面画像34の各画素Pi,jについて、算出した断面厚さdi,j分の画素値データを基となる3次元ボリュームデータ30から抽出し(ステップS207)、抽出した画素値データに基づいてCPR切断面画像34の各画素の画素値を算出する(ステップS208)。 Next, the CPU 101 extracts pixel value data corresponding to the calculated cross-sectional thickness d i, j for each pixel P i, j of the CPR cut surface image 34 from the base three-dimensional volume data 30 (step S207). Based on the extracted pixel value data, the pixel value of each pixel of the CPR cut surface image 34 is calculated (step S208).

断面厚さdi,jの算出について、図6を参照して説明する。
図6において、CPR切断面画像34の画素Pi,jに対応する3次元空間での位置を点Qi,jとする。画素Pi,jの画素値を算出する場合、CPU101は、当該画素Pi,jに対応する点Qi,jを通り、CPR切断面34と直交する直線の断面厚さdi,j分の画素値データを3次元ボリュームデータから抽出し、抽出した画素値データの例えば平均値をCPR切断面画像34の画素Pi,jの画素値とする。
The calculation of the cross-sectional thickness d i, j will be described with reference to FIG.
In FIG. 6, a position in the three-dimensional space corresponding to the pixel P i, j of the CPR cut surface image 34 is defined as a point Q i, j . When calculating the pixel value of the pixel P i, j , the CPU 101 passes through the point Q i, j corresponding to the pixel P i, j , and is a straight section thickness d i, j corresponding to the CPR cut surface 34. Is extracted from the three-dimensional volume data, and for example, the average value of the extracted pixel value data is set as the pixel value of the pixel P i, j of the CPR cut plane image 34.

または、第1の実施の形態と同様に、抽出した画素値データのうち最大値または最小値をCPR切断面画像34の各画素Pi,jの画素値とするようにしてもよい。画素値の算出方法は、観察対象や診断目的や元となる画像の種別に応じて選択できるようにすることが望ましい。
また、CPR切断面の各画素Pi,jの画素値を算出する際、CPR断面画像34上の対応点Qi,jから参照する画素値データの3次元空間での位置までの距離に応じた重みをかけるようにしてもよい。このとき、CPR切断面34から近い方に重みをかけるようにしても良いし、遠い方に重みをかけるようにしても良い。近い方に重みをかけて作成した断面画像と遠い方に重みをかけて作成した断面画像とを比較することにより、断面厚さのどの部分にどのような画素値の領域があるのか判断しやすくなる。
Alternatively, as in the first embodiment, the maximum value or the minimum value of the extracted pixel value data may be used as the pixel value of each pixel P i, j of the CPR cut surface image 34. It is desirable that the pixel value calculation method can be selected according to the observation target, the diagnostic purpose, and the type of the original image.
Further, when calculating the pixel value of each pixel P i, j on the CPR cut surface, it corresponds to the distance from the corresponding point Q i, j on the CPR cross-sectional image 34 to the position in the three-dimensional space of the referenced pixel value data. You may make it apply the weight. At this time, the weight closer to the CPR cut surface 34 may be weighted, or the distance farther away may be weighted. By comparing the cross-sectional image created by weighting the near side with the cross-sectional image created by weighting the far side, it is easy to determine what pixel value region is in which part of the cross-sectional thickness Become.

CPR切断面34のすべての画素Pi,jについて画素値を算出すると、CPU101は算出した画素値を持つ断面画像を作成し、表示装置107に表示する(ステップS209)。なお、CPR切断面画像34の各画素の断面厚さを、その位置における管腔の太さとしているため、管腔の外側位置に対応する画素の断面厚さは「0」である。そのため、管腔の外側領域に対応する画素については、ユーザ指定またはデフォルトの値を画素値として与えるものとすればよい。 When the pixel values are calculated for all the pixels P i, j on the CPR cut surface 34, the CPU 101 creates a cross-sectional image having the calculated pixel values and displays it on the display device 107 (step S209). Since the cross-sectional thickness of each pixel in the CPR cut surface image 34 is the thickness of the lumen at that position, the cross-sectional thickness of the pixel corresponding to the outer position of the lumen is “0”. Therefore, for the pixels corresponding to the outer region of the lumen, a user-specified or default value may be given as the pixel value.

以上説明したように、第2の実施の形態の処理によれば、血管35等の管腔臓器に沿ってCPR切断面画像34を作成する場合に、各画素の断面厚さを一律とせず、観察対象とする管腔の太さとする。これにより管腔の内部のすべてのボリュームデータをCPR切断面画像34にもれなく反映することが可能となる。
なお、図5、図6の説明では、CPR切断面画像34の各画素の断面厚さdi、jを求める際、CPR切断面画像34に対して厚さ方向前方及び後方の管腔領域を断面厚さとすることとしたが、更に、CPR切断面画像34の前方または後方のどちら側に病変等の注目画素が含まれているかを確認したい場合は、CPR切断面画像34の前方のみまたは後方のみの管腔の太さを断面厚さdi,jとして求め、片側だけの画素値データをボリュームデータから抽出して各画素Pi,jの画素値を求めるようにしても良い。
このように、作成するCPR切断面画像34の両側のボリュームデータを反映した断面画像と併せて、片側のボリュームデータを反映した片側断面画像も更に作成するようにすれば、両者を比較することで、断面のどちら側にどのような濃度値分布があるかを比較しやすくなり、病変等の位置を絞り込んで観察しやすくなる。
As described above, according to the processing of the second embodiment, when the CPR cut surface image 34 is created along a luminal organ such as the blood vessel 35, the cross-sectional thickness of each pixel is not uniform. The thickness of the lumen to be observed. As a result, it is possible to reflect all the volume data inside the lumen in the CPR cut surface image 34.
In the description of FIGS. 5 and 6, when the cross-sectional thicknesses di, j of each pixel of the CPR cut surface image 34 are obtained, the front and rear lumen regions in the thickness direction with respect to the CPR cut surface image 34 are indicated. The cross-sectional thickness is determined. However, when it is desired to confirm whether the attention pixel such as a lesion is included on the front side or the rear side of the CPR cut surface image 34, only the front side or the rear side of the CPR cut surface image 34. Alternatively, the thickness of only the lumen may be obtained as the cross-sectional thickness d i, j , and pixel value data for only one side may be extracted from the volume data to obtain the pixel value of each pixel P i, j .
In this way, if a single-side cross-sectional image reflecting the volume data on one side is also created together with the cross-sectional image reflecting the volume data on both sides of the CPR cut surface image 34 to be created, the two can be compared. It becomes easy to compare which density value distribution is on which side of the cross section, and it becomes easy to narrow down the position of a lesion or the like.

以上、添付図面を参照しながら、本発明に係る医用画像処理装置の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the medical image processing apparatus according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1・・・・・・・画像処理システム
100・・・・・医用画像処理装置
101・・・・・CPU
102・・・・・主メモリ
103・・・・・記憶装置
104・・・・・通信I/F
105・・・・・表示メモリ
106・・・・・I/F
107・・・・・表示装置
108・・・・・マウス
109・・・・・入力装置
110・・・・・ネットワーク
111・・・・・画像データベース
113・・・・・画像撮影装置
20・・・・・・3次元ボリュームデータ
21・・・・・・中心線
23・・・・・・B断面(中心線21に直交する断面)
24・・・・・・A断面(中心線21に直交する断面)
25・・・・・・C断面(中心線21に直交する断面)
26・・・・・・中間断面A−B
27・・・・・・中間断面B−C
i,j・・・・・・断面画像の画素
i,j・・・・・・断面画像の画素Pi,jにおける断面厚さ
i,j・・・・・・断面画像の画素Pi,jに対応する3次元空間上の点
30・・・・・・3次元ボリュームデータ
31a〜31h・・・2次元断層像
32・・・・・・芯線
34・・・・・・CPR切断面
35・・・・・・観察対象とする血管

1. Image processing system 100 Medical image processing apparatus 101 CPU
102... Main memory 103... Storage device 104 .. Communication I / F
105 ... Display memory 106 ... I / F
107... Display device 108 mouse 109 input device 110 network 111 image database 113 image photographing device 20・ ・ ・ ・ 3D volume data 21 ・ ・ ・ ・ ・ ・ Center line 23 ・ ・ ・ ・ ・ ・ B section (cross section perpendicular to the center line 21)
24 ··· A cross section (cross section perpendicular to the center line 21)
25 ··· C section (cross section perpendicular to the center line 21)
26 ・ ・ ・ ・ ・ ・ Intermediate section A-B
27 ・ ・ ・ ・ ・ ・ Intermediate section B-C
P i, j ... Cross section image pixel d i, j ... Cross section image pixel P i, j Cross section thickness Q i, j. A point 30 in the three-dimensional space corresponding to P i, j ... 3D volume data 31a to 31h... 2D tomographic image 32. Cut surface 35 ... Blood vessel to be observed

Claims (7)

複数枚の断層像を積み上げた3次元ボリュームデータに基づき任意位置での断面画像を作成し、表示する医用画像処理装置であって、
前記断面画像の各画素にそれぞれ一律でない断面厚さを設定する断面厚設定手段と、
前記断面厚設定手段により設定された断面厚さに相当する分の画素値データを前記ボリュームデータから抽出し、抽出した画素値データに基づいて前記断面画像の各画素の画素値を算出する画素値算出手段と、
前記画素値算出手段により算出された画素値から成る断面画像を作成し、表示する表示手段と、
を具備することを特徴とする医用画像処理装置。
A medical image processing apparatus for creating and displaying a cross-sectional image at an arbitrary position based on three-dimensional volume data obtained by stacking a plurality of tomographic images,
Cross-sectional thickness setting means for setting a non-uniform cross-sectional thickness for each pixel of the cross-sectional image,
Pixel values for extracting pixel value data corresponding to the cross-sectional thickness set by the cross-sectional thickness setting means from the volume data, and calculating pixel values for each pixel of the cross-sectional image based on the extracted pixel value data A calculation means;
Display means for creating and displaying a cross-sectional image composed of pixel values calculated by the pixel value calculating means;
A medical image processing apparatus comprising:
前記断面厚設定手段は、前記断面画像の各画素の断面厚さを観察対象の形状に合わせて算出することを特徴とする請求項1に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the cross-sectional thickness setting unit calculates a cross-sectional thickness of each pixel of the cross-sectional image according to a shape of an observation target. 観察対象とする部位の湾曲に沿って設定された複数の直交断面の画像を作成する場合、
前記断面厚設定手段は、作成対象とする直交断面と隣接する直交断面との中間に中間断面を設定し、作成対象とする直交断面の画像の各画素位置から前記中間断面までの距離をそれぞれ算出し、算出した距離を各画素の断面厚さとすることを特徴とする請求項1または請求項2に記載の医用画像処理装置。
When creating images of multiple orthogonal sections set along the curvature of the part to be observed,
The cross-sectional thickness setting means sets an intermediate cross section between an orthogonal cross section to be created and an adjacent orthogonal cross section, and calculates a distance from each pixel position of the image of the cross section to be created to the intermediate cross section, respectively. The medical image processing apparatus according to claim 1, wherein the calculated distance is set as a cross-sectional thickness of each pixel.
管腔の芯線に沿った切断面画像を作成する場合は、
前記断面厚設定手段は、前記切断面画像の各画素位置における前記管腔の太さをそれぞれ算出し、算出した管腔の太さを前記切断面画像の各画素の断面厚さとすることを特徴とする請求項1または請求項2に記載の医用画像処理装置。
When creating a cross-sectional image along the lumen core,
The cross-sectional thickness setting means calculates the thickness of the lumen at each pixel position of the cut surface image, and sets the calculated thickness of the lumen as the cross-sectional thickness of each pixel of the cut surface image. The medical image processing apparatus according to claim 1 or 2.
前記画素値算出手段は、前記断面厚さに相当する分の画素値データの平均値、最大値、及び最小値のいずれかを前記断面画像の各画素の画素値とすることを特徴とする請求項1から請求項4のいずれかに記載の医用画像処理装置。   The pixel value calculation means uses any one of an average value, a maximum value, and a minimum value of pixel value data corresponding to the cross-sectional thickness as a pixel value of each pixel of the cross-sectional image. The medical image processing apparatus according to any one of claims 1 to 4. 前記画素値算出手段は、各画素の画素値を算出する際に参照する前記画素値データに対し、前記画素位置からの距離に応じた重み付けをすることを特徴とする請求項1から請求項5のいずれかに記載の医用画像処理装置。   The said pixel value calculation means weights according to the distance from the said pixel position with respect to the said pixel value data referred when calculating the pixel value of each pixel. A medical image processing apparatus according to any one of the above. 複数枚の断層像を積み上げた3次元ボリュームデータに基づき任意位置での断面画像を作成する医用画像作成方法であって、
前記断面画像の各画素にそれぞれ一律でない断面厚さを設定する断面厚設定ステップと、
前記断面厚設定ステップにより設定された断面厚さに相当する分の画素値データを前記ボリュームデータから抽出し、抽出した画素値データに基づいて前記断面画像の各画素の画素値を算出する画素値算出ステップと、
前記画素値算出ステップにより算出された画素値から成る断面画像を作成する表示ステップと、
を含むことを特徴とする医用画像処理方法。
A medical image creation method for creating a cross-sectional image at an arbitrary position based on three-dimensional volume data obtained by stacking a plurality of tomographic images,
A cross-sectional thickness setting step for setting a non-uniform cross-sectional thickness for each pixel of the cross-sectional image;
Pixel value data corresponding to the cross-sectional thickness set by the cross-sectional thickness setting step is extracted from the volume data, and a pixel value for calculating the pixel value of each pixel of the cross-sectional image based on the extracted pixel value data A calculation step;
A display step of creating a cross-sectional image composed of the pixel values calculated by the pixel value calculation step;
A medical image processing method comprising:
JP2012135547A 2012-06-15 2012-06-15 Medical image processor and medical image processing method Pending JP2014000124A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012135547A JP2014000124A (en) 2012-06-15 2012-06-15 Medical image processor and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012135547A JP2014000124A (en) 2012-06-15 2012-06-15 Medical image processor and medical image processing method

Publications (1)

Publication Number Publication Date
JP2014000124A true JP2014000124A (en) 2014-01-09

Family

ID=50033951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012135547A Pending JP2014000124A (en) 2012-06-15 2012-06-15 Medical image processor and medical image processing method

Country Status (1)

Country Link
JP (1) JP2014000124A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015150325A (en) * 2014-02-18 2015-08-24 株式会社東芝 Medical image processing apparatus and medical image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015150325A (en) * 2014-02-18 2015-08-24 株式会社東芝 Medical image processing apparatus and medical image processing method

Similar Documents

Publication Publication Date Title
JP4545169B2 (en) Image display method, apparatus and program
JP5551955B2 (en) Projection image generation apparatus, method, and program
JP5551960B2 (en) Diagnosis support system, diagnosis support program, and diagnosis support method
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
EP2017789B1 (en) Projection image generation apparatus and program
JP5399407B2 (en) Image processing apparatus and image processing method
JP5492024B2 (en) Region division result correction apparatus, method, and program
JP5566370B2 (en) Medical image processing apparatus and method
US20090022387A1 (en) Medical image display system and medical image display program
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
JP2010528750A (en) Inspection of tubular structures
JP2013192940A (en) Medical imag processing apparatus and medical imag processing method
JP5274894B2 (en) Image display device
US8907949B2 (en) Image display apparatus, method and program
JP2003265475A (en) Ultrasonograph, image processor and image processing program
EP2272427B1 (en) Image processing device and method, and program
JP5484998B2 (en) Medical image processing apparatus and control program for fat region measurement
EP2823764B1 (en) Medical image processing device, method, and program
JP2008067915A (en) Medical picture display
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP2014000124A (en) Medical image processor and medical image processing method
JP5518970B2 (en) Image display device
JP5701208B2 (en) Medical image display device and medical image display method
JP2006055402A (en) Device, method, and program for image processing
JP2006178772A (en) Image processing method, system, and program