JP5908241B2 - Medical image display device - Google Patents

Medical image display device Download PDF

Info

Publication number
JP5908241B2
JP5908241B2 JP2011211046A JP2011211046A JP5908241B2 JP 5908241 B2 JP5908241 B2 JP 5908241B2 JP 2011211046 A JP2011211046 A JP 2011211046A JP 2011211046 A JP2011211046 A JP 2011211046A JP 5908241 B2 JP5908241 B2 JP 5908241B2
Authority
JP
Japan
Prior art keywords
image
unit
information
mip
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011211046A
Other languages
Japanese (ja)
Other versions
JP2013070776A (en
Inventor
智博 郡司
智博 郡司
和代 斎藤
和代 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011211046A priority Critical patent/JP5908241B2/en
Publication of JP2013070776A publication Critical patent/JP2013070776A/en
Application granted granted Critical
Publication of JP5908241B2 publication Critical patent/JP5908241B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明の実施形態は、医用画像表示装置に関する。   Embodiments described herein relate generally to a medical image display apparatus.

医用画像表示装置は、X線CT装置(X線コンピュータトモグラフィ装置)やMRI装置(磁気共鳴イメージング装置)などの医用画像撮影装置により撮影された被検体の医用画像を表示する装置である。この医用画像表示装置により表示された医用画像が医師や臨床検査技師などにより観察され、診断や治療が行われる。特に、血管などの医用画像は、診断や治療を行いやすくするために三次元的に表示される。   The medical image display device is a device that displays a medical image of a subject imaged by a medical image photographing device such as an X-ray CT device (X-ray computer tomography device) or an MRI device (magnetic resonance imaging device). A medical image displayed by the medical image display device is observed by a doctor, a clinical laboratory technician, or the like, and diagnosis and treatment are performed. In particular, medical images such as blood vessels are displayed three-dimensionally to facilitate diagnosis and treatment.

ここで、医用画像を三次元的に表示する代表的な手法としては、VR法(ボリュームレンダリング法)やMIP法(最大値投影法)などが挙げられる。これらの手法によって三次元のボリュームデータ(例えば、ボクセルデータ)が処理され、医用画像が生成される。ボリュームデータは、X線CT装置やMRI装置などにより撮影されたスライス画像(断面画像)を重ね合わせることで三次元的に構築されている。   Here, as a representative method for displaying a medical image three-dimensionally, there are a VR method (volume rendering method), a MIP method (maximum value projection method), and the like. With these methods, three-dimensional volume data (for example, voxel data) is processed, and a medical image is generated. Volume data is three-dimensionally constructed by superimposing slice images (cross-sectional images) taken by an X-ray CT apparatus, an MRI apparatus, or the like.

前述のVR法では、仮想の光源を設定して視線方向から対象に一本の光線(レイ)を当て、ボクセル毎に光の吸収及び反射の離散的な計算を行い、二次元投影面に画像を生成し、オパシティ(不透明度)などを設定することで各種の画像を表示することが可能となる。特に、SVR法(影付きボリュームレンダリング法)では、対象に陰影をつけてその対象を立体的に示す医用画像(SVR画像)を生成する。   In the above-described VR method, a virtual light source is set, a single ray (ray) is applied to the object from the line-of-sight direction, light is absorbed and reflected discretely for each voxel, and an image is displayed on the two-dimensional projection plane. Can be displayed and various images can be displayed by setting opacity (opacity) and the like. In particular, in the SVR method (volume rendering method with shadow), a medical image (SVR image) is generated in which a target is shaded and the target is stereoscopically displayed.

また、MIP法は、ボリュームデータに対し任意の視点方向に投影処理を行い、投影経路中の最大値を投影面に表示する手法であり、通常、処理対象である全ての原画像に対して、それぞれの投影経路、すなわち投影直線上にある全てのピクセルについて最大値を取り出し、医用画像(MIP画像)を生成する。   The MIP method is a method for performing projection processing on volume data in an arbitrary viewpoint direction and displaying the maximum value in the projection path on the projection plane. Usually, for all original images to be processed, The maximum value is extracted for each pixel on each projection path, that is, the projection line, and a medical image (MIP image) is generated.

特開2003−91735号公報JP 2003-91735 A

しかしながら、前述のMIP法による表示手法は、CT値などの画素値をそのまま保持して示すため、診断をするのに有効であるが、そのMIP画像に奥行き感がないため、血管同士の前後関係を把握することは困難であり、角度を変えた複数枚のMIP画像を用いて診断を行う必要がある。一方、SVR法による表示手法では、血管などの前後関係は分かりやすいものの、画素値の情報が消えてしまうため、その情報に対応する他の画像を用いて診断を行う必要がある。   However, the display method based on the MIP method described above is effective for diagnosis because the pixel value such as the CT value is retained and shown as it is. However, since the MIP image has no sense of depth, the anteroposterior relationship between blood vessels is effective. Is difficult to grasp, and it is necessary to perform diagnosis using a plurality of MIP images with different angles. On the other hand, in the display method based on the SVR method, although the anteroposterior relationship of blood vessels and the like is easy to understand, the information on the pixel values disappears, so it is necessary to perform diagnosis using another image corresponding to the information.

本発明が解決しようとする課題は、画素値の情報を確保しつつ血管同士の前後関係をわかりやすく表示することができる医用画像表示装置を提供することである。   The problem to be solved by the present invention is to provide a medical image display device capable of displaying the front-rear relationship between blood vessels in an easy-to-understand manner while ensuring information on pixel values.

実施形態に係る医用画像表示装置は、ボリュームデータから最大値投影画像、最小値投影画像及び加算平均投影画像のうちの少なくとも一つの投影画像を生成する画像生成部と、ボリュームデータ内の血管表面の法線と基準方向との差に関する情報を用いて、画像生成部により生成された投影画像の血管に影付けを行うよう、画像生成部により生成された投影画像の複数の画素値を変更する画像処理部と、画像処理部により変更された投影画像を表示する画像表示部とを備える。 The medical image display apparatus according to the embodiment includes an image generation unit that generates at least one of a maximum value projection image, a minimum value projection image, and an addition average projection image from volume data, and a blood vessel surface in the volume data. An image in which a plurality of pixel values of the projection image generated by the image generation unit are changed so that the blood vessels of the projection image generated by the image generation unit are shaded using information on the difference between the normal line and the reference direction. A processing unit and an image display unit that displays the projection image changed by the image processing unit.

実施形態に係る医用画像表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the medical image display apparatus which concerns on embodiment. 図1に示す医用画像表示装置が行う画像表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image display process which the medical image display apparatus shown in FIG. 1 performs. MIP画像の一例を示す図である。It is a figure which shows an example of a MIP image. 図3に示すMIP画像に対応するSVR画像の一例を示す図である。It is a figure which shows an example of the SVR image corresponding to the MIP image shown in FIG. 図3に示すMIP画像を加工した加工済MIP画像を示す図である。It is a figure which shows the processed MIP image which processed the MIP image shown in FIG. 色付け後の図5に示す加工済MIP画像を示す図である。It is a figure which shows the processed MIP image shown in FIG. 5 after coloring.

実施の一形態について図面を参照して説明する。   An embodiment will be described with reference to the drawings.

図1に示すように、本実施形態に係る医用画像表示装置1は、ボリュームデータを格納するボリュームデータ格納部2と、MIP画像(最大値投影画像)を生成するMIP画像生成部3と、SVR画像(影付きボリュームレンダリング画像)を生成するSVR画像生成部4と、操作者により入力操作される入力部5と、MIP画像を保存するMIP画像保存部6と、SVR画像を保存するSVR画像保存部7と、MIP画像を加工処理する画像処理部8と、MIP画像やSVR画像、加工済MIP画像などの各種画像を表示する画像表示部9とを備えている。   As shown in FIG. 1, a medical image display apparatus 1 according to the present embodiment includes a volume data storage unit 2 that stores volume data, a MIP image generation unit 3 that generates an MIP image (maximum value projection image), and an SVR. An SVR image generation unit 4 that generates an image (volume rendering image with shadow), an input unit 5 that is input by an operator, an MIP image storage unit 6 that stores an MIP image, and an SVR image storage that stores an SVR image Unit 7, an image processing unit 8 that processes the MIP image, and an image display unit 9 that displays various images such as the MIP image, the SVR image, and the processed MIP image.

ボリュームデータ格納部2は、医用画像撮影装置などの外部装置から送信されたボリュームデータを格納する。ボリュームデータは、例えばX線CT装置やMRI装置などの医用画像撮影装置により撮影されたスライス画像(断面画像)を重ね合わせることにより構成されている。   The volume data storage unit 2 stores volume data transmitted from an external device such as a medical image photographing device. The volume data is configured by superimposing slice images (cross-sectional images) captured by a medical image capturing apparatus such as an X-ray CT apparatus or an MRI apparatus.

MIP画像生成部3は、ボリュームデータ格納部2からボリュームデータを読み出し、その読み出したボリュームデータに対してMIP法(最大値投影法)を用いた投影処理を行い、MIP画像を生成する。なお、このMIP画像生成部3が、ボリュームデータからMIP画像を生成する第1の画像生成部として機能する。   The MIP image generation unit 3 reads volume data from the volume data storage unit 2, performs projection processing using the MIP method (maximum value projection method) on the read volume data, and generates an MIP image. The MIP image generation unit 3 functions as a first image generation unit that generates an MIP image from volume data.

SVR画像生成部4は、ボリュームデータ格納部2からボリュームデータを読み出し、その読み出したボリュームデータに対してSVR法(影付きボリュームレンダリング法)を用いた投影処理を行い、前述のMIP画像に対応するSVR画像を生成する。このMIP画像に対応するSVR画像とは、前述で生成したMIP画像と同じ角度、拡大率及び移動量を有するSVR画像である。なお、このSVR画像生成部4が、ボリュームデータから前述のMIP画像に対応するSVR画像を生成する第2の画像生成部として機能する。   The SVR image generation unit 4 reads the volume data from the volume data storage unit 2, performs a projection process using the SVR method (shadowed volume rendering method) on the read volume data, and corresponds to the aforementioned MIP image. An SVR image is generated. The SVR image corresponding to the MIP image is an SVR image having the same angle, magnification, and movement amount as the MIP image generated above. The SVR image generation unit 4 functions as a second image generation unit that generates an SVR image corresponding to the aforementioned MIP image from the volume data.

ここで、ボリュームレンダリングの影付けでは、ボリュームデータ内の対象物(例えば、血管や臓器など)の表面の傾斜情報(例えば、対象物表面の法線方向)に基づいて画像の画素値を変更する。例えば、その対象物表面の法線方向と基準方向(光源方向)との差に基づいて画素値を変更する。この変更の一例としては、基準方向と法線方向とが同じであるところは明るく、その差が大きい部分は暗くなるように画素値を変更する。このようにして、対象物の影付けが行われる。   Here, in the shadow rendering of volume rendering, the pixel value of the image is changed based on the inclination information (for example, the normal direction of the surface of the object) of the surface of the object (for example, a blood vessel or an organ) in the volume data. . For example, the pixel value is changed based on the difference between the normal direction of the object surface and the reference direction (light source direction). As an example of this change, the pixel value is changed so that a portion where the reference direction and the normal direction are the same is bright and a portion where the difference is large is dark. In this way, the object is shaded.

なお、本実施形態では、対象物表面の法線方向と基準方向との差に関する情報の一例として、対象物表面の反射情報(例えば、各ピクセル(ボクセル)の反射係数)を用いる。このとき、SVR画像生成部4は、反射情報を生成する反射情報生成部としても機能する。   In the present embodiment, reflection information (for example, the reflection coefficient of each pixel (voxel)) of the object surface is used as an example of information regarding the difference between the normal direction of the object surface and the reference direction. At this time, the SVR image generation unit 4 also functions as a reflection information generation unit that generates reflection information.

入力部5は、操作者により入力操作される操作部であって、キーボードやマウスなどの入力デバイスにより構成されている。この入力部5が操作者により用いられ、画像生成指示や画像表示指示、画像の切り替え指示などの各種の入力操作が行われる。   The input unit 5 is an operation unit that is input by an operator, and includes an input device such as a keyboard and a mouse. The input unit 5 is used by an operator to perform various input operations such as an image generation instruction, an image display instruction, and an image switching instruction.

MIP画像保存部6は、MIP画像生成部3により生成されたMIP画像を保存する。このMIP画像保存部6としては、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)などを用いることが可能である。   The MIP image storage unit 6 stores the MIP image generated by the MIP image generation unit 3. For example, a magnetic disk device or a semiconductor disk device (flash memory) can be used as the MIP image storage unit 6.

SVR画像保存部7は、SVR画像生成部4により生成されたSVR画像を前述の反射情報と共に保存する。このSVR画像保存部7としては、前述のMIP画像保存部6と同様に、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)などを用いることが可能である。   The SVR image storage unit 7 stores the SVR image generated by the SVR image generation unit 4 together with the reflection information described above. As the SVR image storage unit 7, for example, a magnetic disk device, a semiconductor disk device (flash memory), or the like can be used in the same manner as the MIP image storage unit 6 described above.

画像処理部8は、SVR画像保存部7から反射情報を取得する反射情報取得部8aと、取得した反射情報を保存する反射情報保存部8bと、その反射情報を用いてMIP画像を影付け加工するための加工情報を算出する加工情報算出部8cと、算出した加工情報を保存する加工情報保存部8dと、その加工情報を用いてMIP画像を加工するMIP画像加工部8eと、加工したMIP画像を保存する加工済MIP画像保存部8fとを備えている。   The image processing unit 8 includes a reflection information acquisition unit 8a that acquires reflection information from the SVR image storage unit 7, a reflection information storage unit 8b that stores the acquired reflection information, and shades the MIP image using the reflection information. Processing information calculation unit 8c for calculating processing information for processing, processing information storage unit 8d for storing the calculated processing information, MIP image processing unit 8e for processing a MIP image using the processing information, and processed MIP And a processed MIP image storage unit 8f for storing images.

反射情報取得部8aは、SVR画像保存部7からSVR画像を生成するときの各ピクセル(ボクセル)の反射係数(反射率)を読み出し、SVR画像のピクセル毎の反射係数を示す反射情報を求める。   The reflection information acquisition unit 8a reads the reflection coefficient (reflectance) of each pixel (voxel) when generating the SVR image from the SVR image storage unit 7, and obtains reflection information indicating the reflection coefficient for each pixel of the SVR image.

反射情報保存部8bは、反射情報算出部8aにより算出された反射情報を保存する。この反射情報保存部8bとしては、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)などを用いることが可能である。   The reflection information storage unit 8b stores the reflection information calculated by the reflection information calculation unit 8a. For example, a magnetic disk device or a semiconductor disk device (flash memory) can be used as the reflection information storage unit 8b.

加工情報算出部8cは、反射情報保存部8bから反射情報を読み出し、その読み出した反射情報を用いて、各ピクセルの反射係数からピクセル毎に画素値の加工量を算出し、ピクセル毎の加工量(例えば、CT値を低くする量)を示す加工情報を求める。   The processing information calculation unit 8c reads the reflection information from the reflection information storage unit 8b, calculates the processing amount of the pixel value for each pixel from the reflection coefficient of each pixel using the read reflection information, and the processing amount for each pixel Processing information indicating (for example, the amount by which the CT value is lowered) is obtained.

加工情報保存部8dは、加工情報算出部8cにより算出された加工情報を保存する。この加工情報保存部8dとしては、前述の反射情報保存部8bと同様に、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)などを用いることが可能である。   The machining information storage unit 8d stores the machining information calculated by the machining information calculation unit 8c. As the processing information storage unit 8d, for example, a magnetic disk device, a semiconductor disk device (flash memory), or the like can be used in the same manner as the reflection information storage unit 8b.

MIP画像加工部8eは、加工情報保存部8dから加工情報を読み出し、その読み出した加工情報を用いて、ピクセル毎の加工量をMIP画像に反映し、MIP画像を影付け加工する。   The MIP image processing unit 8e reads the processing information from the processing information storage unit 8d, reflects the processing amount for each pixel on the MIP image using the processing information thus read, and shades the MIP image.

加工済MIP画像保存部8fは、MIP画像加工部8eにより加工されたMIP画像を保存する。この加工済MIP画像保存部8fとしては、前述の反射情報保存部8bや加工情報保存部8dと同様に、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)などを用いることが可能である。   The processed MIP image storage unit 8f stores the MIP image processed by the MIP image processing unit 8e. As the processed MIP image storage unit 8f, for example, a magnetic disk device, a semiconductor disk device (flash memory), or the like can be used similarly to the reflection information storage unit 8b and the processed information storage unit 8d described above.

ここで、このような画像処理部8は、電気回路などのハードウエアで構成されていても良く、あるいは、これらの機能を実行するプログラムなどのソフトウエアで構成されていても良く、また、それらの両方の組合せにより構成されていても良い。また、前述のように各種の保存部が設けられているが、これに限るものではなく、例えば、データ保存に必要な容量を有する共通の保存部が設けられても良い。   Here, such an image processing unit 8 may be configured by hardware such as an electric circuit, or may be configured by software such as a program for executing these functions. It may be configured by a combination of both. Further, as described above, various storage units are provided. However, the present invention is not limited to this, and for example, a common storage unit having a capacity necessary for data storage may be provided.

画像表示部9は、MIP画像保存部6に保存されたMIP画像やSVR画像保存部7に保存されたSVR画像、加工済MIP画像保存部8fに保存された加工済MIP画像などの各種画像を表示する。この画像表示部9としては、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイなどを用いることが可能である。   The image display unit 9 displays various images such as the MIP image stored in the MIP image storage unit 6, the SVR image stored in the SVR image storage unit 7, and the processed MIP image stored in the processed MIP image storage unit 8f. indicate. For example, a liquid crystal display or a CRT (Cathode Ray Tube) display can be used as the image display unit 9.

次に、前述の医用画像表示装置1が行う画像表示処理について詳しく説明する。医師や臨床検査技師などの操作者が入力部5を入力操作してMIP画像及びSVR画像の生成を指示すると、以下の処理が実行される。   Next, image display processing performed by the medical image display apparatus 1 described above will be described in detail. When an operator such as a doctor or a clinical laboratory technician performs an input operation on the input unit 5 to instruct generation of an MIP image and an SVR image, the following processing is executed.

図2に示すように、まず、前述のMIP画像生成部3によりMIP画像G1が生成される(ステップS1)。次いで、生成されたMIP画像G1に対応するSVR画像G2がSVR画像生成部4により形成される(ステップS2)。   As shown in FIG. 2, first, an MIP image G1 is generated by the aforementioned MIP image generation unit 3 (step S1). Next, an SVR image G2 corresponding to the generated MIP image G1 is formed by the SVR image generation unit 4 (step S2).

ステップS1のMIP画像G1の生成では、ボリュームデータ格納部2に格納されたボリュームデータが用いられ、MIP画像G1が生成される。例えば、処理対象である全ての原画像に対してそれぞれの投影経路、すなわち投影直線上にある全てのピクセルについて最大値が取り出され、MIP画像G1が生成される。   In the generation of the MIP image G1 in step S1, the volume data stored in the volume data storage unit 2 is used to generate the MIP image G1. For example, the maximum value is extracted for all pixels on the projection path, that is, the projection line, for all original images to be processed, and the MIP image G1 is generated.

このMIP画像G1は、図3に示すように、奥行き感が不十分であり、血管同士の前後関係を把握することが困難な画像である。ただし、MIP画像G1は、CT値などの画素値をそのまま保持して示すため、診断をするのに有効な画像である。特に、MIP画像G1は細い血管や血管内の石灰化などの診断に有効である。   As shown in FIG. 3, the MIP image G1 is an image that has insufficient depth and it is difficult to grasp the front-rear relationship between blood vessels. However, the MIP image G1 is an effective image for diagnosis because the pixel value such as the CT value is retained and shown as it is. In particular, the MIP image G1 is effective for diagnosis of thin blood vessels and calcification in the blood vessels.

ステップS2のSVR画像G2の生成では、MIP画像G1の生成と同様、ボリュームデータ格納部2に格納されたボリュームデータが用いられ、前述のステップS1で生成したMIP画像と同じ角度、拡大率及び移動量を有するSVR画像G2が生成される。例えば、仮想の光源が設定され、視線方向から一本の光線(レイ)が対象に当てられ、ボクセル毎に光の吸収及び反射の離散的な計算が行われ、二次元投影面に画像が生成される。さらに、このとき、対象に陰影をつけてその対象を立体的に示すSVR画像G2が生成される。なお、このSVR画像G2の生成時には、その生成に用いる反射情報はSVR画像生成部4の計算により求められる。   In the generation of the SVR image G2 in step S2, the volume data stored in the volume data storage unit 2 is used similarly to the generation of the MIP image G1, and the same angle, enlargement ratio, and movement as the MIP image generated in the above-described step S1. An SVR image G2 having a quantity is generated. For example, a virtual light source is set, a single ray (ray) is applied to the target from the line-of-sight direction, light is absorbed and reflected for each voxel, and an image is generated on the two-dimensional projection plane. Is done. Further, at this time, an SVR image G2 is generated in which the object is shaded and the object is stereoscopically displayed. It should be noted that when the SVR image G2 is generated, reflection information used for the generation is obtained by calculation of the SVR image generation unit 4.

SVR画像G2は、図4に示すように、MIP画像G1(図3参照)に比べ、奥行き感があり、血管同士の前後関係を把握することが容易な画像である。ただし、SVR画像G2は、CT値などの画素値を保持しておらず、画素値の情報が消えてしまうため、診断をするのに不利な画像である。   As shown in FIG. 4, the SVR image G2 has a sense of depth compared to the MIP image G1 (see FIG. 3), and is an image that makes it easy to grasp the anteroposterior relationship between blood vessels. However, the SVR image G2 is a disadvantageous image for diagnosis because it does not hold pixel values such as CT values and information on the pixel values disappears.

このようなMIP画像G1及びSVR画像G2は、同じ角度、拡大率及び移動量を有する画像であり、互いに関連付けられて保存される。MIP画像G1はMIP画像保存部6により保存され、SVR画像G2はSVR画像保存部7により反射情報と共に保存される。   Such MIP image G1 and SVR image G2 are images having the same angle, enlargement ratio, and movement amount, and are stored in association with each other. The MIP image G1 is stored by the MIP image storage unit 6, and the SVR image G2 is stored by the SVR image storage unit 7 together with the reflection information.

図2に戻り、ステップS2の完了後、前述のSVR画像G2生成時の反射情報が反射情報取得部8aにより求められ(ステップS3)、その反射情報から加工情報が加工情報算出部8cにより求められる(ステップS4)。   Returning to FIG. 2, after completion of step S2, the reflection information at the time of generating the SVR image G2 is obtained by the reflection information acquisition unit 8a (step S3), and the processing information is obtained from the reflection information by the processing information calculation unit 8c. (Step S4).

ステップS3の反射情報の算出では、SVR画像保存部7からSVR画像生成時の各ピクセル(ボクセル)の反射係数(反射率)が読み込まれ、SVR画像のピクセル毎の反射係数を示す反射情報が求められる。この反射情報は反射情報保存部8bにより保存される。   In the calculation of the reflection information in step S3, the reflection coefficient (reflectance) of each pixel (voxel) at the time of generating the SVR image is read from the SVR image storage unit 7, and reflection information indicating the reflection coefficient for each pixel of the SVR image is obtained. It is done. This reflection information is stored by the reflection information storage unit 8b.

ステップS4の加工情報の算出では、反射情報保存部8bから反射情報が読み出され、その読み出された反射情報が用いられて、各ピクセルの反射係数からピクセル毎に画素値の加工量が算出される。これにより、ピクセル毎の加工量(例えば、CT値を低くする量)を示す加工情報が求められる。この加工情報は加工情報保存部8dにより保存される。   In the calculation of the processing information in step S4, the reflection information is read from the reflection information storage unit 8b, and the read reflection information is used to calculate the pixel value processing amount for each pixel from the reflection coefficient of each pixel. Is done. Thereby, the processing information which shows the processing amount for every pixel (for example, the amount which makes CT value low) is calculated | required. This processing information is stored by the processing information storage unit 8d.

ステップS4の完了後、前述の加工情報が用いられてMIP画像G1がMIP画像加工部8eにより加工され(ステップS5)、その加工された加工済MIP画像G3が画像表示部9により表示される(ステップS6)。   After completion of step S4, the above-described processing information is used to process the MIP image G1 by the MIP image processing unit 8e (step S5), and the processed processed MIP image G3 is displayed by the image display unit 9 ( Step S6).

ステップS5のMIP画像G1の加工では、加工情報保存部8dから加工情報が読み出され、その読み出された加工情報が用いられて、ピクセル毎の加工量がMIP画像G1に反映され、MIP画像G1が影付け加工される。これにより、加工済MIP画像G3が生成され、この加工済MIP画像G3が次のステップS6で画像表示部9により表示される。   In the processing of the MIP image G1 in step S5, the processing information is read out from the processing information storage unit 8d, the processing information thus read is used, the processing amount for each pixel is reflected in the MIP image G1, and the MIP image G1 is shaded. Thereby, the processed MIP image G3 is generated, and this processed MIP image G3 is displayed by the image display unit 9 in the next step S6.

加工済MIP画像G3は、図5に示すように、MIP画像G1(図3参照)に比べ、奥行き感があり、SVR画像G2と同様に、血管同士の前後関係を把握することが容易な画像である。これは、影付け加工により反射係数が低い部分が高い部分よりも黒くなり、血管同士の交わり部分に線が表示されているためである。さらに、加工済MIP画像G3は、元のMIP画像G1と同様に、CT値などの画素値をそのまま保持して示すため、診断をするのに有効な画像のままである。   As shown in FIG. 5, the processed MIP image G3 has a sense of depth compared to the MIP image G1 (see FIG. 3), and as with the SVR image G2, it is easy to grasp the anteroposterior relationship between blood vessels. It is. This is because a portion with a low reflection coefficient becomes darker than a portion with a high reflection coefficient by shading, and a line is displayed at the intersection of blood vessels. Further, the processed MIP image G3 is an image that is effective for diagnosis because the pixel value such as the CT value is held as it is, as is the case with the original MIP image G1.

したがって、加工済MIP画像G3は、奥行き感をもったMIP画像であり、血管などのエッジの部分に影が付けられて表示されるため、交差している血管同士の前後関係を容易に把握することが可能になる。また、加工済MIP画像G3では、MIP画像G1(図3参照)に比べ、骨により視認不能となっていた血管の位置を把握することが可能になる。   Therefore, the processed MIP image G3 is a MIP image having a sense of depth, and is displayed with shadows on the edge portions such as blood vessels, so that the front-rear relationship between intersecting blood vessels can be easily grasped. It becomes possible. In addition, compared with the MIP image G1 (see FIG. 3), the processed MIP image G3 can grasp the position of the blood vessel that has become invisible due to the bone.

このように画像表示処理では、SVR画像G2を生成する際に影付けを行うために求める反射係数を用いて、MIP画像G1の画素値を若干変化させることによって、画素値の情報を確保しつつ血管の前後関係をわかりやすく表示することができる。   As described above, in the image display process, the pixel value of the MIP image G1 is slightly changed by using the reflection coefficient obtained for shadowing when the SVR image G2 is generated, while ensuring the pixel value information. The context of blood vessels can be displayed in an easy-to-understand manner.

なお、計算の簡単な流れとしては、MIP法により表示したい角度と同じ角度のSVR画像G2を生成する。このSVR画像G2を生成する際に同時に計算される反射係数をスクリーン上の各ピクセル分保持する。続いて算出した各ピクセルの反射係数に基づいてMIP画像G1の各ピクセルの画素値を加工する(反射係数に基づいて画素値をマイナスする)。これにより、反射係数が低い部分は高い部分よりも黒くなり、血管の交わり部分に線が表示されることになる。このため、血管同士の前後関係を容易に見極めることが可能になる。   As a simple flow of calculation, an SVR image G2 having the same angle as the angle to be displayed is generated by the MIP method. The reflection coefficient calculated simultaneously when the SVR image G2 is generated is held for each pixel on the screen. Subsequently, the pixel value of each pixel of the MIP image G1 is processed based on the calculated reflection coefficient of each pixel (the pixel value is subtracted based on the reflection coefficient). As a result, the portion with a low reflection coefficient becomes blacker than the portion with a high reflection coefficient, and a line is displayed at the intersection of blood vessels. For this reason, it becomes possible to easily determine the front-rear relationship between blood vessels.

以上説明したように、本実施形態によれば、SVR画像G2を生成するときの影付け用の反射情報が用いられ、MIP画像生成部3により生成されたMIP画像G1に影付けの加工が行われる。これにより、MIP画像G1に影付きの加工が行われ、加工済MIP画像G3は奥行き感があり、SVR画像G2と同様に、血管同士の前後関係を把握することが容易な画像となる。さらに、加工済MIP画像G3は、元のMIP画像G1と同様に、CT値などの画素値をそのまま保持して示すため、診断をするのに有効な画像のままである。これにより、画素値の情報を確保しつつ血管同士の前後関係をわかりやすく表示することができる。   As described above, according to the present embodiment, the reflection information for shadowing when the SVR image G2 is generated is used, and the MIP image G1 generated by the MIP image generation unit 3 is subjected to shadowing processing. Is called. As a result, the shaded processing is performed on the MIP image G1, the processed MIP image G3 has a sense of depth, and, like the SVR image G2, it is an image that can easily grasp the anteroposterior relationship between blood vessels. Further, the processed MIP image G3 is an image that is effective for diagnosis because the pixel value such as the CT value is held as it is, as is the case with the original MIP image G1. Thereby, it is possible to display the front-rear relationship between the blood vessels in an easy-to-understand manner while securing information on the pixel values.

また、影付けした血管などが複数入り混じってしまう場合などには、注目したい部位である注目物体(例えば、一本の血管など)をSVR画像G2(あるいはMIP画像G1)上から選択することにより、注目物体のみの影付け表示を行うようにしても良い。これにより、より観察が容易となる。   Further, when a plurality of shaded blood vessels and the like are mixed and mixed, by selecting a target object (for example, one blood vessel) which is a region to be focused on from the SVR image G2 (or MIP image G1). Alternatively, only the target object may be shaded and displayed. Thereby, observation becomes easier.

この場合には、操作者はマウスなどの入力部5を入力操作し、画像表示部9により表示されたSVR画像G2(あるいはMIP画像G1)上で注目物体上にポインタを移動してクリックを行い、その注目物体を指定する。この入力操作に応じて、画像処理部8は、注目物体の連結領域を求め、SVR画像G2(あるいはMIP画像G1)の中で注目したい部位である注目物体を抽出し、その抽出した注目物体のみに影付けの加工を行う。なお、画像処理部8は、求めた連結領域を必要に応じて既存の加工手法により加工することも可能である。   In this case, the operator performs an input operation on the input unit 5 such as a mouse, moves the pointer on the target object on the SVR image G2 (or MIP image G1) displayed by the image display unit 9, and clicks. , Specify the object of interest. In response to this input operation, the image processing unit 8 obtains a connected region of the target object, extracts a target object that is a part of interest in the SVR image G2 (or MIP image G1), and extracts only the extracted target object. The shadowing process is performed. Note that the image processing unit 8 can also process the obtained connection region by an existing processing method as necessary.

また、より容易な観察を可能にするため、注目物体と他の物体との前後関係を示す色付けを行うようにしても良い。この場合には、前述のように注目物体が抽出されると、その注目物体に対してZ方向の距離を考慮した色付けを行うことによって、血管などの前後関係をより容易に把握することが可能になる。   Further, in order to enable easier observation, coloring indicating the front-rear relationship between the object of interest and another object may be performed. In this case, when the target object is extracted as described above, it is possible to more easily grasp the context of the blood vessel or the like by coloring the target object in consideration of the distance in the Z direction. become.

ここで、図6に示すように、注目物体を一本の血管とすると、他の物体がその血管よりも奥にある場合には青色B(図6中のドット部分)、手前にある場合には赤色(図6中のストライプ部分)に色付けを行っている。   Here, as shown in FIG. 6, if the object of interest is a single blood vessel, blue B (dot portion in FIG. 6) is displayed when the other object is behind the blood vessel, and the object is in front. Is colored red (the stripe portion in FIG. 6).

この色付け処理では、まず、MIP画像G1を生成する際に、各ピクセルのZ座標も合わせて算出する。その後、注目物体上のピクセルに対してMIP画像G1のZ座標と注目物体のZ座標を比較する。MIP画像のZ座標が注目物体のZ座標と所定のしきい値以内に存在する場合には、表示色の変更をしない。MIP画像のZ座標が注目物体のZ座標と所定のしきい値を超えて奥に存在する場合には、その部分を青色Bで表現する。一方、MIP画像のZ座標が注目物体のZ座標と所定のしきい値を超えて手前に存在する場合には、その部分を赤色Rで表現する。   In this coloring process, first, when generating the MIP image G1, the Z coordinate of each pixel is also calculated. Thereafter, the Z coordinate of the MIP image G1 is compared with the Z coordinate of the target object for the pixel on the target object. When the Z coordinate of the MIP image is within a predetermined threshold with the Z coordinate of the object of interest, the display color is not changed. If the Z coordinate of the MIP image is behind the Z coordinate of the object of interest and a predetermined threshold, that portion is expressed in blue B. On the other hand, when the Z coordinate of the MIP image is present in front of the Z coordinate of the object of interest and exceeds a predetermined threshold value, that portion is expressed in red R.

なお、前述の実施形態においては、第1の画像生成部として、MIP画像を生成するMIP画像生成部3を用いて説明しているが、これに限るものではなく、例えば、最小値投影法(MinIP)による最小値投影画像を生成する画像生成部を用いるようにしても良く、あるいは、加算平均投影法による加算平均投影画像を生成する画像生成部を用いるようにしても良い。この場合でも、前述と同様の効果を得ることができる。   In the above-described embodiment, the MIP image generation unit 3 that generates an MIP image is described as the first image generation unit. However, the present invention is not limited to this. For example, the minimum value projection method ( An image generation unit that generates a minimum value projection image by MinIP) may be used, or an image generation unit that generates an addition average projection image by an addition average projection method may be used. Even in this case, the same effect as described above can be obtained.

以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 医用画像表示装置
3 MIP画像生成部
4 SVR画像生成部
8 画像処理部
8a 反射情報算出部
8c 加工情報算出部
8e MIP画像加工部
9 画像表示部
G1 MIP画像(最大値投影画像)
G2 SVR画像(影付きボリュームレンダリング画像)
G3 加工済MIP画像
DESCRIPTION OF SYMBOLS 1 Medical image display apparatus 3 MIP image generation part 4 SVR image generation part 8 Image processing part 8a Reflection information calculation part 8c Processing information calculation part 8e MIP image processing part 9 Image display part G1 MIP image (maximum value projection image)
G2 SVR image (shaded volume rendering image)
G3 processed MIP image

Claims (4)

ボリュームデータから最大値投影画像、最小値投影画像及び加算平均投影画像のうちの少なくとも一つの投影画像を生成する画像生成部と、
前記ボリュームデータ内の血管表面の法線と基準方向との差に関する情報を用いて、前記画像生成部により生成された前記投影画像の血管に影付けを行うよう、前記画像生成部により生成された前記投影画像の複数の画素値を変更する画像処理部と、
前記画像処理部により変更された前記投影画像を表示する画像表示部と、
を備えることを特徴とする医用画像表示装置。
An image generation unit that generates at least one of a maximum value projection image, a minimum value projection image, and an addition average projection image from volume data;
The information generated by the image generation unit is used to shade the blood vessel of the projection image generated by the image generation unit using information on a difference between the normal of the blood vessel surface in the volume data and a reference direction . An image processing unit for changing a plurality of pixel values of the projection image;
An image display unit for displaying the projection image changed by the image processing unit;
A medical image display device comprising:
記画像処理部は、
前記血管表面の法線と基準方向との差に関する情報として、ピクセル毎に反射係数を示す反射情報を取得する反射情報取得部と、
前記反射情報取得部により取得された前記反射情報を用いて、ピクセル毎に前記画素値の加工量を示す加工情報を算出する加工情報算出部と、
前記加工情報算出部により算出された前記加工情報を用いて、ピクセル毎に前記画素値を変更する画像加工部と、
を具備していることを特徴とする請求項1記載の医用画像表示装置。
Before Symbol image processing unit,
As information on the difference between the normal of the blood vessel surface and the reference direction, a reflection information acquisition unit that acquires reflection information indicating a reflection coefficient for each pixel;
A processing information calculation unit that calculates processing information indicating a processing amount of the pixel value for each pixel using the reflection information acquired by the reflection information acquisition unit;
An image processing unit that changes the pixel value for each pixel using the processing information calculated by the processing information calculation unit;
The medical image display apparatus according to claim 1 , further comprising:
前記画像処理部は、前記投影画像の中で注目したい物体を抽出し、その抽出した物体のみに前記画素値の変更を行うことを特徴とする請求項1又は2記載の医用画像表示装置。 The medical image display apparatus according to claim 1, wherein the image processing unit extracts an object to be noticed from the projection image, and changes the pixel value only for the extracted object . 前記画像処理部は、前記投影画像の中で注目したい物体を抽出し、その抽出した物体と他の物体との空間の前後関係を示す色付けを行うことを特徴とする請求項1ないし3のいずれか一に記載の医用画像表示装置。 4. The image processing unit according to claim 1, wherein the image processing unit extracts an object of interest from the projection image, and performs coloring that indicates a spatial relationship between the extracted object and another object. 5. A medical image display device according to claim 1.
JP2011211046A 2011-09-27 2011-09-27 Medical image display device Expired - Fee Related JP5908241B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011211046A JP5908241B2 (en) 2011-09-27 2011-09-27 Medical image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011211046A JP5908241B2 (en) 2011-09-27 2011-09-27 Medical image display device

Publications (2)

Publication Number Publication Date
JP2013070776A JP2013070776A (en) 2013-04-22
JP5908241B2 true JP5908241B2 (en) 2016-04-26

Family

ID=48475778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011211046A Expired - Fee Related JP5908241B2 (en) 2011-09-27 2011-09-27 Medical image display device

Country Status (1)

Country Link
JP (1) JP5908241B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598636B2 (en) 2015-10-29 2019-10-30 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN112329498B (en) * 2019-08-05 2022-06-07 四川大学 Street space quality quantification method based on machine learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246215A (en) * 2008-05-12 2008-10-16 Ziosoft Inc Image processing method

Also Published As

Publication number Publication date
JP2013070776A (en) 2013-04-22

Similar Documents

Publication Publication Date Title
US20190355174A1 (en) Information processing apparatus, information processing system, information processing method, and computer-readable recording medium
US9053565B2 (en) Interactive selection of a region of interest in an image
JP5808146B2 (en) Image processing system, apparatus and method
US10417808B2 (en) Image processing system, image processing apparatus, and image processing method
US10420534B2 (en) Ultrasonic diagnostic device, image processing device, and image processing method
US20080117203A1 (en) Methods and Apparatus for Visualizing Data
JP5818531B2 (en) Image processing system, apparatus and method
JP5562339B2 (en) Medical image display device and medical image display method
EP2536156A2 (en) Image processing system, image processing apparatus, and image processing method
US9426443B2 (en) Image processing system, terminal device, and image processing method
JP2008259699A (en) Image processing method and apparatus, and program
JP2013192940A (en) Medical imag processing apparatus and medical imag processing method
JP4122314B2 (en) Projection image processing method, projection image processing program, and projection image processing apparatus
JP5802767B2 (en) Image processing apparatus, stereoscopic image display apparatus, and image processing method
JP2006000127A (en) Image processing method, apparatus and program
JP5908241B2 (en) Medical image display device
JP5595207B2 (en) Medical image display device
JP2011172692A (en) Medical image processor and medical image processing program
JP2010131315A (en) Medical image processor and medical image processing program
JP6647796B2 (en) Image processing apparatus and X-ray diagnostic apparatus
JP2008067915A (en) Medical picture display
JP5065740B2 (en) Image processing method, apparatus, and program
US10979697B2 (en) Post processing and displaying a three-dimensional angiography image data set
JP6035057B2 (en) 3D image display apparatus and 3D image display method
JP6104982B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20150703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160323

R150 Certificate of patent or registration of utility model

Ref document number: 5908241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees