JP2007135843A - Image processor, image processing program and image processing method - Google Patents

Image processor, image processing program and image processing method Download PDF

Info

Publication number
JP2007135843A
JP2007135843A JP2005333211A JP2005333211A JP2007135843A JP 2007135843 A JP2007135843 A JP 2007135843A JP 2005333211 A JP2005333211 A JP 2005333211A JP 2005333211 A JP2005333211 A JP 2005333211A JP 2007135843 A JP2007135843 A JP 2007135843A
Authority
JP
Japan
Prior art keywords
image
dimensional
image data
region
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005333211A
Other languages
Japanese (ja)
Other versions
JP4786307B2 (en
Inventor
Tomohiro Kawasaki
友寛 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2005333211A priority Critical patent/JP4786307B2/en
Publication of JP2007135843A publication Critical patent/JP2007135843A/en
Application granted granted Critical
Publication of JP4786307B2 publication Critical patent/JP4786307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of obtaining the detailed image of a diagnostic part while making it possible to recognize the position relation of the diagnostic part and peripheral tissue. <P>SOLUTION: By performing MIP processing with the inside of a 3DROI 18 as an object for volume data, MIP image data are prepared. For a region other than the 3DROI 18, by performing volume rendering with the region other than the region formed by projecting a 2DROI 15 in a projection direction (the depth direction of a screen 13a) as an object, VR image data are prepared. The MIP image and the VR image are superimposed and displayed at a display part. Since the image is not formed for the regions before and after the MIP image, the detailed image is obtained for a lesion inside the 3DROI 18, and the position relation with the peripheral tissue is recognized by observing the VR image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、X線CT装置、MRI装置、又は超音波診断装置などの医用画像診断装置にて収集された画像データに対して画像処理を施す画像処理装置に関する。特に、病変部の診断を行うための3次元情報を有する画像データを作成するための画像処理装置に関する。   The present invention relates to an image processing apparatus that performs image processing on image data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus. In particular, the present invention relates to an image processing apparatus for creating image data having three-dimensional information for diagnosing a lesion.

従来から、X線CT装置などの医用画像診断装置を用いて被検体のボリュームデータ(ボクセルデータ)を収集し、そのボリュームデータに対して所定の画像処理を施し、得られた画像を参照することで病変部の診断が行われている。   Conventionally, volume data (voxel data) of a subject is collected using a medical image diagnostic apparatus such as an X-ray CT apparatus, predetermined image processing is performed on the volume data, and the obtained image is referred to. The lesion is diagnosed at.

例えば、3次元画像を作成するための代表的な手法として、ボリュームレンダリング(Volume Rendering)が知られている。このボリュームレンダリングは、ボリュームデータに対して所定の視線方向(投影光線の投影方向)を決めて、任意の視点から光線追跡処理を行い、視線上のボクセル値(輝度値等)の積分値や重み付き累積加算値を投影面上の画像ピクセルに出力することによって、臓器等を立体的に抽出してボリュームレンダリング画像データ(以下、「VR画像データ」と称する場合がある)を作成する処理である。   For example, volume rendering is known as a representative technique for creating a three-dimensional image. In this volume rendering, a predetermined line-of-sight direction (projection direction of projected light) is determined for volume data, ray-tracing processing is performed from an arbitrary viewpoint, and an integrated value or weight of a voxel value (luminance value, etc.) on the line of sight This is a process for generating volume rendering image data (hereinafter sometimes referred to as “VR image data”) by three-dimensionally extracting an organ or the like by outputting a cumulative addition value to an image pixel on the projection plane. .

また、ボリュームレンダリングの他に、用途によって、MPR(Multi Plane Reconstruction)処理、MIP(Maximum Intensity Projection)処理、又は、MinIP(Minimum Intensity Projection)処理などが施される。以下、MPR処理によって得られた画像データを「MPR画像データ」と称し、MIP処理によって得られた画像データを「MIP画像データ」と称し、MinIP処理によって得られた画像データを「MinIP画像データ」と称することにする。   In addition to volume rendering, MPR (Multi Plane Construction) processing, MIP (Maximum Intensity Projection) processing, or MinIP (Minimum Intensity Projection) processing, etc. are performed depending on the application. Hereinafter, image data obtained by MPR processing is referred to as “MPR image data”, image data obtained by MIP processing is referred to as “MIP image data”, and image data obtained by MinIP processing is referred to as “MinIP image data”. I will call it.

MPR処理は、ボリュームデータを切断する任意の平面(切断平面)の画像データを求める処理である。MIP処理は、投影光線によって貫かれた各ボクセル値から最大値を計算し、得られた最大値を投影面上の画像ピクセルに出力する処理である。また、MinIP処理は、各ボクセル値から最小値を計算し、得られた最小値を投影面上の画像ピクセルに出力する処理である。   The MPR process is a process for obtaining image data of an arbitrary plane (cut plane) for cutting the volume data. The MIP process is a process of calculating a maximum value from each voxel value penetrated by the projection light and outputting the obtained maximum value to an image pixel on the projection plane. The MinIP process is a process of calculating a minimum value from each voxel value and outputting the obtained minimum value to an image pixel on the projection plane.

また、MPR画像を用いる診断では、厚み方向に複数のMPR画像を加算して平均することによって厚み付きMPR画像データを作成し、その厚み付きMPR画像を参照して診断を行う場合もある。   In the diagnosis using the MPR image, there is a case where the MPR image data with thickness is created by adding and averaging a plurality of MPR images in the thickness direction, and the diagnosis is performed with reference to the MPR image with thickness.

例えば、造影剤を用いて大動脈の動脈癌を診断する場合、造影剤が注入された血管(大動脈)及び骨(アバラ骨や背骨など)のCT値の範囲(およそ200以上)については、オパシティ(不透明度)を「1」にしてボリュームレンダリングを行うことによりVR画像データを作成する。そして、VR画像を表示装置に表示し、大動脈の大まかな形状と周辺領域に存在する組織(骨)との位置関係などを把握する。   For example, when diagnosing arterial cancer of the aorta using a contrast medium, the CT value range (approximately 200 or more) of blood vessels (aorta) and bones (such as avalan bone and spine) into which a contrast medium has been injected VR image data is created by performing volume rendering with (opacity) set to “1”. Then, the VR image is displayed on the display device, and the positional relationship between the rough shape of the aorta and the tissue (bone) existing in the peripheral region is grasped.

次に、病変部位である動脈癌の径や血管の内径などを視覚的に又は定量的に把握するために、ボリュームデータに対してMPR処理やMIP処理などを施してMPR画像データやMIP画像データなどを作成し、MPR画像やMIP画像などを表示装置に表示して詳細な診断を行う。MIP画像等はCT値が反映されているため、病変部の詳細な診断に有用である。   Next, in order to visually or quantitatively grasp the diameter of the arterial cancer that is the lesion site, the inner diameter of the blood vessel, etc., the MPR image data or MIP image data is subjected to MPR processing or MIP processing on the volume data. And the like, and MPR images and MIP images are displayed on the display device for detailed diagnosis. MIP images and the like reflect CT values and are useful for detailed diagnosis of lesions.

病変部と周辺組織との位置関係の把握や形状の大まかな把握のために、VR画像を用いることは有用であるが、一般的に、病変部の詳細な診断には用いられない。通常、VR画像についてはカラー画像として着色して表示するため、VR画像そのものには実際のCT値が反映されていないからである。また、ボリュームレンダリングを行う際のオパシティ(不透明度)を調整しても、動脈癌と血管内部との領域の区別を視覚的に判断することは困難だからである。従って、病変部の詳細な診断を行う場合にはMIP画像やMPR画像が用いられ、VR画像は補助的な画像として用いられていた。   Although it is useful to use the VR image for grasping the positional relationship between the lesioned part and the surrounding tissue and for roughly grasping the shape, it is generally not used for detailed diagnosis of the lesioned part. This is because a VR image is usually colored and displayed as a color image, and the actual CT value is not reflected in the VR image itself. Further, even if the opacity (opacity) at the time of volume rendering is adjusted, it is difficult to visually determine the distinction between the region of arterial cancer and the inside of the blood vessel. Therefore, when making a detailed diagnosis of a lesion, an MIP image or an MPR image is used, and a VR image is used as an auxiliary image.

詳細な診断を行う場合は、病変部を表す厚み付きMPR画像やMIP画像などを表示装置に表示し、その厚み付きMPR画像やMIP画像上で動脈癌の径や血管の内径などを計測している。   When making a detailed diagnosis, display a thick MPR image or MIP image representing the lesion on a display device, and measure the diameter of the arterial cancer or the inner diameter of the blood vessel on the MPR image or MIP image with thickness. Yes.

しかしながら、MIP画像では、投影方向(表示装置の画面の奥行き方向に相当する)のCT値が反映されて表示されており、また、厚み付きMPR画像では、その厚さ方向について所定の領域の情報のみが表示される。従って、こられの画像では、病変部と周辺領域に存在する組織との位置関係が把握し難く、手術の計画に用いる画像には適さない。   However, in the MIP image, the CT value in the projection direction (corresponding to the depth direction of the screen of the display device) is reflected, and in the MPR image with thickness, information on a predetermined region in the thickness direction is displayed. Only displayed. Therefore, these images are difficult to grasp the positional relationship between the lesioned part and the tissue existing in the peripheral region, and are not suitable for images used for surgical planning.

従来においては、位置関係を把握する場合はVR画像を表示装置に表示し、病変部の詳細な診断を行う場合は、VR画像からMIP画像に切り換えて表示装置に表示していた。また、VR画像とMIP画像とを表示装置に並べて表示することで、位置関係の把握と病変部の詳細な診断とを行っていた。さらに、VR画像とMPR画像とを合成して表示装置に表示する試みがなされている(例えば特許文献1)。   Conventionally, when grasping the positional relationship, a VR image is displayed on the display device, and when performing detailed diagnosis of a lesion, the VR image is switched to the MIP image and displayed on the display device. In addition, the VR image and the MIP image are displayed side by side on the display device, thereby grasping the positional relationship and performing detailed diagnosis of the lesion. Furthermore, an attempt is made to synthesize a VR image and an MPR image and display them on a display device (for example, Patent Document 1).

特開平11−76228号公報Japanese Patent Laid-Open No. 11-76228

しかしながら、上述した従来技術に係る画像処理においては、MIP画像とVR画像とを表示装置に並べて表示したり、切り換えて表示したりしていたため、病変部の詳細な診断と、病変部についての位置関係の把握とを、別々の画面に表示された画像を観察しながら行う必要があった。そのため、医師などの診断者は、頭のなかでそれらの情報を整理しながら診断を行ったり、手術計画を作成したりする必要があったため、診断などが容易ではなかった。特に、従来技術に係る手法では、病変部と周辺組織との位置関係の把握が困難であった。   However, in the above-described conventional image processing, the MIP image and the VR image are displayed side by side or displayed on the display device, so that the detailed diagnosis of the lesioned part and the position of the lesioned part are performed. It was necessary to grasp the relationship while observing images displayed on separate screens. For this reason, a diagnosis person such as a doctor needs to make a diagnosis while organizing the information in his / her head or create an operation plan, so that the diagnosis is not easy. In particular, in the technique according to the prior art, it is difficult to grasp the positional relationship between the lesioned part and the surrounding tissue.

また、診断の際にMIP画像を使用する場合であって、注目する病変部の手前にCT値が近い骨などが存在する場合、その骨が病変部と重なって表示されてしまうため、病変部の観察が困難になる。   In addition, when a MIP image is used for diagnosis and there is a bone having a CT value close to the focused lesion, the bone is displayed overlapping the lesion. Observation becomes difficult.

この発明は上記の問題を解決するものであり、病変部と周辺組織との位置関係の把握を可能としつつ、病変部の詳細な画像を得ることが可能な画像処理装置、画像処理プログラム、及び画像処理方法を提供することを目的とする。   The present invention solves the above-described problem, an image processing apparatus capable of obtaining a detailed image of a lesioned part, an image processing program, and a grasping of a positional relationship between the lesioned part and surrounding tissue, and An object is to provide an image processing method.

請求項1に記載の発明は、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成手段と、前記ボリュームデータのうち前記所望の3次元関心領域、及び前記所定方向の視点から見て前記所望の3次元関心領域の前後の領域、以外の領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成手段と、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御手段と、を有することを特徴とする画像処理装置である。   In the first aspect of the invention, the volume data collected by the medical image diagnostic apparatus is projected onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Regions other than first image creation means for creating image data, the desired three-dimensional region of interest in the volume data, and regions before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction Is projected onto the projection plane to produce second 3D image data, an image based on the first 3D image data, and the second 3D image data An image processing apparatus comprising: a display control unit configured to superimpose an image on a display unit.

請求項13に記載の発明は、コンピュータに、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成機能と、前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成機能と、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御機能と、を実行させることを特徴とする画像処理プログラムである。   According to the thirteenth aspect of the present invention, the first three-dimensional region of interest is projected onto a projection plane viewed from a viewpoint in a predetermined direction on the volume data collected by the medical image diagnostic apparatus. A first image creation function for creating the three-dimensional image data, and excluding the desired three-dimensional region of interest from the volume data, and before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction A second image creation function for creating second 3D image data by projecting an area other than the area onto the projection plane, an image based on the first 3D image data, and the second 3D An image processing program for executing a display control function for superimposing an image based on dimensional image data and displaying the image on a display unit.

請求項14に記載の発明は、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成ステップと、前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成ステップと、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示ステップと、を含むことを特徴とする画像処理方法である。   According to the fourteenth aspect of the present invention, the first three-dimensional image is projected on the volume data collected by the medical image diagnostic apparatus by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction. A first image creation step for creating image data; and removing the desired three-dimensional region of interest from the volume data and viewing regions before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction A second image creating step of creating second 3D image data by projecting a region to be excluded onto the projection plane; an image based on the first 3D image data; and the second 3D image data A display step of superimposing an image based on the image and displaying the image on a display means.

この発明によると、関心領域に含まれる病変部については詳細な画像が得られ、さらに、病変部と周辺組織との位置関係についても容易に把握することが可能となる。   According to the present invention, a detailed image can be obtained for the lesioned part included in the region of interest, and the positional relationship between the lesioned part and the surrounding tissue can be easily grasped.

[第1の実施の形態]
この発明の第1の実施形態に係る画像処理装置の構成について図1を参照して説明する。図1は、この発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。
[First Embodiment]
The configuration of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention.

この実施形態に係る画像処理装置1は、X線CT装置、MRI装置、又は超音波診断装置などの医用画像診断装置にて収集されたボリュームデータに対して、ボリュームレンダリングやMPR処理やMIP処理などを施すことにより、VR画像データやMIP画像データなどを生成する。画像処理装置1は、医用画像診断装置内に設置されていても良く、医用画像診断装置の外部に設置されていても良い。   The image processing apparatus 1 according to this embodiment performs volume rendering, MPR processing, MIP processing, etc. on volume data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus. To generate VR image data, MIP image data, and the like. The image processing apparatus 1 may be installed in the medical image diagnostic apparatus or may be installed outside the medical image diagnostic apparatus.

ボリュームデータ記憶部5には、X線CT装置などの医用画像診断装置にて収集され、再構成されたボリュームデータ(ボクセルデータ)が記憶されている。画像処理装置1はボリュームデータ記憶部5に記憶されているボリュームデータに対して画像処理を施すことにより所望の画像データを作成する。   The volume data storage unit 5 stores volume data (voxel data) collected and reconstructed by a medical image diagnostic apparatus such as an X-ray CT apparatus. The image processing apparatus 1 creates desired image data by performing image processing on the volume data stored in the volume data storage unit 5.

入力部2は、マウスはキーボードなどの入力装置で構成されている。入力部2にて入力された操作情報は入力解析部3に出力される。   The input unit 2 includes an input device such as a keyboard as a mouse. The operation information input by the input unit 2 is output to the input analysis unit 3.

入力解析部3は、入力部2にて操作された操作内容を解読して、続いて行われる各種処理に必要なパラメータを算出する。例えば、表示部13に設定画面が表示されている状態で、その設定画面のボタンがマウス(入力部2)で押下されたり、表示部13に医用画像が表示されている状態で、その医用画像がマウス(入力部2)でドラッグされたりした場合に、入力解析部3はマウス(入力部2)による操作内容を解読して、続いて行われる各種処理に必要なパラメータを算出する。ここで、入力解析部2による具体的な処理について図2を参照して説明する。図2は、血管、周辺組織(骨)、及び表示部の画面の位置関係を説明するための模式図である。   The input analysis unit 3 decodes the operation content operated by the input unit 2 and calculates parameters necessary for various processes performed subsequently. For example, when the setting screen is displayed on the display unit 13, the button of the setting screen is pressed with the mouse (input unit 2), or the medical image is displayed on the display unit 13. Is dragged by the mouse (input unit 2), the input analysis unit 3 decodes the operation content by the mouse (input unit 2) and calculates parameters necessary for various processes to be performed subsequently. Here, specific processing by the input analysis unit 2 will be described with reference to FIG. FIG. 2 is a schematic diagram for explaining the positional relationship between the blood vessels, the surrounding tissues (bones), and the display unit screen.

2次元の関心領域(2DROI)の中心点を指定するモードにおいては、表示部13にVR画像が表示されている。そして、表示部13に表示されているVR画像上でマウス(入力部2)がクリックされると、入力解析部3は、そのクリックされた位置について、2次元の画面の座標系(直交座標系)における座標を求め、その座標を2DROIの中心点の座標とする。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)にて点14が指定されると、入力解析部3は、その点14を2DROIの中心点として、2次元の画面の座標系(直交座標系)における座標を求める。2DROIの中心点14の座標は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。   In the mode for designating the center point of the two-dimensional region of interest (2DROI), a VR image is displayed on the display unit 13. When the mouse (input unit 2) is clicked on the VR image displayed on the display unit 13, the input analysis unit 3 displays the two-dimensional screen coordinate system (orthogonal coordinate system) for the clicked position. ) Is determined, and the coordinates are set as the coordinates of the center point of the 2DROI. For example, as shown in FIG. 2, when a point 14 is designated with the mouse (input unit 2) on the screen 13 a of the display unit 13, the input analysis unit 3 uses the point 14 as a center point of 2DROI to 2 The coordinates in the coordinate system (orthogonal coordinate system) of the dimension screen are obtained. The coordinates of the center point 14 of the 2DROI are output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6.

2次元の関心領域(2DROI)の形状を指定するモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのドラッグされた範囲の形状及び大きさを2DROIの形状及び大きさとする。また、大きさについては、2DROIの形状が円形の場合、入力解析部3はその円の半径を求め、矩形状の場合は、矩形の各頂点の座標を求める。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)がドラッグされることにより2DROI15が描画されると、入力解析部3は、2DROI15の形状及び大きさを求める。図2に示す例においては、2DROI15の形状は円形であるため、入力解析部3はその円の半径を求める。2DROI15の形状及び大きさを示す情報は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。   In the mode for designating the shape of the two-dimensional region of interest (2DROI), when the mouse (input unit 2) is dragged on the VR image displayed on the display unit 13, the input analysis unit 3 is dragged. The shape and size of the selected range are set as the shape and size of the 2DROI. As for the size, when the 2DROI shape is a circle, the input analysis unit 3 obtains the radius of the circle, and when the shape is a rectangle, obtains the coordinates of each vertex of the rectangle. For example, as shown in FIG. 2, when the 2DROI 15 is drawn by dragging the mouse (input unit 2) on the screen 13 a of the display unit 13, the input analysis unit 3 obtains the shape and size of the 2DROI 15. . In the example shown in FIG. 2, since the shape of the 2DROI 15 is circular, the input analysis unit 3 obtains the radius of the circle. Information indicating the shape and size of the 2DROI 15 is output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6.

3次元の関心領域(3DROI)の投影方向の厚さを変更するモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのマウスの移動量に応じた厚さを、3次元関心領域(3DROI)の投影方向の厚さとする。例えば、厚み付きMPR画像の厚さを変更する場合、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのマウスの移動量に応じた厚さを、厚み付きMPR画像を作成する際の範囲とする。3DROIの投影方向への厚さを示す情報は、ROI情報算出部4に出力される。   In the mode of changing the thickness in the projection direction of the three-dimensional region of interest (3DROI), when the mouse (input unit 2) is dragged on the VR image displayed on the display unit 13, the input analysis unit 3 The thickness according to the amount of movement of the mouse is set as the thickness in the projection direction of the three-dimensional region of interest (3DROI). For example, when changing the thickness of the MPR image with thickness, when the mouse (input unit 2) is dragged on the VR image displayed on the display unit 13, the input analysis unit 3 determines the amount of movement of the mouse. The corresponding thickness is set as a range for creating the MPR image with thickness. Information indicating the thickness of the 3DROI in the projection direction is output to the ROI information calculation unit 4.

2DROIを表示部13の画面上で移動させるモードにおいては、表示部13に表示されている2DROI15内でマウス(入力部2)がドラッグされると、入力解析部3は、2次元画面の座標系(直交座標系)における2DROIの中心点の座標を求める。例えば、図2に示すように、表示部13の画面13aに表示されている2DROI15内でマウス(入力部2)がドラッグされて2DROI15が移動させられると、入力解析部3は、2次元の画面の座標系における2DROI15の新たな中心点14の座標を求める。新たな中心点14の座標は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。   In the mode in which the 2DROI is moved on the screen of the display unit 13, when the mouse (input unit 2) is dragged within the 2DROI 15 displayed on the display unit 13, the input analysis unit 3 displays the coordinate system of the two-dimensional screen. The coordinates of the center point of 2DROI in (orthogonal coordinate system) are obtained. For example, as shown in FIG. 2, when the 2DROI 15 is moved by dragging the mouse (input unit 2) in the 2DROI 15 displayed on the screen 13a of the display unit 13, the input analysis unit 3 is displayed on the two-dimensional screen. The coordinates of the new center point 14 of the 2DROI 15 in the coordinate system are obtained. The coordinates of the new center point 14 are output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6.

表示部13に表示されているVR画像を回転させて表示させるモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、VR画像データの回転行列を求める。回転行例を示す情報は表示条件記憶部8に出力されて記憶される。   In the mode in which the VR image displayed on the display unit 13 is rotated and displayed, when the mouse (input unit 2) is dragged on the VR image displayed on the display unit 13, the input analysis unit 3 A rotation matrix of VR image data is obtained. Information indicating a rotation row example is output to and stored in the display condition storage unit 8.

または、表示部13に表示されているオパシティカーブをマウス(入力部2)でドラッグすると、入力解析部3はボリュームレンダリングにおけるオパシティカーブ値を求める。オパシティカーブ値はVR条件記憶部7に出力されて記憶される。   Alternatively, when the opacity curve displayed on the display unit 13 is dragged with the mouse (input unit 2), the input analysis unit 3 obtains an opacity curve value in volume rendering. The opacity curve value is output to and stored in the VR condition storage unit 7.

上記の各モードの変更については、表示部13に表示されている設定画面のモード指定ボタンを押下することにより、所望のモードを選択することができる。また、あるモードにおける入力や処理などが完了すると、自動的に次のモードが実行されるようにしても良い。さらに、マウス(入力部2)に設置されている複数のボタンを組み合わせ、異なる組み合わせに各モードの実行を割り当てておき、その組み合わせに従ってボタンを押下することで各モードを実行するようにしても良い。   Regarding the change of each mode, a desired mode can be selected by pressing a mode designation button on the setting screen displayed on the display unit 13. Further, when input or processing in a certain mode is completed, the next mode may be automatically executed. Further, a plurality of buttons installed on the mouse (input unit 2) may be combined, execution of each mode may be assigned to a different combination, and each mode may be executed by pressing the button according to the combination. .

ROI情報算出部4は、入力解析部3から2DROIの中心点14の座標、2DROIの形状及び大きさを示す情報を受けて、3次元関心領域(3DROI)のボリューム座標系(直交座標系)における位置、3DROIの形状及び大きさを求める。つまり、ROI情報算出部4は3DROIの位置及び範囲を求める。   The ROI information calculation unit 4 receives information indicating the coordinates of the center point 14 of the 2DROI and the shape and size of the 2DROI from the input analysis unit 3, and in the volume coordinate system (orthogonal coordinate system) of the three-dimensional region of interest (3DROI). Determine the position and shape and size of the 3DROI. That is, the ROI information calculation unit 4 obtains the position and range of the 3D ROI.

ROI情報算出部4における処理について図3を参照して説明する。図3は、3次元関心領域(3DROI)の範囲を求める処理を説明するための模式図である。ROI情報算出部4は、ボリュームデータにおいて、オパシティ(不透明度)が所定値以上(例えば0.8以上)に設定された領域を基準として3DROIの範囲を求める。ここでは、造影剤が注入された血管16が所定値以上のオパシティ(不透明度)が設定されているものとする。また、所定値以上のオパシティ(不透明度)が設定されている組織を、「不透明な組織」と称する場合がある。   Processing in the ROI information calculation unit 4 will be described with reference to FIG. FIG. 3 is a schematic diagram for explaining processing for obtaining a range of a three-dimensional region of interest (3DROI). The ROI information calculation unit 4 obtains a 3D ROI range based on an area in which the opacity (opacity) is set to a predetermined value or more (eg, 0.8 or more) in the volume data. Here, it is assumed that an opacity (opacity) greater than or equal to a predetermined value is set for the blood vessel 16 into which the contrast agent has been injected. In addition, an organization in which an opacity (opacity) greater than a predetermined value is set may be referred to as an “opaque organization”.

ROI情報算出部4は、2DROI15の中心点14を、投影方向(画面の奥行き方向に相当する)に投影し、その投影方向に存在する不透明な組織(血管16)の中心点Pを3DROIの中心点とし、ボリューム座標系での中心点Pの座標を求める。つまり、ROI情報算出部4は、2DROI15の中心点14を投影方向に投影し、その投影方向に存在する、オパシティ(不透明度)の値が例えば0.8以上に設定された範囲の中心点Pを3DROIの中心点とする。また、図3に示す例においては、オパシティ(不透明度)が0.8以上に設定された範囲、つまり不透明な組織(血管16)の投影方向の厚さを厚さL1とする。   The ROI information calculation unit 4 projects the center point 14 of the 2DROI 15 in the projection direction (corresponding to the depth direction of the screen), and the center point P of the opaque tissue (blood vessel 16) existing in the projection direction is the center of the 3DROI. The coordinates of the center point P in the volume coordinate system are obtained as points. That is, the ROI information calculation unit 4 projects the center point 14 of the 2D ROI 15 in the projection direction, and the center point P in the range in which the value of opacity (opacity) existing in the projection direction is set to 0.8 or more, for example. Is the center point of the 3DROI. In the example shown in FIG. 3, the thickness in the range in which the opacity (opacity) is set to 0.8 or more, that is, the thickness of the opaque tissue (blood vessel 16) in the projection direction is defined as the thickness L1.

さらに、ROI情報算出部4は3DROIの形状及び大きさを決定する。図3に示す例においては、3DROI18の形状は円柱状の形状をなしている。表示部13の画面13a上に描画された2DROI15の形状が円形状であるため、その円形状の2DROI15を投影方向(画面の奥行き方向)に投影することで円柱状が形成される。そして、投影方向の厚さが決定されることで、3DROI18の形状及び大きさが決定される。ここで、ROI情報算出部4は、3DROI18の投影方向(画面の奥行き方向)の厚さL2を、不透明な組織(血管16)の投影方向の厚さL1以上の厚さとする。この3DROI18の投影方向の厚さL2は、操作者によって任意に決定することができる。   Further, the ROI information calculation unit 4 determines the shape and size of the 3D ROI. In the example shown in FIG. 3, the shape of the 3DROI 18 is a cylindrical shape. Since the shape of the 2DROI 15 drawn on the screen 13a of the display unit 13 is a circular shape, a cylindrical shape is formed by projecting the circular 2DROI 15 in the projection direction (the depth direction of the screen). Then, by determining the thickness in the projection direction, the shape and size of the 3DROI 18 are determined. Here, the ROI information calculation unit 4 sets the thickness L2 in the projection direction (depth direction of the screen) of the 3DROI 18 to be equal to or greater than the thickness L1 in the projection direction of the opaque tissue (blood vessel 16). The thickness L2 in the projection direction of the 3DROI 18 can be arbitrarily determined by the operator.

3DROI18の投影方向の厚さL2をROI情報算出部4が自動的に決定する場合は、以下の式にて厚さL2を求める。
3DROIの厚さL2=厚さL1×係数k
ここで、係数kは予め決定された定数であり、例えばk=1.5などの値が用いられる。
When the ROI information calculation unit 4 automatically determines the thickness L2 in the projection direction of the 3DROI 18, the thickness L2 is obtained by the following equation.
3DROI thickness L2 = thickness L1 × factor k
Here, the coefficient k is a predetermined constant, and for example, a value such as k = 1.5 is used.

図3に示す3DROIの形状は円柱状であったが、円柱以外の形状であっても良い。例えば、表示部13の画面13a上に描画された2DROIの形状が矩形状であった場合は、3DROIの形状は角柱状となる。また、図6の模式図に示すように、3DROI18Aの形状を球状としても良い。3DROIの中心の座標の算出方法など、上述した方法と同じである。3DROI18Aは球状の形状をなしているため、投影方向の厚さL2は3DROI18Aの直径となる。   The shape of the 3DROI shown in FIG. 3 is a cylindrical shape, but may be a shape other than a cylindrical shape. For example, when the 2DROI shape drawn on the screen 13a of the display unit 13 is a rectangular shape, the 3DROI shape is a prismatic shape. Further, as shown in the schematic diagram of FIG. 6, the shape of the 3DROI 18A may be spherical. This is the same as the method described above, such as a method for calculating the coordinates of the center of the 3DROI. Since the 3DROI 18A has a spherical shape, the thickness L2 in the projection direction is the diameter of the 3DROI 18A.

以上のようにして求められた、3DROI18の中心点Pの座標、3DROIの形状を示す情報、及び3DROIの大きさを示す情報は、ROI情報記憶部6に出力されて記憶される。   The coordinates of the center point P of the 3DROI 18 obtained as described above, information indicating the shape of the 3DROI, and information indicating the size of the 3DROI are output and stored in the ROI information storage unit 6.

ROI情報記憶部6には、入力解析部2及びROI情報算出部4にて求められた関心領域(ROI)に関する情報が記憶されている。例えば、ROI情報算出部4にて求められた、3DROIの中心点Pについてボリューム座標系における座標、3DROIの形状を示す情報(例えば円柱状など)、及び、3DROIの大きさを示す情報がROI情報記憶部6に記憶される。3DROIの大きさを示す情報として、3DROIの投影方向(画面の奥行き方向)への厚さL2が記憶される。また、入力解析部2にて求められた、2DROIの中心点の座標、2DROIの形状及び大きさを示す情報(例えば、円形状の2DROIであれば、その円の半径など)が記憶される。   The ROI information storage unit 6 stores information about the region of interest (ROI) obtained by the input analysis unit 2 and the ROI information calculation unit 4. For example, the coordinates of the 3DROI center point P obtained by the ROI information calculation unit 4 in the volume coordinate system, information indicating the shape of the 3DROI (for example, a cylindrical shape), and information indicating the size of the 3DROI are ROI information. It is stored in the storage unit 6. As information indicating the size of the 3DROI, a thickness L2 in the 3DROI projection direction (the depth direction of the screen) is stored. Further, the coordinates of the center point of the 2DROI obtained by the input analysis unit 2 and information indicating the shape and size of the 2DROI (for example, the radius of the circle in the case of a circular 2DROI) are stored.

VR条件記憶部7には、入力部2にて指定されて入力解析部3にて求められた、ボリュームレンダリングに用いられるオパシティカーブ値が記憶される。   The VR condition storage unit 7 stores an opacity curve value used for volume rendering, which is specified by the input unit 2 and obtained by the input analysis unit 3.

表示条件記憶部8には、入力部2にて指定されて入力解析部3にて求められた、ボリュームデータの回転行列が記憶される。   The display condition storage unit 8 stores a rotation matrix of volume data specified by the input unit 2 and obtained by the input analysis unit 3.

2DROI画像データ作成部9は、ROI情報記憶部6に記憶されている2DROIの形状を示す情報(円形状の2DROIであれば、その円の半径など)に基づいて表示部13で表示するための2DROI画像データを作成する。   The 2DROI image data creation unit 9 displays information on the display unit 13 based on information indicating the shape of the 2DROI stored in the ROI information storage unit 6 (for a circular 2DROI, the radius of the circle). Create 2DROI image data.

VR画像データ作成部10は、ボリュームデータ記憶部5から操作者によって指定されたボリュームデータを読み込み、さらに、ROI情報記憶部6から3DROIの中心位置の座標、3DROIの形状を示す情報、及び、3DROIの大きさを示す情報を読み込み、ボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。   The VR image data creation unit 10 reads the volume data designated by the operator from the volume data storage unit 5, and further, the coordinates of the center position of the 3DROI, the information indicating the shape of the 3DROI, and the 3DROI from the ROI information storage unit 6 The VR image data is created by reading the information indicating the size of the image and performing volume rendering on the volume data.

VR画像データ作成部10は、ボリュームデータのうち3DROI18が占める領域を除くとともに、投影方向(画面の奥行き方向)の視点から見て、3DROI18の前後の領域を除く領域を対象としてボリュームレンダリングを行う。つまり、3DROI18に含まれるボリュームデータ、及び、投影方向(画面の奥行き方向)における3DROI18の前後に存在するボリュームデータに対してはボリュームレンダリングを行わず、その他の領域にあるボリュームデータに対してボリュームレンダリングを施す。これにより、3DROI18が占める領域、及び投影方向(画面の奥行き方向)における3DROI18の前後の領域を含まないVR画像データが作成されることになる。なお、VR画像データ作成部10が、この発明の「第2の画像作成手段」の1例として機能する。VR画像データは表示制御部12に出力される。   The VR image data creation unit 10 performs volume rendering for the area excluding the area before and after the 3DROI 18 from the viewpoint of the projection direction (the depth direction of the screen), as well as excluding the area occupied by the 3DROI 18 from the volume data. That is, volume rendering is not performed for volume data included in the 3DROI 18 and volume data existing before and after the 3DROI 18 in the projection direction (depth direction of the screen), and volume rendering is performed for volume data in other areas. Apply. Thus, VR image data that does not include the area occupied by the 3DROI 18 and the areas before and after the 3DROI 18 in the projection direction (the depth direction of the screen) is created. The VR image data creation unit 10 functions as an example of the “second image creation unit” of the present invention. The VR image data is output to the display control unit 12.

なお、ROI情報記憶部6に3DROIに関する情報が存在しなければ、VR画像データ作成部10は、ボリュームデータ全体に対してボリュームレンダリングを施すことにより、ボリュームデータ全体のVR画像データを作成する。   If there is no information related to 3DROI in the ROI information storage unit 6, the VR image data creation unit 10 creates VR image data of the entire volume data by performing volume rendering on the entire volume data.

MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、さらに、ROI情報記憶部6から3DROIの中心位置の座標、3DROIの形状を示す情報、及び3DROIの大きさを示す情報を読み込み、3DROI内に存在するボリュームデータを対象としてMIP処理を施すことによりMIP画像データを作成する。このMIP画像データ作成部11が、この発明の「第1の画像作成手段」の1例として機能する。MIP画像データは表示制御部12に出力される。   The MIP image data creation unit 11 reads the volume data from the volume data storage unit 5, and further receives information indicating the coordinates of the center position of the 3DROI, information indicating the shape of the 3DROI, and information indicating the size of the 3DROI from the ROI information storage unit 6. The MIP image data is created by reading and performing MIP processing on the volume data existing in the 3DROI. The MIP image data creation unit 11 functions as an example of the “first image creation unit” of the present invention. The MIP image data is output to the display control unit 12.

具体的には、MIP画像データ作成部11は、図3に示すように、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。   Specifically, as shown in FIG. 3, the MIP image data creation unit 11 creates MIP image data by performing MIP processing for the inside of the 3DROI 18.

また、MIP画像データ作成部11は、MIP処理を行う代わりに、3DROI18が占める範囲を対象として、MinIP処理を施すことによりMinIP画像データを作成したり、MPR処理を施すことによりMPR画像データを作成したり、厚み付きMPR画像データを作成したりしても良い。   Further, the MIP image data creation unit 11 creates MinIP image data by performing MinIP processing for the range occupied by the 3DROI 18 instead of performing MIP processing, or creates MPR image data by performing MPR processing. It is also possible to create MPR image data with thickness.

なお、ROI情報記憶部6に3DROIに関連する情報が存在しない場合は、MIP画像データ作成部11はMIP処理やMPR処理などを行うことはない。   If there is no information related to 3DROI in the ROI information storage unit 6, the MIP image data creation unit 11 does not perform MIP processing or MPR processing.

表示制御部12は、2DROI画像データ、VR画像データ、及びMIP画像データを重ねて表示部13の画面13a上に表示させる。このとき、MIP画像が作成されていれば、表示制御部12はVR画像とMIP画像とを重畳させて表示部13に表示させる。一方、MIP画像が作成されていない場合は、VR画像のみが表示部13に表示されることになる。また、MIP画像データ作成部11にて、MIP画像データの代わりに、MinIP画像データ、MPR画像データ、又は厚み付きMPR画像データが作成されていた場合は、表示制御部12はそれらの画像とVR画像とを重畳させて表示部13に表示させる。   The display control unit 12 superimposes the 2DROI image data, the VR image data, and the MIP image data on the screen 13a of the display unit 13. At this time, if an MIP image has been created, the display control unit 12 causes the display unit 13 to display the VR image and the MIP image in a superimposed manner. On the other hand, when the MIP image is not created, only the VR image is displayed on the display unit 13. When the MIP image data creation unit 11 creates MinIP image data, MPR image data, or MPR image data with thickness instead of the MIP image data, the display control unit 12 displays the images and VRs. The image is superimposed on the image and displayed on the display unit 13.

表示部13は、液晶ディスプレイやCRTなどで構成されており、VR画像や、VR画像とMIP画像との重畳画像などを表示する。   The display unit 13 is configured by a liquid crystal display, a CRT, or the like, and displays a VR image, a superimposed image of the VR image and the MIP image, and the like.

画像処理装置1は、画像処理プログラムを読み込むことにより、入力解析部3の機能、ROI情報算出部4の機能、画像処理部に属する2DROI画像データ作成部9の機能、VR画像データ作成部10の機能、及びMIP画像データ作成部11の機能を実行する。   The image processing apparatus 1 reads the image processing program, thereby functioning the input analysis unit 3, function of the ROI information calculation unit 4, function of the 2DROI image data creation unit 9 belonging to the image processing unit, and function of the VR image data creation unit 10. The function and the function of the MIP image data creation unit 11 are executed.

(作用)
次に、この発明の第1の実施形態に係る画像処理装置の動作(画像処理方法)について図4を参照して説明する。図4は、この発明の第1の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。
(Function)
Next, the operation (image processing method) of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operations of the image processing apparatus according to the first embodiment of the present invention in order.

画像処理装置1による処理を行う前提として、X線CT装置などの医用画像診断装置にて被検体のボリュームデータを予め収集して、そのボリュームデータをボリュームデータ記憶部5に記憶しておく。ここでは1例として、被検体の血管に造影剤を注入した状態でスキャンを行ない、造影剤が注入された血管を観察する場合について説明する。   As a premise for performing processing by the image processing apparatus 1, volume data of a subject is collected in advance by a medical image diagnostic apparatus such as an X-ray CT apparatus, and the volume data is stored in the volume data storage unit 5. Here, as an example, a case will be described in which a scan is performed in a state where a contrast medium is injected into a blood vessel of a subject, and a blood vessel into which the contrast medium is injected is observed.

(ステップS01)
まず、ステップS01では、操作者が入力部2を用いて、造影剤が注入された血管及び骨のCT値の範囲(およそ200以上)が不透明となるようにオパシティ(不透明度)を設定する。
(Step S01)
First, in step S01, the operator uses the input unit 2 to set an opacity (opacity) so that the CT value range (approximately 200 or more) of the blood vessel and bone into which the contrast medium has been injected becomes opaque.

(ステップS02)
ステップS02では、VR画像データ作成部10がボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、VR画像データ作成部10は、ステップS01にて設定されたオパシティ(不透明度)でボリュームレンダリングを施し、VR画像データを作成する。ステップS01では、操作者が入力部2を用いてオパシティ(不透明度)を設定し、VR画像データ作成部10はそのオパシティ(不透明度)を用いてボリュームレンダリングを行ったが、予め設定されて画像処理装置1に記憶されているオパシティ(不透明度)を用いてボリュームレンダリングを行っても良い。
(Step S02)
In step S02, the VR image data creation unit 10 reads the volume data from the volume data storage unit 5, and creates VR image data by performing volume rendering on the volume data. At this time, the VR image data creation unit 10 performs volume rendering with the opacity (opacity) set in step S01 to create VR image data. In step S01, the operator uses the input unit 2 to set an opacity (opacity), and the VR image data creation unit 10 performs volume rendering using the opacity (opacity). Volume rendering may be performed using the opacity (opacity) stored in the processing device 1.

VR画像データは表示制御部12に出力され、表示制御部12はそのVR画像データに基づくVR画像を表示部13に表示させる。血管や骨が不透明となるようにオパシティ(不透明度)が設定されているため、表示部13には血管や骨を表すVR画像が表示され、操作者は血管や骨を観察することができる。   The VR image data is output to the display control unit 12, and the display control unit 12 causes the display unit 13 to display a VR image based on the VR image data. Since the opacity (opacity) is set so that the blood vessels and bones are opaque, a VR image representing the blood vessels and bones is displayed on the display unit 13, and the operator can observe the blood vessels and bones.

(ステップS03)
ステップS03では、操作者が表示部13に表示されているVR画像を観察しながら、病変部を指定する。ここでは、造影剤が注入された血管に病変部が存在する場合について説明する。操作者は入力部2(マウス)を用いて表示部13の画面上の病変部をクリックする。例えば、骨と血管とが重なって表示部13に表示され、かつ、血管の手前に骨が存在する場合は、血管を観察できるようにVR画像を回転させて表示部13に表示させる。そして、血管が表示されている状態で、操作者はマウス(入力部2)を用いて血管上の病変部を指定する。
(Step S03)
In step S03, the operator designates a lesioned part while observing the VR image displayed on the display unit 13. Here, a case where a lesion is present in a blood vessel into which a contrast agent has been injected will be described. The operator uses the input unit 2 (mouse) to click a lesion on the screen of the display unit 13. For example, when a bone and a blood vessel overlap each other and are displayed on the display unit 13 and a bone is present in front of the blood vessel, the VR image is rotated and displayed on the display unit 13 so that the blood vessel can be observed. Then, in a state where the blood vessel is displayed, the operator designates a lesion on the blood vessel using the mouse (input unit 2).

(ステップS04)
ステップS04では、入力解析部3が2次元の画面の座標系(直交座標系)における、クリックされた位置の座標を求め、この座標を2DROIの中心の座標とする。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)にて2DROIの中心点14がクリックされると、入力解析部3は、その中心点14について、2次元の画面の座標系(直交座標系)における座標を求める。2DROIの中心点14の座標は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
(Step S04)
In step S04, the input analysis unit 3 obtains the coordinates of the clicked position in the coordinate system (orthogonal coordinate system) of the two-dimensional screen, and uses these coordinates as the coordinates of the center of the 2DROI. For example, as shown in FIG. 2, when the center point 14 of the 2DROI is clicked with the mouse (input unit 2) on the screen 13a of the display unit 13, the input analysis unit 3 performs two-dimensional analysis on the center point 14. The coordinates in the screen coordinate system (orthogonal coordinate system) are obtained. The coordinates of the center point 14 of the 2DROI are output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6.

操作者によって中心点14が指定されると、表示制御部12はその中心点14を中心とした円形状のデフォルトの2DROI15を表示部13の画面13a上に表示させる。この2DROI15の形状及び大きさは操作者によって変えることができる。この場合、操作者がマウス(入力部2)をドラッグすると、入力解析部3は、そのドラッグされた範囲の形状及び大きさを2DROIの形状及び大きさとする。2DROI15の形状及び大きさを示す情報は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。また、2DROI15を移動させた場合は、入力解析部3は、画面の座標系(直交座標系)における2DROI15の新たな中心点14の座標を算出する。この新たな中心点14の座標は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。   When the center point 14 is designated by the operator, the display control unit 12 displays a circular default 2DROI 15 centered on the center point 14 on the screen 13 a of the display unit 13. The shape and size of the 2DROI 15 can be changed by the operator. In this case, when the operator drags the mouse (input unit 2), the input analysis unit 3 sets the shape and size of the dragged range as the shape and size of the 2DROI. Information indicating the shape and size of the 2DROI 15 is output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6. When the 2DROI 15 is moved, the input analysis unit 3 calculates the coordinates of the new center point 14 of the 2DROI 15 in the screen coordinate system (orthogonal coordinate system). The coordinates of the new center point 14 are output to the ROI information calculation unit 4 and the ROI information storage unit 6 and stored in the ROI information storage unit 6.

(ステップS05)
ステップS05では、ROI情報算出部4が3次元関心領域(3DROI)の中心の座標を求める。ROI情報算出部4は、入力解析部3から2DROI15の中心点14の座標を受けて、3DROIの中心の座標を求める。具体的には、ROI情報算出部4は、図3に示すように、2DROI15の中心点14を、投影方向(画面の奥行き方向)に投影し、その投影方向に存在する不透明な組織(血管16)の中心点Pを3DROIの中心点とし、その中心点Pのボリューム座標系(直交座標系)での座標を求める。ここでは、オパシティ(不透明度)が所定値(例えば0.8以上)に設定された範囲を不透明な組織とし、血管16がその範囲に含まれる。3DROIの中心の座標は、ROI情報記憶部6に出力されて記憶される。
(Step S05)
In step S05, the ROI information calculation unit 4 obtains the coordinates of the center of the three-dimensional region of interest (3DROI). The ROI information calculation unit 4 receives the coordinates of the center point 14 of the 2DROI 15 from the input analysis unit 3 and obtains the coordinates of the center of the 3DROI. Specifically, as shown in FIG. 3, the ROI information calculation unit 4 projects the center point 14 of the 2DROI 15 in the projection direction (the depth direction of the screen), and an opaque tissue (blood vessel 16) existing in the projection direction. ) Is determined as the 3DROI center point, and the coordinates of the center point P in the volume coordinate system (orthogonal coordinate system) are obtained. Here, a range in which the opacity (opacity) is set to a predetermined value (for example, 0.8 or more) is set as an opaque tissue, and the blood vessel 16 is included in the range. The coordinates of the center of the 3DROI are output to and stored in the ROI information storage unit 6.

(ステップS06)
ステップS06では、ROI情報算出部4が3DROIの形状及び大きさを決定することで3DROIの範囲を決定する。図3に示すように、表示部13の画面13a上に描画された2DROI15の形状が円形状であるため、ROI情報算出部4は、その円形状の2DROI15を投影方向(画面の奥行き方向)に投影することで円柱状を形成する。そして、投影方向の厚さL2が決定されることで、3DROI18の形状及び大きさが決定される。
(Step S06)
In step S06, the ROI information calculation unit 4 determines the 3DROI range by determining the shape and size of the 3DROI. As shown in FIG. 3, since the shape of the 2DROI 15 drawn on the screen 13a of the display unit 13 is circular, the ROI information calculation unit 4 projects the circular 2DROI 15 in the projection direction (the depth direction of the screen). A cylindrical shape is formed by projection. Then, by determining the thickness L2 in the projection direction, the shape and size of the 3DROI 18 are determined.

3DROI18の投影方向の厚さL2については、操作者によって任意に指定されても良く、ROI情報算出部4が自動的に決定しても良い。自動的に決定する場合は、図3に示すように不透明な組織(血管16)の投影方向の厚さを厚さL1とした場合、ROI情報算出部4は、3DROI18の厚さL2を式「厚さL2=厚さL1×係数k」によって求める。   The thickness L2 in the projection direction of the 3DROI 18 may be arbitrarily specified by the operator, or the ROI information calculation unit 4 may automatically determine it. In the case of automatic determination, when the thickness in the projection direction of the opaque tissue (blood vessel 16) is set to the thickness L1, as shown in FIG. 3, the ROI information calculation unit 4 calculates the thickness L2 of the 3DROI 18 using the formula “ Thickness L2 = thickness L1 × coefficient k ”.

以上のように3DROI18の範囲(形状及び大きさ)が決定されると、3DROI18の範囲を示す情報(形状及び大きさ)は、ROI情報記憶部6に出力されて記憶される。   When the range (shape and size) of the 3DROI 18 is determined as described above, information (shape and size) indicating the range of the 3DROI 18 is output to and stored in the ROI information storage unit 6.

(ステップS07)
ステップS07では、2DROI画像データ作成部9はROI情報記憶部6から2DROIの形状及び大きさを示す情報を読み込んで、その情報に基づいて2DROI画像データを作成する。
(Step S07)
In step S07, the 2DROI image data creation unit 9 reads information indicating the shape and size of the 2DROI from the ROI information storage unit 6, and creates 2DROI image data based on the information.

またステップS07では、VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込んで、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、ROI情報記憶部6に記憶されている3DROI18の中心点Pの座標、3DROI18の範囲を示す情報(形状及び大きさ)を読み込む。そして、VR画像データ作成部10は、ボリュームデータのうち3DROI18が占める領域を除くとともに、投影方向(画面の奥行き方向)の視点から見て、3DROI18の前後の領域を除く領域を対象としてボリュームレンダリングを行う。これにより、3DROI18が占める領域、及び投影方向(画面の奥行き方向)における3DROI18の前後の領域を含まないVR画像データが作成されることになる。   In step S07, the VR image data creation unit 10 reads the volume data from the volume data storage unit 5, and creates the VR image data by performing volume rendering on the volume data. At this time, information (shape and size) indicating the coordinates of the center point P of the 3DROI 18 and the range of the 3DROI 18 stored in the ROI information storage unit 6 is read. Then, the VR image data creation unit 10 removes the area occupied by the 3DROI 18 from the volume data, and performs volume rendering for the area excluding the areas before and after the 3DROI 18 from the viewpoint of the projection direction (the depth direction of the screen). Do. Thus, VR image data that does not include the area occupied by the 3DROI 18 and the areas before and after the 3DROI 18 in the projection direction (the depth direction of the screen) is created.

さらにステップS07では、MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、ROI情報記憶部6から3DROI18の中心点P
の座標、及び3DROI18の範囲を示す情報(形状及び大きさ)を読み込み、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。具体的には、図3に示すように、MIP画像データ作成部11は、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。なお、MIP処理の代わりに、MinIP処理、MPR処理、又は厚み付きMPR処理を行っても良い。
Further, in step S07, the MIP image data creation unit 11 reads the volume data from the volume data storage unit 5 and the center point P of the 3DROI 18 from the ROI information storage unit 6.
Are read and information (shape and size) indicating the range of 3DROI 18 is read, and MIP processing is performed on the inside of 3DROI 18 to create MIP image data. Specifically, as shown in FIG. 3, the MIP image data creation unit 11 creates MIP image data by performing MIP processing for the inside of the 3DROI 18. Note that MinIP processing, MPR processing, or MPR processing with thickness may be performed instead of MIP processing.

(ステップS08)
ステップS08では、表示制御部12が、2DROI画像データに基づく2DROI画像、VR画像データに基づくVR画像、及びMIP画像データに基づくMIP画像を重畳させて表示部13に表示させる。これにより、表示部13の画面には、VR画像上にMIP画像が重ねられて表示され、さらに2DROIマーカが表示される。
(Step S08)
In step S08, the display control unit 12 causes the display unit 13 to superimpose a 2DROI image based on the 2DROI image data, a VR image based on the VR image data, and an MIP image based on the MIP image data. As a result, the MIP image is superimposed on the VR image and displayed on the screen of the display unit 13, and a 2DROI marker is further displayed.

重畳表示された画像について図5を参照して説明する。図5は、この発明の第1の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。表示部13の画面13a上には、VR画像21、MIP画像22、及び2DROI画像23が重畳されて表示されている。VR画像21には骨と造影剤が注入された血管とが表されており、MIP画像22には造影剤が注入された血管のうち3DROI18内に存在する血管が表されている。3DROI18内に存在する血管の手前側には骨が存在するが、3DROI18と重なる範囲については、ボリュームレンダリングが行われていないため、3DROI18内に存在する血管の手前側に存在する骨については描画されることはない。   The superimposed image will be described with reference to FIG. FIG. 5 is a diagram showing an image superimposed and displayed by the image processing apparatus according to the first embodiment of the present invention. On the screen 13a of the display unit 13, a VR image 21, a MIP image 22, and a 2DROI image 23 are superimposed and displayed. The VR image 21 shows bones and blood vessels injected with a contrast agent, and the MIP image 22 shows blood vessels present in the 3DROI 18 among blood vessels injected with a contrast agent. Bone is present on the front side of the blood vessel existing in 3DROI 18, but volume rendering is not performed on the range overlapping with 3DROI 18, so the bone existing on the front side of the blood vessel existing in 3DROI 18 is drawn. Never happen.

以上のように、3DROI18に含まれる領域についてはMIP処理が施されて、詳細な診断に適したMIP画像22が表示され、3DROI18の前後に存在する領域についてはボリュームレンダリングが施されないため、3DROI18内に存在する病変部の詳細な画像を観察することが可能となる。また、病変部の周辺組織についてはVR画像21として表示されるため、病変部と周辺組織との位置関係を容易に把握することが可能となる。これにより、病変部の詳細な診断を行いつつ、病変部と周辺組織との位置関係を容易に把握することが可能となる。   As described above, the MIP process is performed on the area included in the 3DROI 18 to display the MIP image 22 suitable for detailed diagnosis, and the volume rendering is not performed on the areas existing before and after the 3DROI 18. It is possible to observe a detailed image of a lesion existing in Further, since the surrounding tissue of the lesioned part is displayed as the VR image 21, it is possible to easily grasp the positional relationship between the lesioned part and the surrounding tissue. This makes it possible to easily grasp the positional relationship between the lesion and the surrounding tissue while performing a detailed diagnosis of the lesion.

なお、操作者が表示部13の画面上で2DROIを移動させたり、VR画像を回転させたりする場合は、以下に説明するステップS09の処理及びステップS10の処理が実行される。   Note that when the operator moves the 2DROI on the screen of the display unit 13 or rotates the VR image, the process of step S09 and the process of step S10 described below are executed.

(ステップS09)
ステップS09では、操作者が表示部13に表示されている2DROI画像23をマウス(入力部2)でドラッグして2DROI画像23を移動させる。入力解析部3は、その移動に伴って、2DROIの新たな中心の座標を求める(ステップS04)。そして、上述したようにステップS05からステップS08までの処理が実行されて、異なる関心領域のMIP画像が表示部13に表示されることになる。
(Step S09)
In step S09, the operator drags the 2DROI image 23 displayed on the display unit 13 with the mouse (input unit 2) to move the 2DROI image 23. The input analysis unit 3 obtains a new center coordinate of the 2DROI along with the movement (step S04). As described above, the processing from step S05 to step S08 is executed, and MIP images of different regions of interest are displayed on the display unit 13.

(ステップS10)
ステップS10では、操作者が表示部13に表示されているVR画像21をマウス(入力部2)でドラッグしてVR画像を回転させる。入力解析部3は、3DROI18の中心点Pを中心として、操作者によって指定された回転量だけ、VR画像が回転するように回転行列を求め、表示条件記憶部8に記憶させる。
(Step S10)
In step S10, the operator rotates the VR image 21 by dragging the VR image 21 displayed on the display unit 13 with the mouse (input unit 2). The input analysis unit 3 obtains a rotation matrix around the center point P of the 3DROI 18 so that the VR image is rotated by the rotation amount designated by the operator, and stores the rotation matrix in the display condition storage unit 8.

VR画像データ作成部10は、この回転行列に従ってボリュームデータに対してボリュームレンダリングを施すことにより、指定された回転量だけ回転させられたVR画像データを作成する(ステップS07)。そして、上述したように、ステップS07にて2DROI画像データ及びMIP画像データが作成され、ステップS08にて合成されて表示部12に表示される。   The VR image data creation unit 10 performs volume rendering on the volume data in accordance with this rotation matrix, thereby creating VR image data rotated by a designated rotation amount (step S07). Then, as described above, 2DROI image data and MIP image data are created in step S07, synthesized in step S08, and displayed on the display unit 12.

なお、表示部13の画面13a上の2DROIの位置、形状及び大きさについては変更されないため、新たに3DROIが作成され、その範囲についてMIP処理が施されてMIP画像データが作成される。それ以外の領域については、ボリュームレンダリングが施されてVR画像データが作成される。   Since the position, shape, and size of the 2DROI on the screen 13a of the display unit 13 are not changed, a new 3DROI is created, and MIP processing is performed on the range to create MIP image data. For other areas, volume rendering is performed to create VR image data.

上記のステップS09とステップS10における処理は、操作者によって操作が行われた場合のみ実行される。従って、この実施形態においては、ステップS09とステップS10における処理を実行しなくても、この発明の効果を奏することが可能である。   The processes in steps S09 and S10 are executed only when an operation is performed by the operator. Therefore, in this embodiment, it is possible to achieve the effects of the present invention without executing the processes in steps S09 and S10.

また、VR画像データ作成部10が実行するボリュームレンダリングは、平行投影法によるボリュームレンダリングであっても良く、等角投影法によるボリュームレンダリングであっても良い。さらに、3DROI18以外の領域においても、MIP画像データや厚み付きMPR画像データを作成しても良い。   The volume rendering executed by the VR image data creation unit 10 may be volume rendering by a parallel projection method or volume rendering by an isometric projection method. Furthermore, MIP image data and MPR image data with thickness may be created in an area other than the 3DROI 18.

(変形例)
次に、第1の実施形態に係る画像処理装置の変形例について説明する。操作者が入力部2を用いて表示部13の画面13a上の点を指定した場合に、その指定された点の位置に存在する診断部位に応じて、デフォルトの2DROIの形状及び大きさを決定しても良い。例えば、医用画像診断装置で収集したボリュームデータに、被検体のどの範囲をスキャンしたか示す情報(頭部、胸部、腹部、又は全身など)を付帯情報として予め付加しておく。そして、ボリュームデータの各領域(各クラスタ)と診断部位とを対応付けたクラスタリングデータを予め作成して記憶しておく。例えば、心臓や腎臓などを含む範囲で腹部をスキャンした場合、得られたボリュームデータの各領域(クラスタ)と診断部位(心臓や腎臓など)とを対応付けておく。さらに、各診断部位と2DROIの形状及び大きさとを対応付けておく。
(Modification)
Next, a modification of the image processing apparatus according to the first embodiment will be described. When the operator designates a point on the screen 13a of the display unit 13 using the input unit 2, the shape and size of the default 2DROI are determined according to the diagnostic part existing at the designated point position. You may do it. For example, information (head, chest, abdomen, whole body, etc.) indicating which range of the subject has been scanned is added to the volume data collected by the medical image diagnostic apparatus as supplementary information in advance. Then, clustering data in which each area (each cluster) of the volume data is associated with the diagnosis part is created and stored in advance. For example, when the abdomen is scanned in a range including the heart, the kidney, and the like, each region (cluster) of the obtained volume data is associated with the diagnosis site (the heart, the kidney, etc.). Furthermore, each diagnostic part is associated with the shape and size of the 2DROI.

ROI情報算出部4は、操作者によって指定された画面13a上の点が、ボリュームデータのどの領域(クラスタ)に属するかを判断し、クラスタリングデータに基づいて、その領域(クラスタ)に対応する診断部位(例えば心臓や腎臓など)を決定する。そして、ROI情報算出部4は、その診断部位(心臓や腎臓など)に対応付けられている2DROIをデフォルトの2DROIの形状及び大きさとする。例えば、腹部で大動脈が指定された場合、大動脈用に登録されている横幅約5cm、縦幅約10cmの楕円状の2DROIをデフォルトの2DROIとする。なお、デフォルトの2DROIの形状及び大きさは、操作者によって新たに登録できるようにしても良い。   The ROI information calculation unit 4 determines to which region (cluster) of the volume data the point on the screen 13a designated by the operator belongs, and based on the clustering data, the diagnosis corresponding to that region (cluster) Determine the site (eg, heart, kidney, etc.). Then, the ROI information calculation unit 4 sets the 2DROI associated with the diagnosis site (heart, kidney, etc.) as the default 2DROI shape and size. For example, when an aorta is designated in the abdomen, an oval 2DROI having a width of about 5 cm and a length of about 10 cm registered for the aorta is set as a default 2DROI. The default 2DROI shape and size may be newly registered by the operator.

また、症状に合わせて3DROIの情報(形状及び大きさ)を予め設定しておき、その3DROIをデフォルトの3DROIとして用いても良い。   Also, 3DROI information (shape and size) may be set in advance according to the symptom, and the 3DROI may be used as the default 3DROI.

なお、診断部位や症状に合わせたデフォルトの2DROIや3DROIを特定するための情報を表示部13に表示させて、操作者にそれらを選択させるようにしても良い。   Information for specifying the default 2DROI or 3DROI according to the diagnosis site or symptom may be displayed on the display unit 13 so that the operator can select them.

[第2の実施の形態]
次に、この発明の第2の実施形態に係る画像処理装置の構成について図7を参照して説明する。図7は、この発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。
[Second Embodiment]
Next, the configuration of an image processing apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention.

この第2の実施形態に係る画像処理装置30は、ROI情報算出部4の代わりにオブジェクトデータ作成部31を備えている点が第1の実施形態に係る画像処理装置1と異なる。そして、オブジェクトデータ作成部31にて作成されたオブジェクトデータは、オブジェクトデータ記憶部32に記憶される。また、入力解析部3は、第1の実施形態における処理に加えて、オブジェクトデータ作成の条件を作成する。オブジェクトデータ作成部31及びオブジェクトデータ記憶部32以外の構成については、第1の実施形態に係る画像処理装備1の構成と同じであり、同じ処理を実行することが可能である。   The image processing apparatus 30 according to the second embodiment is different from the image processing apparatus 1 according to the first embodiment in that an object data creation unit 31 is provided instead of the ROI information calculation unit 4. The object data created by the object data creation unit 31 is stored in the object data storage unit 32. Further, the input analysis unit 3 creates a condition for creating object data in addition to the processing in the first embodiment. The configuration other than the object data creation unit 31 and the object data storage unit 32 is the same as the configuration of the image processing equipment 1 according to the first embodiment, and the same processing can be executed.

第2の実施形態に係る画像処理装置30は、3DROIの範囲の決定手法が第1の実施形態に係る画像処理装置1と異なり、VR画像にMIP画像やMPR画像などを重畳させて表示部13に表示される点は、第1の実施形態に係る画像処理装置1と同じである。   The image processing apparatus 30 according to the second embodiment differs from the image processing apparatus 1 according to the first embodiment in the 3DROI range determination method, and superimposes a MIP image, an MPR image, or the like on the VR image. Is displayed in the same manner as the image processing apparatus 1 according to the first embodiment.

入力部2にてCT値の閾値が入力されると、入力解析部3は、その閾値以上のCT値を持つボクセルを「1」、その閾値未満のCT値を持つボクセルを「0」とするオブジェクトデータ作成条件を作成する。オブジェクトデータ作成条件は、オブジェクトデータ作成部31に出力される。   When the threshold value of the CT value is input by the input unit 2, the input analysis unit 3 sets “1” to a voxel having a CT value equal to or greater than the threshold and “0” to a voxel having a CT value less than the threshold. Create object data creation conditions. The object data creation condition is output to the object data creation unit 31.

また、入力部2にて3DROIについての膨張幅が入力されると、入力解析部3は、入力された幅を3DROIの膨張幅とし、その膨張幅をROI情報記憶部6に出力して記憶させる。   Also, when the expansion width for 3DROI is input at the input unit 2, the input analysis unit 3 sets the input width as the expansion width of 3DROI, and outputs the expansion width to the ROI information storage unit 6 for storage. .

オブジェクトデータ作成部31は、入力解析部3から送られるオブジェクトデータ作成条件と、ボリュームデータ記憶部5に記憶されているボリュームデータとに基づいて、オブジェクトデータを作成する。例えば、オブジェクトデータ作成部31は、ボリュームデータについて、設定された閾値以上のCT値を持つボクセルを「1」とし、その閾値未満のCT値を持つボクセルを「0」としてオブジェクトデータを作成する。オブジェクトデータはオブジェクトデータ記憶部32に出力されて記憶される。   The object data creation unit 31 creates object data based on the object data creation conditions sent from the input analysis unit 3 and the volume data stored in the volume data storage unit 5. For example, for the volume data, the object data creation unit 31 creates object data by setting a voxel having a CT value greater than or equal to a set threshold value to “1” and a voxel having a CT value less than the threshold value as “0”. The object data is output to and stored in the object data storage unit 32.

造影剤が注入された血管の場合、CT値がおよそ200以上を閾値の範囲とすることにより、造影剤が注入された血管領域を表すオブジェクトデータを作成することができる。但し、血管領域のCT値の範囲には骨領域のCT値の範囲が重なるため、骨領域をMIP処理の対象領域としないように、オブジェクトデータから骨領域を削除して血管領域のみが抽出されたオブジェクトデータを作成する。血管領域のオブジェクトデータを抽出する方法は、既知の方法によって行われる。   In the case of a blood vessel into which a contrast agent has been injected, object data representing a blood vessel region into which a contrast agent has been injected can be created by setting a CT value of approximately 200 or more as a threshold range. However, since the CT value range of the bone region overlaps the CT value range of the blood vessel region, only the blood vessel region is extracted by deleting the bone region from the object data so that the bone region is not the target region of the MIP process. Create the object data. A method for extracting object data of a blood vessel region is performed by a known method.

2DROI画像データ作成部9は、オブジェクトデータ記憶部32に記憶されているオブジェクトデータと、ROI情報記憶部6に記憶されている膨張幅とを読み込み、オブジェクトデータをその膨張幅分だけ膨張させた範囲を、投影方向(画面に向かう方向)に投影し、得られた輪郭を2DROI画像データとする。例えば、図8の模式図に示すように、オブジェクトデータが占める範囲(血管16に相当する範囲)を膨張幅分だけ膨張させた範囲を3DROI33とし、その範囲を投影方向(画面13aに向かう方向)に投影して得られた輪郭34を2DROI画像とする。   The 2DROI image data creation unit 9 reads the object data stored in the object data storage unit 32 and the expansion width stored in the ROI information storage unit 6 and expands the object data by the expansion width. Are projected in the projection direction (direction toward the screen), and the obtained contour is set as 2DROI image data. For example, as shown in the schematic diagram of FIG. 8, a range obtained by expanding the range occupied by the object data (the range corresponding to the blood vessel 16) by the expansion width is defined as 3DROI 33, and the range is the projection direction (the direction toward the screen 13a). An outline 34 obtained by projecting onto the 2D image is taken as a 2DROI image.

VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込み、図8の模式図に示すように、3DROI33を投影方向(画面の奥行き方向)に投影した領域についてはボリュームレンダリングを行わず、それ以外の領域に対してボリュームレンダリングを施す。これにより、3DROI33が占める領域、及び投影方向(画面の奥行き方向)における3DROI33の前後の領域を含まないVR画像データが作成されることになる。   The VR image data creation unit 10 reads the volume data from the volume data storage unit 5 and does not perform volume rendering for the region where the 3DROI 33 is projected in the projection direction (the depth direction of the screen) as shown in the schematic diagram of FIG. , Volume rendering is applied to other areas. As a result, VR image data that does not include the area occupied by the 3DROI 33 and the areas before and after the 3DROI 33 in the projection direction (the depth direction of the screen) is created.

MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、オブジェクトデータ記憶部32からオブジェクトデータを読み込み、さらにROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲を3DROI33として、その3DROI33を対象としてMIP処理を施すことによりMIP画像データを作成する。   The MIP image data creation unit 11 reads volume data from the volume data storage unit 5, reads object data from the object data storage unit 32, and further reads an expansion width from the ROI information storage unit 6, and reads the object data for the expansion width. The MIP image data is created by performing the MIP process on the 3DROI 33 as a target with the expanded range as 3DROI33.

(作用)
次に、この発明の第2の実施形態に係る画像処理装置の動作(画像処理方法)について図9を参照して説明する。図9は、この発明の第2の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。
(Function)
Next, the operation (image processing method) of the image processing apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a flowchart showing the operations of the image processing apparatus according to the second embodiment of the present invention in order.

第1の実施形態と同様に、医用画像診断装置にて被検体のボリュームデータを予め収集して、そのボリュームデータをボリュームデータ記憶部5に記憶しておく。   Similarly to the first embodiment, the volume data of the subject is collected in advance by the medical image diagnostic apparatus and the volume data is stored in the volume data storage unit 5.

(ステップS20)
まず、ステップS20では、操作者が、造影剤が注入された血管及び骨のCT値の範囲(およそ200以上)が不透明となるようにオパシティ(不透明度)を設定する。
(Step S20)
First, in step S20, the operator sets the opacity (opacity) so that the CT value range (approximately 200 or more) of the blood vessel and bone into which the contrast medium has been injected becomes opaque.

(ステップS21)
ステップS21では、VR画像データ作成部10がボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、VR画像データ作成部10は、ステップS20にて設定されたオパシティ(不透明度)でボリュームレンダリングを施し、VR画像データを作成する。このVR画像データは表示制御部12に出力され、表示制御部12はそのVR画像データに基づく画像を表示部13に表示させる。
(Step S21)
In step S21, the VR image data creation unit 10 reads volume data from the volume data storage unit 5, and creates VR image data by performing volume rendering on the volume data. At this time, the VR image data creation unit 10 performs volume rendering with the opacity (opacity) set in step S20, and creates VR image data. The VR image data is output to the display control unit 12, and the display control unit 12 causes the display unit 13 to display an image based on the VR image data.

(ステップS22)
ステップS22では、入力部2にてCT値の閾値が入力され、入力解析部3が入力された閾値以上のCT値を持つボクセルを「1」、その閾値未満のCT値を持つボクセルを「0」とするオブジェクトデータ作成条件を作成する。オブジェクトデータ作成条件はオブジェクトデータ作成部31に出力される。
(Step S22)
In step S22, the threshold value of the CT value is input by the input unit 2, and the voxel having a CT value equal to or greater than the input threshold value is input by the input analysis unit 3 is “1”, and the voxel having a CT value less than the threshold value is “0”. Is created as an object data creation condition. The object data creation conditions are output to the object data creation unit 31.

(ステップS23)
ステップS23では、オブジェクトデータ作成部31がボリュームデータ記憶部5からボリュームデータを読み込み、入力解析部3から出力されたオブジェクトデータ作成条件に従って、オブジェクトデータを作成する。具体的には、オブジェクトデータ作成部31は、読み込んだボリュームデータについて、設定された閾値以上のCT値を持つボクセルを「1」とし、その閾値未満のCT値を持つボクセルを「0」としたオブジェクトデータを作成する。そして、オブジェクトデータ作成部31は、オブジェクトデータをオブジェクトデータ記憶部32に出力して記憶させる。
(Step S23)
In step S23, the object data creation unit 31 reads the volume data from the volume data storage unit 5, and creates object data according to the object data creation conditions output from the input analysis unit 3. Specifically, for the read volume data, the object data creation unit 31 sets voxels having a CT value equal to or greater than a set threshold value to “1”, and sets voxels having a CT value less than the threshold value to “0”. Create object data. Then, the object data creation unit 31 outputs the object data to the object data storage unit 32 and stores it.

(ステップS24)
ステップS24では、操作者が入力部2を用いて3DROIについての膨張幅を入力する。入力解析部3は入力された幅を3DROIの膨張幅とし、その膨張幅をROI情報記憶部6に出力して記憶させる。なお、3DROIの膨張幅の初期値を予め設定してROI情報記憶部6に記憶させておいても良い。膨張幅を予め設定した場合は、操作者は膨張幅を入力する必要がないため、ステップS24での処理は操作者によって膨張幅が入力されたときのみ実行される。
(Step S24)
In step S <b> 24, the operator inputs the expansion width for the 3DROI using the input unit 2. The input analysis unit 3 sets the input width as a 3DROI expansion width, and outputs the expansion width to the ROI information storage unit 6 for storage. Note that an initial value of the expansion width of the 3DROI may be set in advance and stored in the ROI information storage unit 6. When the expansion width is set in advance, the operator does not need to input the expansion width, and therefore the process in step S24 is executed only when the expansion width is input by the operator.

(ステップS25)
ステップS25では、MIP画像データ作成部11が、オブジェクトデータ記憶部22からオブジェクトデータを読み込み、ROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲を3DROIとする。例えば、図8の模式図に示すように、オブジェクトデータが占める範囲(血管16に相当する範囲)を膨張幅分だけ膨張させた範囲を3DROI33とする。
(Step S25)
In step S25, the MIP image data creation unit 11 reads the object data from the object data storage unit 22, reads the expansion width from the ROI information storage unit 6, and expands the range in which the object data is expanded by the expansion width as 3DROI. To do. For example, as shown in the schematic diagram of FIG. 8, a range in which the range occupied by the object data (the range corresponding to the blood vessel 16) is expanded by the expansion width is defined as 3DROI 33.

(ステップS26)
ステップS26では、MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対して3DROI33の範囲を対象としてMIP処理を施すことによりMIP画像データを作成する。
(Step S26)
In step S26, the MIP image data creation unit 11 reads the volume data from the volume data storage unit 5, and creates MIP image data by performing MIP processing on the volume data for the range of the 3DROI 33.

また、ステップS26では、VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、図8の模式図に示すように、3DROI33を投影方向(画面の奥行き方向)に投影した領域についてはボリュームレンダリングを行わず、それ以外の領域に対してボリュームレンダリングを施す。これにより、3DROI33が占める領域、及び投影方向(画面の奥行き方向)における3DROI33の前後の領域を含まないVR画像データが作成されることになる。   In step S26, the VR image data creation unit 10 reads the volume data from the volume data storage unit 5 and creates VR image data by performing volume rendering on the volume data. At this time, as shown in the schematic diagram of FIG. 8, volume rendering is not performed on the region where the 3DROI 33 is projected in the projection direction (the depth direction of the screen), and volume rendering is performed on the other regions. As a result, VR image data that does not include the area occupied by the 3DROI 33 and the areas before and after the 3DROI 33 in the projection direction (the depth direction of the screen) is created.

また、2DROI画像データ作成部9は、オブジェクトデータ記憶部32に記憶されているオブジェクトデータを読み込み、さらにROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲(3DROI33が占める範囲)を、投影方向(画面に向かう方向)に投影して得られた輪郭を2DROI画像とする。例えば、図8に示すように、3DROI33を投影方向(画面13aに向かう方向)に投影した輪郭34を2DROI画像とする。   The 2DROI image data creation unit 9 reads the object data stored in the object data storage unit 32, reads the expansion width from the ROI information storage unit 6, and expands the object data by the expansion width. A contour obtained by projecting (the range occupied by the 3DROI 33) in the projection direction (direction toward the screen) is defined as a 2DROI image. For example, as shown in FIG. 8, a contour 34 obtained by projecting the 3DROI 33 in the projection direction (the direction toward the screen 13a) is set as a 2DROI image.

(ステップS27)
ステップS27では、表示制御部12が、2DROI画像データに基づく2DROI画像、VR画像データに基づくVR画像、及びMIP画像データに基づくMIP画像を重畳させて表示部13に表示される。これにより、表示部13の画面には、VR画像上にMIP画像が重ねられて表示され、さらに2DROIマーカが表示される。
(Step S27)
In step S27, the display control unit 12 superimposes the 2DROI image based on the 2DROI image data, the VR image based on the VR image data, and the MIP image based on the MIP image data, and displays them on the display unit 13. As a result, the MIP image is superimposed on the VR image and displayed on the screen of the display unit 13, and a 2DROI marker is further displayed.

重畳表示された画像について図10を参照して説明する。図10は、この発明の第2の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。表示部13の画面13a上には、VR画像35、MIP画像36、及び2DROI画像37が重畳されて表示されている。VR画像35には骨と造影剤が注入された血管とが表されており、MIP画像36には造影剤が注入された血管のうち、3DROI33内に存在する血管が表されている。3DROI33内に存在する血管の手前側には骨が存在するが、3DROI33と重なる範囲については、ボリュームレンダリングが行われていないため、3DROI33内に存在する血管の手前側に存在する骨については描画されない。   The superimposed image will be described with reference to FIG. FIG. 10 is a diagram showing an image superimposed and displayed by the image processing apparatus according to the second embodiment of the present invention. On the screen 13a of the display unit 13, a VR image 35, a MIP image 36, and a 2DROI image 37 are superimposed and displayed. The VR image 35 shows bones and blood vessels injected with a contrast agent, and the MIP image 36 shows blood vessels present in the 3DROI 33 among blood vessels injected with contrast agents. Bone is present on the front side of the blood vessel existing in 3DROI 33, but volume rendering is not performed on the range overlapping with 3DROI 33, so bones existing on the front side of blood vessel existing in 3DROI 33 are not drawn. .

以上のように、3DROI33に含まれる領域についてはMIP処理が施されて、詳細な診断に適したMIP画像36が表示され、3DROI33の前後に存在する領域についてはボリュームレンダリングが施されないため、3DROI33内に存在する病変部の詳細な画像を観察することが可能となる。また、病変部の周辺組織についてはVR画像35として表示されるため、病変部と周辺組織との位置関係を容易に把握することが可能となる。これにより、病変部の詳細な診断を行いつつ、病変部と周辺組織との位置関係を容易に把握することが可能となる。   As described above, the MIP process is performed on the area included in the 3DROI 33, the MIP image 36 suitable for detailed diagnosis is displayed, and the volume rendering is not performed on the areas existing before and after the 3DROI 33. It is possible to observe a detailed image of a lesion existing in Moreover, since the surrounding tissue of the lesioned part is displayed as the VR image 35, the positional relationship between the lesioned part and the surrounding tissue can be easily grasped. This makes it possible to easily grasp the positional relationship between the lesion and the surrounding tissue while performing a detailed diagnosis of the lesion.

なお、VR画像を回転させる場合は、以下に説明するステップS28の処理が実行される。   In the case of rotating the VR image, the process of step S28 described below is executed.

(ステップS28)
ステップS28では、操作者が表示部13に表示されているVR画像をマウス(入力部2)でドラッグしてVR画像を回転させる。入力解析部3は、所定の回転中心点を中心として、操作者によって指定された回転量だけ、VR画像が回転するように回転行列を求め、表示条件記憶部8に記憶させる。
(Step S28)
In step S28, the operator rotates the VR image by dragging the VR image displayed on the display unit 13 with the mouse (input unit 2). The input analysis unit 3 obtains a rotation matrix so that the VR image is rotated by a rotation amount designated by the operator around a predetermined rotation center point, and stores the rotation matrix in the display condition storage unit 8.

VR画像データ作成部10は、この回転行列に従ってボリュームデータに対してボリュームレンダリングを施すことにより、指定された回転量だけ回転させられたVR画像データを作成する(ステップS26)。そして、上述したように、ステップS26にて2DROI画像データ、MIP画像データ、及びVR画像データが作成され、ステップS27にて合成されて表示部12に表示される。   The VR image data creation unit 10 creates the VR image data rotated by the designated rotation amount by performing volume rendering on the volume data in accordance with the rotation matrix (step S26). Then, as described above, 2DROI image data, MIP image data, and VR image data are created in step S26, combined in step S27, and displayed on the display unit 12.

この発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 血管、周辺組織(骨)、及び表示部の画面の位置関係を説明するための模式図である。It is a schematic diagram for demonstrating the positional relationship of the screen of a blood vessel, a surrounding tissue (bone), and a display part. 3次元関心領域(3DROI)の範囲を求める処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which calculates | requires the range of a three-dimensional region of interest (3DROI). この発明の第1の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。3 is a flowchart illustrating operations of the image processing apparatus according to the first embodiment of the present invention in order. この発明の第1の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。It is a figure which shows the image superimposed and displayed by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置の変形例において、3次元関心領域(3DROI)の範囲を求める処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which calculates | requires the range of a three-dimensional region of interest (3DROI) in the modification of the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on 2nd Embodiment of this invention. オブジェクトデータを説明するための模式図である。It is a schematic diagram for demonstrating object data. この発明の第2の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。It is a flowchart which shows the operation | movement of the image processing apparatus which concerns on 2nd Embodiment of this invention in order. この発明の第2の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。It is a figure which shows the image superimposed and displayed by the image processing apparatus which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 画像処理装置
2 入力部
3 入力解析部
4 ROI情報算出部
5 ボリュームデータ記憶部
6 ROI情報記憶部
7 VR条件記憶部
8 表示条件記憶部
9 2DROI画像データ作成部
10 VR画像データ作成部
11 MIP画像データ作成部
12 表示制御部
13 表示部
31 オブジェクトデータ作成部
32 オブジェクトデータ記憶部

DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Input part 3 Input analysis part 4 ROI information calculation part 5 Volume data storage part 6 ROI information storage part 7 VR condition storage part 8 Display condition storage part 9 2DROI image data creation part 10 VR image data creation part 11 MIP Image data creation unit 12 Display control unit 13 Display unit 31 Object data creation unit 32 Object data storage unit

Claims (14)

医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成手段と、
前記ボリュームデータのうち前記所望の3次元関心領域、及び前記所定方向の視点から見て前記所望の3次元関心領域の前後の領域、以外の領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成手段と、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。
A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Creating means;
A region other than the desired three-dimensional region of interest and the region before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction in the volume data is projected onto the projection plane, thereby generating a second A second image creation means for creating three-dimensional image data;
Display control means for superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing apparatus comprising:
前記第1の画像作成手段は、前記所望の3次元関心領域を対象として、MIP処理、MinIP処理、又はMPR処理を施すことにより前記第1の3次元画像データを作成することを特徴とする請求項1に記載の画像処理装置。   The first image creating means creates the first three-dimensional image data by performing MIP processing, MinIP processing, or MPR processing on the desired three-dimensional region of interest. Item 8. The image processing apparatus according to Item 1. 前記第1の画像作成手段は、前記所望の3次元関心領域を対象としてMPR処理を施すことによりMPR画像データを作成し、前記所定方向に複数のMPR画像データを加算して平均することで厚み付きMPR画像データを作成することを特徴とする請求項1に記載の画像処理装置。   The first image creating means creates MPR image data by performing MPR processing on the desired three-dimensional region of interest, adds a plurality of MPR image data in the predetermined direction, and averages the thickness. The image processing apparatus according to claim 1, wherein attached MPR image data is created. 前記第2の画像作成手段は、ボリュームレンダリングを施すことにより第2の3次元画像データを作成することを特徴とする請求項1から請求項3のいずれかに記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the second image creating unit creates the second three-dimensional image data by performing volume rendering. 5. 前記表示制御手段は、前記ボリュームデータの全範囲に対してボリュームレンダリングが施されたことにより得られた3次元画像データに基づく画像を前記表示手段に表示させ、さらに、入力手段から前記表示手段の画面上における任意の点の指定を受け付けて、前記表示手段の画面上に前記指定された点を中心とした2次元のROIマーカを表示させ、
前記第1の画像作成手段は、
前記2次元のROIマーカが占める範囲を前記所定方向に投影させ、前記ボリュームデータと交わる不透明な組織を基準として3次元関心領域の範囲を求め、前記3次元関心領域を前記投影面に投影することで第1の3次元画像データを作成することを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。
The display control means causes the display means to display an image based on the three-dimensional image data obtained by performing volume rendering on the entire range of the volume data, and further from the input means to the display means. Accepting designation of an arbitrary point on the screen, and displaying a two-dimensional ROI marker centered on the designated point on the screen of the display means,
The first image creating means includes
Projecting a range occupied by the two-dimensional ROI marker in the predetermined direction, obtaining a range of a three-dimensional region of interest on the basis of an opaque tissue intersecting with the volume data, and projecting the three-dimensional region of interest onto the projection plane 5. The image processing apparatus according to claim 1, wherein the first three-dimensional image data is created.
前記第1の画像作成手段は、前記不透明な組織の前記所定方向における中心位置を求め、その中心位置を中心とした所定の厚さの範囲を3次元関心領域の範囲とし、前記3次元関心領域を前記投影面に投影することで第1の3次元画像データを作成することを特徴とする請求項5に記載の画像処理装置。   The first image creation means obtains a center position in the predetermined direction of the opaque tissue, sets a range of a predetermined thickness around the center position as a range of the three-dimensional region of interest, and sets the three-dimensional region of interest. The image processing apparatus according to claim 5, wherein the first three-dimensional image data is created by projecting the image onto the projection plane. 前記不透明な組織は、オパシティ(不透明度)が所定値以上に設定された領域であることを特徴とする請求項5又は請求項6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the opaque tissue is an area in which an opacity (opacity) is set to a predetermined value or more. 前記2次元のROIマーカが前記表示手段の画面上で移動させられると、前記第1の画像作成手段は、前記移動に応じて前記3次元関心領域の位置を変えて第1の3次元画像データを作成することを特徴とする請求項5から請求項7のいずれかに記載の画像処理装置。   When the two-dimensional ROI marker is moved on the screen of the display means, the first image creating means changes the position of the three-dimensional region of interest in accordance with the movement, and the first three-dimensional image data The image processing apparatus according to any one of claims 5 to 7, wherein the image processing apparatus is configured. 前記第2の3次元画像データが前記表示手段の画面上で回転させられると、前記第1の画像作成手段は、前記回転に応じて前記所定方向の向きを変えて前記所望の3次元関心領域を投影面に投影することで第1の3次元画像データを作成することを特徴とする請求項1から請求項8のいずれかに記載の画像処理装置。   When the second three-dimensional image data is rotated on the screen of the display means, the first image creation means changes the direction in the predetermined direction according to the rotation and changes the desired three-dimensional region of interest. The image processing apparatus according to claim 1, wherein the first three-dimensional image data is created by projecting the image onto a projection plane. 前記第1の画像作成手段は、予め設定されたオブジェクトデータに基づく領域を3次元関心領域として、その3次元関心領域を対象とした第1の3次元画像データを作成することを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。   The first image creating means creates a first three-dimensional image data targeting the three-dimensional region of interest using a region based on preset object data as a three-dimensional region of interest. The image processing apparatus according to claim 1. 前記第1の画像作成手段は、前記オブジェクトデータが占める領域を所定範囲分、膨張させた範囲を3次元関心領域とし、その3次元関心領域を対象とした第1の3次元画像データを作成することを特徴とする請求項10に記載の画像処理装置。   The first image creation means creates a first three-dimensional image data for the three-dimensional region of interest, with a region expanded by a predetermined range of the region occupied by the object data as a three-dimensional region of interest. The image processing apparatus according to claim 10. 前記第1の画像作成手段は、診断部位又は症状に合わせて予め設定された3次元関心領域を対象とした第1の3次元画像データを作成することを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。   5. The first image creation unit creates first 3D image data for a 3D region of interest set in advance according to a diagnosis site or symptom. An image processing apparatus according to any one of the above. コンピュータに、
医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成機能と、
前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成機能と、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御機能と、
を実行させることを特徴とする画像処理プログラム。
On the computer,
A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Create function,
By excluding the desired three-dimensional region of interest from the volume data and projecting a region excluding the region before and after the desired three-dimensional region of interest from the viewpoint in the predetermined direction, A second image creation function for creating two three-dimensional image data;
A display control function for superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing program for executing
医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成ステップと、
前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成ステップと、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示ステップと、
を含むことを特徴とする画像処理方法。
A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Creation steps,
By excluding the desired three-dimensional region of interest from the volume data and projecting a region excluding the region before and after the desired three-dimensional region of interest from the viewpoint in the predetermined direction, A second image creation step for creating two three-dimensional image data;
A display step of superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing method comprising:
JP2005333211A 2005-11-17 2005-11-17 Image processing device Active JP4786307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005333211A JP4786307B2 (en) 2005-11-17 2005-11-17 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005333211A JP4786307B2 (en) 2005-11-17 2005-11-17 Image processing device

Publications (2)

Publication Number Publication Date
JP2007135843A true JP2007135843A (en) 2007-06-07
JP4786307B2 JP4786307B2 (en) 2011-10-05

Family

ID=38199409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005333211A Active JP4786307B2 (en) 2005-11-17 2005-11-17 Image processing device

Country Status (1)

Country Link
JP (1) JP4786307B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009106547A (en) * 2007-10-30 2009-05-21 Toshiba Corp X-ray image diagnostic apparatus
JP2009268735A (en) * 2008-05-08 2009-11-19 Toshiba Corp Medical image processor
JP2010200821A (en) * 2009-02-27 2010-09-16 Toshiba Corp Ultrasonic diagnostic apparatus and image data generator
JP2010274106A (en) * 2009-04-28 2010-12-09 Toshiba Corp Image displaying device and diagnostic x-ray scanner
JP2012161460A (en) * 2011-02-07 2012-08-30 Fujifilm Corp Image processor, image processing method and image processing program
JP2013248534A (en) * 2013-09-17 2013-12-12 Fujifilm Corp Image processor, image processing method and image processing program
JP2014010579A (en) * 2012-06-28 2014-01-20 Fujitsu Ltd Visualizing program, visualizing method, and visualizing device
US9123163B2 (en) 2009-09-30 2015-09-01 Fujifilm Corporation Medical image display apparatus, method and program
JP2016043066A (en) * 2014-08-22 2016-04-04 株式会社リガク Image processor, image processing method and image processing program
US9478021B2 (en) 2011-06-01 2016-10-25 Hitachi, Ltd. Image display device, image display system, and image display method
JP2017080158A (en) * 2015-10-29 2017-05-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2018043594A1 (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Image processing device, image processing method, image processing program, and impage processing system
US20210281121A1 (en) * 2020-03-06 2021-09-09 Honda Motor Co., Ltd. Non-contact charging system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916814A (en) * 1995-06-30 1997-01-17 Shimadzu Corp Medical image display device
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2005510326A (en) * 2001-11-21 2005-04-21 ウェイク フォーレスト ユニバーシティ ヘルス サイエンシーズ Image report creation method and system
JP2006055213A (en) * 2004-08-17 2006-03-02 Konica Minolta Medical & Graphic Inc Image processor and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916814A (en) * 1995-06-30 1997-01-17 Shimadzu Corp Medical image display device
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2005510326A (en) * 2001-11-21 2005-04-21 ウェイク フォーレスト ユニバーシティ ヘルス サイエンシーズ Image report creation method and system
JP2006055213A (en) * 2004-08-17 2006-03-02 Konica Minolta Medical & Graphic Inc Image processor and program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009106547A (en) * 2007-10-30 2009-05-21 Toshiba Corp X-ray image diagnostic apparatus
JP2009268735A (en) * 2008-05-08 2009-11-19 Toshiba Corp Medical image processor
JP2010200821A (en) * 2009-02-27 2010-09-16 Toshiba Corp Ultrasonic diagnostic apparatus and image data generator
JP2010274106A (en) * 2009-04-28 2010-12-09 Toshiba Corp Image displaying device and diagnostic x-ray scanner
US9123163B2 (en) 2009-09-30 2015-09-01 Fujifilm Corporation Medical image display apparatus, method and program
US9892566B2 (en) 2011-02-07 2018-02-13 Fujifilm Corporation Image processing apparatus, method and program
JP2012161460A (en) * 2011-02-07 2012-08-30 Fujifilm Corp Image processor, image processing method and image processing program
US9478021B2 (en) 2011-06-01 2016-10-25 Hitachi, Ltd. Image display device, image display system, and image display method
JP2014010579A (en) * 2012-06-28 2014-01-20 Fujitsu Ltd Visualizing program, visualizing method, and visualizing device
JP2013248534A (en) * 2013-09-17 2013-12-12 Fujifilm Corp Image processor, image processing method and image processing program
JP2016043066A (en) * 2014-08-22 2016-04-04 株式会社リガク Image processor, image processing method and image processing program
JP2017080158A (en) * 2015-10-29 2017-05-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2018043594A1 (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Image processing device, image processing method, image processing program, and impage processing system
CN109643441A (en) * 2016-08-30 2019-04-16 佳能株式会社 Image processing apparatus, image processing method, image processing program, image processing system
JPWO2018043594A1 (en) * 2016-08-30 2019-06-24 キヤノン株式会社 Image processing apparatus, image processing method, image processing program, image processing system
US10997775B2 (en) 2016-08-30 2021-05-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system
JP7123798B2 (en) 2016-08-30 2022-08-23 キヤノン株式会社 Image processing device, image processing method, image processing program, image processing system
US11494972B2 (en) 2016-08-30 2022-11-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system
US20210281121A1 (en) * 2020-03-06 2021-09-09 Honda Motor Co., Ltd. Non-contact charging system

Also Published As

Publication number Publication date
JP4786307B2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
JP4786307B2 (en) Image processing device
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
US7991108B2 (en) Medical image processing apparatus, ultrasound imaging apparatus, X-ray CT (computed tomography) apparatus, and method of processing medical image
JP4653542B2 (en) Image processing device
JP5224451B2 (en) Projection image creation apparatus, method and program
JP5417609B2 (en) Medical diagnostic imaging equipment
JP6051158B2 (en) Cutting simulation apparatus and cutting simulation program
JP2007044121A (en) Medical image display method and apparatus
US11646111B2 (en) Medical image processing apparatus, medical image processing method and medical image processing system
JP4350226B2 (en) 3D image processing device
JP4492645B2 (en) Medical image display apparatus and program
JP2007275141A (en) Image display device
WO2011040015A1 (en) Device and method for displaying medical image and program
JP2009268735A (en) Medical image processor
JPH0683940A (en) Image display device
JP2008119252A (en) Medical image generating apparatus, method, and program
US8111890B2 (en) Medical image generating device, method and program
JP2009106634A (en) Medical image display device
JP4526114B2 (en) Luminal organ resection simulation method
JP7172086B2 (en) Surgery simulation device and surgery simulation program
JP5484425B2 (en) Ophthalmic apparatus, control method therefor, and computer program
JP2008206965A (en) Medical image forming device, method and program
US11379976B2 (en) Medical image processing apparatus, medical image processing method, and system for tissue visualization
EP4258216A1 (en) Method for displaying a 3d model of a patient

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081117

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110713

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4786307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350