JP2010201044A - Medical image preparation instrument - Google Patents

Medical image preparation instrument Download PDF

Info

Publication number
JP2010201044A
JP2010201044A JP2009051393A JP2009051393A JP2010201044A JP 2010201044 A JP2010201044 A JP 2010201044A JP 2009051393 A JP2009051393 A JP 2009051393A JP 2009051393 A JP2009051393 A JP 2009051393A JP 2010201044 A JP2010201044 A JP 2010201044A
Authority
JP
Japan
Prior art keywords
image
reconstruction
function
reconstructed
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009051393A
Other languages
Japanese (ja)
Inventor
Etsuaki Tanabe
悦章 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Health Sciences Foundation
Original Assignee
Japan Health Sciences Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Health Sciences Foundation filed Critical Japan Health Sciences Foundation
Priority to JP2009051393A priority Critical patent/JP2010201044A/en
Publication of JP2010201044A publication Critical patent/JP2010201044A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image of a blood vessel readily by separating a bone area and a peripheral blood vessel adjacent to the bone area. <P>SOLUTION: A medical image preparation instrument acquires a three-dimensional raw image Io of a region including the bone and the proximate peripheral blood vessel into which a contrast medium is poured by a CT scanner. The instrument generates a reconstructed image Ir1 by processing the raw image Io by a smoothing function to smooth an image by computer image processing. The instrument generates a reconstructed image Ir2 by processing the raw image Io by an edge enhancement function. The instrument generates a reconstructed image Ir4 of the bone by processing the reconstructed image Ir2 by using a threshold value of the bone. By subtracting the reconstructed image Ir4 of the bone from the reconstructed image Ir1, the instrument obtains an image If of the peripheral blood vessel. The instrument arranges a slider bar on a screen, permitting the edge enhancement function to be continuously changed, and makes the processing of obtaining the image If of the peripheral blood vessel automatically repeated when the edge enhancement function is changed. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、医用画像作成装置に関する。   The present invention relates to a medical image creation apparatus.

CT装置(Computed Tomography)等を用いて被験者の体内を撮影した医用画像を、被験者の病状の診断等に利用することが広く行われている。医用画像を診断に利用することにより、被験者に外的なダメージを与えることなく、被験者の病状の進行状態などを把握することができ、治療方針の決定などに必要な情報を得ることができる。   2. Description of the Related Art A medical image obtained by imaging a subject's body using a CT apparatus (Computed Tomography) or the like is widely used for diagnosis of a subject's medical condition. By using the medical image for diagnosis, it is possible to grasp the progress state of the medical condition of the subject without causing external damage to the subject, and to obtain information necessary for determining the treatment policy.

また、近年では、医用画像がディジタル化されたことにより、医用画像に画像処理を施すことが容易となっている。   In recent years, since medical images have been digitized, it has become easy to perform image processing on medical images.

ここで、CT装置などから得られた元の医用画像は、そのままでは、医用画像中に病巣が存在していても、その病巣が骨に紛れてしまって発見しにくいという問題がある。このため、医用画像から骨を抽出し、その抽出した骨を除去した骨除去画像を使って診断が行われている。骨を抽出する方法として、基準濃度以上の画像濃度を有する領域を骨領域として抽出する方法が広く知られている。   Here, there is a problem that the original medical image obtained from the CT apparatus or the like is not easily detected even if a lesion is present in the medical image as it is. For this reason, diagnosis is performed using a bone-removed image obtained by extracting a bone from a medical image and removing the extracted bone. As a method of extracting bone, a method of extracting a region having an image density equal to or higher than a reference density as a bone region is widely known.

しかし、被写体に造影剤を投じた状態で撮影された造影画像では、血管に属する血管領域も骨領域と同様に高い画像濃度を有しており、骨領域と血管領域とを分離できないという問題がある。   However, in a contrast image taken with a contrast agent applied to the subject, the blood vessel region belonging to the blood vessel has a high image density like the bone region, and the bone region and the blood vessel region cannot be separated. is there.

そこで、造影剤が投じられる前と、造影剤が投じられた状態でそれぞれ被写体を撮像し、造影画像から非造影画像(単純CT画像)を減算することで、血管領域の画像を取得する、ボリュームサブトラクション法が実用化されている。   Therefore, before the contrast agent is injected and in a state where the contrast agent is injected, the subject is imaged, and a non-contrast image (simple CT image) is subtracted from the contrast image to obtain an image of the blood vessel region. The subtraction method has been put into practical use.

しかし、この手法では、造影剤の投与の前後で少なくとも2回のCT撮影が必須となり、被曝線量が増えるという欠点がある。
また、この手法では造影前後の呼吸性の移動により石灰化位置も変化し、病変部位の偽画像を作成する可能性がある。
However, this method has a drawback in that at least two CT scans are indispensable before and after the administration of the contrast agent, and the exposure dose increases.
In this method, the calcification position also changes due to respiratory movement before and after the contrast, and there is a possibility that a false image of the lesion site is created.

このような従来のボリュームサブトラクション法の欠点を解決しうる画像処理方法が、特願2008−74470号明細書に開示されている。この方法は、造影画像を複数の再構成関数により処理して複数の再構成画像を取得し、これらの差分を求めることにより、血管領域の画像を取得するものである。   Japanese Patent Application No. 2008-74470 discloses an image processing method capable of solving the drawbacks of the conventional volume subtraction method. In this method, a contrast image is processed by a plurality of reconstruction functions to obtain a plurality of reconstruction images, and a difference between these images is obtained to obtain an image of a blood vessel region.

しかしながら、目的とする画像を取得するために適している再構成関数は、対象及び画像ごとに微妙に異なっている。
しかし、特願2008−74470号明細書には、最適な再構成関数を特定する手法は開示されていない。このため、最適な画像を得るまでに時間がかかる場合がある。
However, the reconstruction function suitable for acquiring a target image is slightly different for each object and image.
However, Japanese Patent Application No. 2008-74470 does not disclose a method for specifying an optimal reconstruction function. For this reason, it may take time to obtain an optimal image.

本発明は、上記事情に鑑みてなされたものであり、近接する領域を容易に分離することができる医用画像作成装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a medical image creation apparatus that can easily separate adjacent regions.

上記目的を達成するため、本発明の医用画像作成装置は、
医用画像撮像装置により撮像された目的部位を含む領域のディジタル画像を記憶する記憶手段と、
前記記憶手段に記憶されたディジタル画像を、複数の再構成関数により処理して複数の再構成画像を取得する再構成手段と、
前記再構成手段により再構成された複数の再構成画像に基づいて、前記目的部位の画像を生成する画像処理手段と、
前記再構成関数を、ユーザの操作に応答して、連続的に変化させるユーザインタフェースと、
前記再構成関数の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる制御手段と、
を備えることを特徴とする。
In order to achieve the above object, the medical image creation apparatus of the present invention comprises:
Storage means for storing a digital image of a region including a target portion imaged by a medical image imaging device;
Reconstruction means for processing a digital image stored in the storage means by a plurality of reconstruction functions to obtain a plurality of reconstructed images;
Image processing means for generating an image of the target portion based on a plurality of reconstructed images reconstructed by the reconstructing means;
A user interface that continuously changes the reconstruction function in response to a user operation;
Control means for causing the reconstruction means and the image processing means to regenerate an image of the target portion in response to a change in the reconstruction function;
It is characterized by providing.

例えば、前記ユーザインタフェースは、スライダバーを表示する手段と、表示されたスライダバーへの操作を検出する手段と、検出したスライダバーへの操作に応答して、前記再構成関数の少なくとも1つを変更して設定する手段と、を備える。   For example, the user interface may include means for displaying a slider bar, means for detecting an operation on the displayed slider bar, and at least one of the reconstruction function in response to the detected operation on the slider bar. And means for changing and setting.

例えば、ユーザの操作に応答して、値を変化させる第2のユーザインタフェースをさらに配置し、前記再構成手段は、前記再構成画像の画素値に前記第2のユーザインタフェースにより設定された値を加算する加算手段を備え、前記制御手段は、前記第2のユーザインタフェースによる値の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる、ように構成してもよい。   For example, a second user interface that changes a value in response to a user operation is further arranged, and the reconstruction unit adds the value set by the second user interface to the pixel value of the reconstructed image. Adding means for adding, wherein the control means causes the reconstruction means and the image processing means to regenerate the image of the target portion in response to a change in value by the second user interface. It may be configured.

例えば、前記第2のユーザインタフェースは、第2のスライダバーを表示する手段と、表示された前記第2のスライダバーへの操作を検出する手段と、検出した前記第2のスライダバーへの操作に応答して、前記値を変更して設定する手段と、を備えてもよい。   For example, the second user interface includes a means for displaying a second slider bar, a means for detecting an operation on the displayed second slider bar, and an operation on the detected second slider bar. And a means for changing and setting the value.

例えば、ユーザの操作に応答して、閾値を連続的に変化させる第3のユーザインタフェースを配置し、前記再構成手段は、前記再構成画像を閾値を用いて処理する手段を備え、前記制御手段は、前記閾値の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる、ように構成してもよい。   For example, in response to a user operation, a third user interface that continuously changes the threshold value is arranged, and the reconstruction means includes means for processing the reconstructed image using the threshold value, and the control means May be configured to cause the reconstruction unit and the image processing unit to regenerate an image of the target portion in response to a change in the threshold value.

例えば、前記第3のユーザインタフェースは、第3のスライダバーを表示する手段と、表示された前記第3のスライダバーへの操作を検出する手段と、検出した前記第3のスライダバーへの操作に応答して、前記閾値を変更して設定する手段と、を備えてもよい。   For example, the third user interface includes a means for displaying a third slider bar, a means for detecting an operation on the displayed third slider bar, and an operation on the detected third slider bar. And a means for changing and setting the threshold value.

例えば、前記記憶手段に記憶されたディジタル画像は、骨と造影剤が投入された血管とを含む領域のディジタル画像データであり、前記複数の再構成関数のうち、第1の再構成関数は、画像を処理する関数であり、第2の再構成関数は、画像のエッジを強調する程度が前記第1の再構成関数と異なる関数であり、前記画像処理手段は、前記第1の再構成関数により処理された第1の再構成画像を構成する各画素の濃度から前記第2の再構成関数により処理された第2の再構成画像を構成する対応する画素の濃度を減算し、血管の画像の対応する画素の濃度とすることにより、血管の画像を生成する手段から構成され、前記ユーザインタフェースは、前記第1の再構成関数と前記第2の再構成関数の少なくとも一方を、ユーザ操作に応答して変更する、ように構成してもよい。   For example, the digital image stored in the storage means is digital image data of a region including a bone and a blood vessel into which a contrast medium has been added, and the first reconstruction function among the plurality of reconstruction functions is: An image processing function, wherein the second reconstruction function is a function different from the first reconstruction function in enhancing an edge of the image, and the image processing means includes the first reconstruction function. Subtracting the density of the corresponding pixel constituting the second reconstructed image processed by the second reconstruction function from the density of each pixel constituting the first reconstructed image processed by And a unit for generating an image of a blood vessel by setting the density of the corresponding pixel of the user interface, wherein the user interface uses at least one of the first reconstruction function and the second reconstruction function as a user operation. In response To may be configured to.

例えば、前記記憶手段に記憶された前記ディジタル画像は、骨と造影剤が投入された血管とを含む領域のディジタル画像であり、前記複数の再構成関数のうち、第1の再構成関数は、画像を処理する関数であり、第2の再構成関数は、画像のエッジを強調する程度が前記第1の再構成関数と異なる関数であり、前記再構成手段は、前記第1の再構成関数によりディジタル画像を処理することにより、第1の再構成画像を形成し、前記第2の再構成関数によりディジタル画像を処理し、得られた画像の各画素を、第2の閾値に基づいて処理することにより、第2の再構成画像を形成し、前記ユーザインタフェースは、前記第1の再構成関数と前記第2の再構成関数の少なくとも一方を、ユーザ操作に応答して変更する、ように構成してもよい。   For example, the digital image stored in the storage means is a digital image of an area including a bone and a blood vessel into which a contrast medium has been injected, and the first reconstruction function among the plurality of reconstruction functions is: An image processing function, wherein the second reconstruction function is a function that differs from the first reconstruction function in terms of enhancing an edge of the image, and the reconstruction means includes the first reconstruction function. The first reconstructed image is formed by processing the digital image according to the above, the digital image is processed by the second reconstruction function, and each pixel of the obtained image is processed based on the second threshold value. A second reconstructed image is formed, and the user interface changes at least one of the first reconstruction function and the second reconstruction function in response to a user operation. It may be configured.

例えば、前記再構成手段は、前記第2の再構成関数により処理した画像を、骨の閾値を用いて処理することにより骨の画像である前記第2の再構成画像を生成するように構成してもよい。   For example, the reconstruction means is configured to generate the second reconstructed image, which is a bone image, by processing an image processed by the second reconstruction function using a bone threshold value. May be.

また、この発明の第2の観点に係るコンピュータプログラムは、
コンピュータを、
医用画像撮像装置により撮像された目的部位を含む領域のディジタル画像を記憶する記憶手段、
前記記憶手段に記憶されたディジタル画像を、複数の再構成関数により処理して複数の再構成画像を取得する再構成手段、
前記再構成手段により再構成された複数の再構成画像に基づいて、前記目的部位の画像を生成する画像処理手段、
前記再構成関数を、ユーザの操作に応答して、連続的に変化させるユーザインタフェース、
前記再構成関数の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる制御手段、
として機能させることを特徴とする。
A computer program according to the second aspect of the present invention provides:
Computer
Storage means for storing a digital image of a region including a target portion imaged by a medical image imaging device;
Reconstructing means for processing a digital image stored in the storage means with a plurality of reconstruction functions to obtain a plurality of reconstructed images;
Image processing means for generating an image of the target portion based on a plurality of reconstructed images reconstructed by the reconstructing means;
A user interface that continuously changes the reconstruction function in response to a user operation;
Control means for causing the reconstruction means and the image processing means to regenerate an image of the target portion in response to a change in the reconstruction function;
It is made to function as.

本発明よれば、再構成関数を適宜変更しながら目的部位の画像を生成させることが可能となり、適切な画像を得ることが容易となる。   According to the present invention, it is possible to generate an image of a target portion while appropriately changing the reconstruction function, and it becomes easy to obtain an appropriate image.

本発明の実施の形態にかかる画像処理システムの構成図である。1 is a configuration diagram of an image processing system according to an embodiment of the present invention. 図1に示す医用端末装置の内部構成を示す図である。It is a figure which shows the internal structure of the medical terminal device shown in FIG. 記憶部の構成を示す図である。It is a figure which shows the structure of a memory | storage part. 再構成関数を説明するための図である。It is a figure for demonstrating a reconstruction function. 再構成関数を説明するための図であり、(a)は元画像の一例を示し、(b)は再構成関数が強調する周波数(エッジ強調度)と各再構成関数で処理された再構成画像の関係を示す図である。It is a figure for demonstrating a reconstruction function, (a) shows an example of an original image, (b) is the frequency (edge emphasis degree) which a reconstruction function emphasizes, and the reconstruction processed by each reconstruction function It is a figure which shows the relationship of an image. 血管の画像を生成する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which produces | generates the image of the blood vessel. (a)は、画面上に表示される強調周波数指定スライダバーの一例を示す図、(b)は、画面上に表示される加算値指定スライダバーの一例を示す図である。(A) is a figure which shows an example of the emphasis frequency designation | designated slider bar displayed on a screen, (b) is a figure which shows an example of the addition value designation | designated slider bar displayed on a screen. 血管を抽出する処理と生成される画像の具体例を示す図である。It is a figure which shows the specific example of the process which extracts the blood vessel, and the image produced | generated. エッジ強調関数の変化に伴う画像の変化の例を示す図であり、エッジ強調関数の変化に伴う頭頚部の血管と骨の画像の変化の例を示す。It is a figure which shows the example of the change of the image accompanying the change of an edge enhancement function, and shows the example of the change of the blood vessel and bone image of the head and neck part accompanying the change of an edge enhancement function. エッジ強調関数の変化に伴う画像の変化の例を示す図であり、エッジ強調関数の変化に伴う末梢血管の画像の変化の例を示す。It is a figure which shows the example of the change of the image accompanying the change of an edge enhancement function, and shows the example of the change of the image of the peripheral blood vessel accompanying the change of an edge enhancement function. エッジ強調関数の変化に伴う画像の変化の例を示す図であり、エッジ強調関数の変化に伴う骨折線の画像の変化の例を示す。It is a figure which shows the example of the change of the image accompanying the change of an edge emphasis function, and shows the example of the change of the image of a fracture line accompanying the change of an edge emphasis function. 血管の画像を生成する処理の他の例を説明するためのフローチャートである。12 is a flowchart for explaining another example of processing for generating a blood vessel image. ユーザインタフェースの他の例としての回転つまみを示す図である。It is a figure which shows the rotary knob as another example of a user interface. (a)は、抽出対象部位とエッジ強調関数とを対応付けるテーブルの例であり、(b)は、抽出対象部位及び抽出の程度とエッジ強調関数とを対応付けるテーブルの例である。(A) is an example of a table associating an extraction target part with an edge enhancement function, and (b) is an example of a table associating an extraction target part and the degree of extraction with an edge enhancement function. 複数の血管画像を表示する例を示す図である。It is a figure which shows the example which displays a some blood-vessel image.

以下、添付図面を参照して、本発明の実施の形態に係る医用システムについて説明する。
本実施の形態の医用システムは、図1に示すように、CT装置11と、医用情報DB(データベース)12と、医用端末装置13(13〜13)と、通信ネットワーク14と、を備えている。
Hereinafter, a medical system according to an embodiment of the present invention will be described with reference to the accompanying drawings.
As shown in FIG. 1, the medical system according to the present embodiment includes a CT apparatus 11, a medical information DB (database) 12, a medical terminal apparatus 13 (13 1 to 13 n ), and a communication network 14. ing.

CT装置11は、コンピュータ断層撮影(Computed Tomography)装置であり、放射線などを利用して被験者を走査しコンピュータを用いて処理することで、被験者の医用画像、即ち、内部画像のボクセルデータを出力する。このボクセルデータの各画素の値(CT値:濃度)は、骨領域に対応する画素で高く、軟部組織に対応する画素で相対的に低い。   The CT apparatus 11 is a computed tomography apparatus, which scans a subject using radiation and processes it using a computer, thereby outputting a medical image of the subject, that is, voxel data of an internal image. . The value (CT value: density) of each pixel of the voxel data is high for the pixel corresponding to the bone region and relatively low for the pixel corresponding to the soft tissue.

医用情報DB12は、カルテ等の情報と共にCT装置11で取得された医用画像を記憶する。   The medical information DB 12 stores medical images acquired by the CT apparatus 11 together with information such as medical records.

医用端末装置13(13〜13)は、例えば、ワークステーションから構成され、種々の医用データ処理、例えば、CT装置11で取得された医用画像から、診断のための注目領域或いは組織を抽出した画像を生成・表示する処理を行う。生成された画像も必要に応じて、医用情報DB12に格納される。 The medical terminal device 13 (13 1 to 13 n ) is composed of, for example, a workstation, and extracts attention areas or tissues for diagnosis from various medical data processing, for example, medical images acquired by the CT device 11. To generate and display the processed image. The generated image is also stored in the medical information DB 12 as necessary.

通信ネットワーク14は、院内或いは広域に設置されたネットワークであり、データを伝送する。   The communication network 14 is a network installed in the hospital or in a wide area, and transmits data.

次に、医用端末装置13(13〜13)の構成を説明する。 Next, the configuration of the medical terminal device 13 (13 1 to 13 n ) will be described.

医用端末装置13は、図2に示すように、通信部21と、制御部22と、記憶部23と、入力部24と、表示部25と、を備えている。   As illustrated in FIG. 2, the medical terminal device 13 includes a communication unit 21, a control unit 22, a storage unit 23, an input unit 24, and a display unit 25.

通信部21は、通信ネットワーク14を介して、外部装置との間で、各種データ(情報)の送受信を行う。   The communication unit 21 transmits / receives various data (information) to / from an external device via the communication network 14.

制御部22は、プロセッサ、メモリ等から構成されており、OS(オペレーティングシステム)に従って入出力動作を始めとする基本動作を行って、医用端末装置13全体の制御を行う。また、制御部22は、記憶部23にあらかじめインストールされている画像処理プログラムに従って、画像を処理する。なお、制御部22は、画像処理、演算処理専用のプロセッサを備える等してもよい。   The control unit 22 includes a processor, a memory, and the like, and performs basic operations including input / output operations according to an OS (operating system) to control the entire medical terminal device 13. Further, the control unit 22 processes an image according to an image processing program installed in the storage unit 23 in advance. Note that the control unit 22 may include a processor dedicated to image processing and arithmetic processing.

記憶部23は、半導体メモリ、磁気ディスク記録装置などから構成され、各種の情報やプログラムを記録する。記憶部23は、図3に示すように、例えば、後述する画像処理を実行する画像処理プログラム、画像を平滑化するための平滑化関数、画像のエッジを強調するためのエッジ強調関数を生成するエッジ強調関数生成プログラム、医用情報DB12から読み込んだ医用画像、処理過程にある医用画像等のデータ、等を記憶する。   The storage unit 23 includes a semiconductor memory, a magnetic disk recording device, and the like, and records various types of information and programs. As illustrated in FIG. 3, the storage unit 23 generates, for example, an image processing program that executes image processing to be described later, a smoothing function for smoothing an image, and an edge enhancement function for enhancing an edge of the image. An edge enhancement function generation program, a medical image read from the medical information DB 12, data such as a medical image being processed, and the like are stored.

平滑化関数は、原画像を構成する各画素について、自己のCT値と周囲の画素のCT値とを一定の重みで平均化し、画像上のCT値の変化をなめらかにする関数である。
エッジ強調関数生成プログラムは、画素のCT値の変化を強調する関数であるエッジ強調関数を生成する。
The smoothing function is a function that smoothes changes in CT values on an image by averaging the CT values of its own pixels and the CT values of surrounding pixels with a constant weight for each pixel constituting the original image.
The edge enhancement function generation program generates an edge enhancement function that is a function for enhancing a change in the CT value of a pixel.

例えば、椎骨−椎骨動脈−椎骨を撮影した画像上の1走査ライン上のCT値を平滑化関数とエッジ強調関数で処理すると、図4に示すようになる。なお、本実施形態においては、処理対象がボクセルデータであり、各関数はボクセルデータ用のものである。   For example, when CT values on one scanning line on an image obtained by imaging a vertebra-vertebral artery-vertebra are processed with a smoothing function and an edge enhancement function, the result is as shown in FIG. In the present embodiment, the processing target is voxel data, and each function is for voxel data.

さらに、エッジ強調関数を変化させることにより、強調される周波数も変化し、処理結果も変化する。たとえば、図5(a)に示す画像を、エッジ強調関数を変化させて(強調する周波数を変化させて)処理すると、図5(b)に示すように、処理された画像も変化する。図5(b)の例では、右側の画像ほど、エッジを強調(高周波を強調)する程度の高いエッジ強調関数で処理した例であり、左側の画像ほど、エッジを強調(高周波を強調)する程度の低い(換言すると、平滑化する程度(低周波を強調する程度)の高い)エッジ強調関数で処理した例を示す。   Furthermore, by changing the edge enhancement function, the emphasized frequency also changes and the processing result also changes. For example, when the image shown in FIG. 5A is processed by changing the edge enhancement function (by changing the frequency to be emphasized), the processed image also changes as shown in FIG. 5B. In the example of FIG. 5B, the right image is processed with an edge enhancement function that enhances the edge (high frequency is enhanced), and the left image is emphasized (high frequency is enhanced). An example of processing with an edge enhancement function having a low degree (in other words, a high degree of smoothing (a high degree of emphasizing low frequencies)) is shown.

図3に示す記憶部23に記憶されているエッジ強調関数生成プログラムは、ユーザが指示する特性(強調する周波数)を有するエッジ強調関数を生成する。   The edge enhancement function generation program stored in the storage unit 23 illustrated in FIG. 3 generates an edge enhancement function having characteristics (frequency to be enhanced) designated by the user.

図3に示す記憶部23に記憶されている加算値生成プログラムは、画像を構成する各画素の濃度(CT値)に加算する値を、ユーザの指示に従って決定するプログラムである。加算値の生成方法については後述する。   The addition value generation program stored in the storage unit 23 illustrated in FIG. 3 is a program that determines a value to be added to the density (CT value) of each pixel constituting an image according to a user instruction. A method for generating the added value will be described later.

また、図2に示す入力部24は、キーボードやタッチパネル等から構成され、任意のデータ・指示を入力する。また、入力部24は、マウス24Mを備える。マウス24Mは、OS(オペレーティングシステム)との協働により、画面に表示されたアイコンやボタンをクリックしたり、ドラッグ・ドロップすることが可能である。
表示部25は、LCD(Liquid Crystal Display)等から構成され、画像やデータを表示する。
The input unit 24 shown in FIG. 2 includes a keyboard, a touch panel, and the like, and inputs arbitrary data / instructions. The input unit 24 includes a mouse 24M. The mouse 24M can click or drag and drop icons and buttons displayed on the screen in cooperation with an OS (operating system).
The display unit 25 is composed of an LCD (Liquid Crystal Display) or the like, and displays images and data.

次に、上記構成を有する医用システムの動作を説明する。
本実施形態の医用システムは、一般的な医用システムが実行可能な動作と共に以下に説明する特徴的な医用画像処理を実行する。
以下、この医用画像処理を中心に説明する。
Next, the operation of the medical system having the above configuration will be described.
The medical system of the present embodiment executes characteristic medical image processing described below together with operations that can be performed by a general medical system.
Hereinafter, this medical image processing will be mainly described.

(被験者の画像の取得)
まず、CT装置11により、造影剤が投与された状態での被験者のCT画像が撮影される。このCT画像は、通信ネットワーク14を介して患者情報等と共に医用情報DB12に伝送され、格納される。
(Acquisition of subject image)
First, a CT image of a subject in a state where a contrast agent is administered is taken by the CT apparatus 11. This CT image is transmitted to the medical information DB 12 together with patient information and the like via the communication network 14 and stored.

(血管画像の作成・表示)
次に、医用端末装置13が、CT装置11により取得された画像を処理して、血管の3次元画像、特に、血管と骨とが隣接している領域の画像を取得して表示する動作を説明する。
(Create and display blood vessel images)
Next, an operation in which the medical terminal device 13 processes the image acquired by the CT device 11 to acquire and display a three-dimensional image of the blood vessel, particularly an image of a region where the blood vessel and the bone are adjacent to each other. explain.

ユーザは、医用端末装置13の入力部24を操作し、処理対象の医用画像を指定する。この操作に応答して、制御部22は、通信部21を介して医用情報DB12と通信を行い、医用情報DB12から対象とする患者の原画像(原画像の画像データ;ボクセルデータ)Ioを読み込み、記憶部23に格納する。   The user operates the input unit 24 of the medical terminal device 13 and designates a medical image to be processed. In response to this operation, the control unit 22 communicates with the medical information DB 12 via the communication unit 21 and reads the target patient's original image (original image image data; voxel data) Io from the medical information DB 12. And stored in the storage unit 23.

続いて、制御部22は、図6のフローチャートに示す処理を開始し、まず、表示画面上に、図7(a)に示す強調周波数指定スライダバー31と図7(b)に示す加算値指定スライダバー33を表示する(ステップS11)。   Subsequently, the control unit 22 starts the process shown in the flowchart of FIG. 6. First, on the display screen, the enhanced frequency designation slider bar 31 shown in FIG. 7A and the added value designation shown in FIG. 7B are displayed. The slider bar 33 is displayed (step S11).

図7(a)に示す強調周波数指定スライダバー31は、「つまみ」32を左右に移動させることにより、エッジ強調関数のエッジを強調する程度(強調する周波数)を所定の分解能で連続的に変化させるスライダバーであり、「つまみ」32を右に移動することにより、エッジを強調する程度(強調する周波数)が高くなり、「つまみ」32を左に移動することにより、エッジを強調する程度(強調する周波数)が低くなり、画像を平滑化する程度が高くなる。エッジ強調関数生成プログラムは、「つまみ」32の位置に対応する強調周波数を有するエッジ強調関数を生成する。   The enhancement frequency designation slider bar 31 shown in FIG. 7A continuously changes the degree of enhancement of the edge of the edge enhancement function (frequency to be enhanced) with a predetermined resolution by moving the “knob” 32 to the left and right. The slider bar for moving the “knob” 32 to the right increases the degree of emphasizing the edge (enhancement frequency), and the “knob” 32 is moved to the left to enhance the edge ( Frequency to be enhanced) and the degree of smoothing the image is increased. The edge enhancement function generation program generates an edge enhancement function having an enhancement frequency corresponding to the position of the “knob” 32.

図7(b)に示す加算値指定スライダバー33は、「つまみ」34を左右に移動させることにより、各ボクセルのCT値に加算する値(加算値=K・CT値)を特定するための係数Kを所定の分解能で連続的に変化させるスライダバーである。係数Kは、図7(b)の加算値指定スライダバー33上の、「つまみ」34の位置に対応し、「つまみ」34が基準点にあるときは、K=0、右側に位置するほど、係数Kが正の値で大きくなり、左側に位置するほど、係数Kが負の値で絶対値が大きくなる。加算値生成プログラムは、「つまみ」34の位置に応じた係数Kを求め、求めたKと各画素のCT値から加算値を生成する。   The added value designation slider bar 33 shown in FIG. 7B is for specifying a value (added value = K · CT value) to be added to the CT value of each voxel by moving the “knob” 34 to the left and right. This is a slider bar that continuously changes the coefficient K with a predetermined resolution. The coefficient K corresponds to the position of the “knob” 34 on the added value designation slider bar 33 in FIG. 7B. When the “knob” 34 is at the reference point, K = 0, and the closer to the right side, the more the coefficient K is located. The coefficient K increases with a positive value, and the closer to the left, the greater the absolute value with a negative coefficient K. The addition value generation program obtains a coefficient K corresponding to the position of the “knob” 34 and generates an addition value from the obtained K and the CT value of each pixel.

ユーザは、マウス24Mを操作して、各スライダバー31、33の「つまみ」32、34を操作(ドラッグ:移動)可能である。制御部22は、OSの機能により、マウス24Mの操作を検出し、表示画面上で、スライダバー31、33上で「つまみ」32、34を移動させる。   The user can operate (drag: move) the “knobs” 32 and 34 of the slider bars 31 and 33 by operating the mouse 24M. The control unit 22 detects the operation of the mouse 24M by the function of the OS, and moves the “knobs” 32 and 34 on the slider bars 31 and 33 on the display screen.

続いて、制御部22は、読み込んだボクセルデータを、記憶部23に格納されている平滑化関数を用いて平滑化し、再構成画像Ir1を生成する(ステップS12)。具体的には、制御部22は、平滑化関数に相当するオペレータを用いて、原画像Ioの座標(x,y,z)の画素について、その画素と周囲の画素のCT値(濃度)を重み付け加算して平均を求め、再構成画像の座標(x,y,z)のCT値とする。制御部22は、原画像内の全ての画素について、この動作を実行し、再構成画像Ir1を生成する。   Subsequently, the control unit 22 smoothes the read voxel data using a smoothing function stored in the storage unit 23, and generates a reconstructed image Ir1 (step S12). Specifically, the control unit 22 uses the operator corresponding to the smoothing function to calculate the CT value (density) of the pixel and the surrounding pixels for the pixel at the coordinates (x, y, z) of the original image Io. An average is obtained by weighted addition to obtain a CT value of coordinates (x, y, z) of the reconstructed image. The control unit 22 performs this operation for all pixels in the original image to generate a reconstructed image Ir1.

続いて、制御部22は、表示されている強調周波数指定スライダバー31の「つまみ」32が示しているエッジ強調度を特定し、対応するエッジ強調関数に相当するオペレータを生成する(ステップS13)。すなわち、制御部22は、図7(a)の強調周波数指定スライダバー31上の、「つまみ」32の位置を特定し、「つまみ」32が右側に位置する程、画像のエッジを強調する度合いが高く、「つまみ」32が左側に位置する程、画像のエッジを平滑化する度合いが高くなるようにオペレータを生成する。   Subsequently, the control unit 22 specifies the edge enhancement degree indicated by the “knob” 32 of the displayed enhancement frequency designation slider bar 31 and generates an operator corresponding to the corresponding edge enhancement function (step S13). . That is, the control unit 22 specifies the position of the “knob” 32 on the emphasis frequency designation slider bar 31 in FIG. 7A, and the degree of emphasizing the edge of the image as the “knob” 32 is located on the right side. The operator is generated such that the higher the “knob” 32 is on the left side, the higher the degree of smoothing the edge of the image.

次に、制御部22は、原画像を、生成したオペレータを用いて処理する(ステップS13)。具体的には、制御部22は、生成したオペレータを用いて、原画像Ioの座標(x,y,z)の画素について、その画素と隣接する画素のCT値の差(Δ)を強調(k・Δ)し、再構成画像の座標(x,y,z)のCT値とする。制御部22は、原画像内の全ての画素について、この動作を実行し、新たな再構成画像Ir2を生成する。   Next, the control unit 22 processes the original image using the generated operator (step S13). Specifically, using the generated operator, the control unit 22 emphasizes the difference (Δ) in the CT value of the pixel adjacent to the pixel (x, y, z) of the original image Io ( k · Δ) to obtain the CT value of the coordinates (x, y, z) of the reconstructed image. The control unit 22 performs this operation for all the pixels in the original image, and generates a new reconstructed image Ir2.

次に、制御部22は、生成した骨の再構成画像Ir2の各画素のCT値を特定し、加算値指定スライダバー33の「つまみ」34の位置に対応する係数Kを特定し、加算値K・CT値を求め、求めた加算値を、その画素のCT値に加算し、加算結果(1+K)・CT値を新たなCT値とする。制御部22は、再構成画像Ir2内の全ての画素について、この動作を実行し、新たな再構成画像Ir3を生成する(ステップS14)。係数Kは、前述のように、図7(b)の加算値指定スライダバー33上の「つまみ」34が基準点にあるときは、K=0、右側に位置するほど、係数Kが正の値で大きくなり、左側に位置するほど、係数Kが負の値で絶対値が大きくなる。   Next, the control unit 22 specifies the CT value of each pixel of the generated bone reconstructed image Ir2, specifies the coefficient K corresponding to the position of the “knob” 34 of the added value designation slider bar 33, and adds the added value. The K · CT value is obtained, the obtained addition value is added to the CT value of the pixel, and the addition result (1 + K) · CT value is set as a new CT value. The control unit 22 performs this operation for all the pixels in the reconstructed image Ir2, and generates a new reconstructed image Ir3 (step S14). As described above, when the “knob” 34 on the added value designation slider bar 33 in FIG. 7B is at the reference point, the coefficient K is positive as the coefficient K is located at the right side. The larger the value is, the closer to the left side, the larger the absolute value with a negative coefficient K.

続いて、制御部22は、ステップS14で得た再構成画像Ir3を、骨の閾値で処理し、骨の再構成画像Ir4を抽出する(ステップS15)。具体的には、制御部22は、ステップS14で得た再構成画像Ir3の各画素について、そのCT値が、予め定められている骨に対応するCT値(例えば、骨毎に異なるため、注目する骨に対応するCT値)以上であるか否かを判別し、骨の閾値以上であれば、骨に相当するとして維持し、未満の場合には、CT値を0として、透明化する処理を行う。制御部22は、再構成画像Ir3内の全ての画素について、この動作を実行し、新たな再構成画像Ir4を生成する。   Subsequently, the control unit 22 processes the reconstructed image Ir3 obtained in step S14 with a bone threshold value, and extracts a bone reconstructed image Ir4 (step S15). Specifically, for each pixel of the reconstructed image Ir3 obtained in step S14, the control unit 22 pays attention to the CT value corresponding to a predetermined bone (for example, different for each bone. CT value corresponding to the bone to be boned) or higher, and if it is equal to or higher than the bone threshold value, it is maintained as equivalent to the bone, and if it is lower, the CT value is set to 0 and the process is made transparent I do. The control unit 22 performs this operation for all the pixels in the reconstructed image Ir3, and generates a new reconstructed image Ir4.

次に、制御部22は、ステップS12で生成した再構成画像Ir1から、ステップS15で生成した骨の再構成画像Ir4を減算し、結果画像Ifを生成する(ステップS16)。具体的には、制御部22は、再構成画像Ir1の座標(x,y,z)の画素のCT値から、再構成画像Ir4の対応する座標(x,y,z)のCT値を減算し、減算結果を、結果画像Ifの座標(x,y,z)のCT値として、結果画像Ifを生成する。結果画像Ifは、再構成画像Ir1から、エッジが強調され、所定のCT値が加算された骨の再構成画像Ir4を減算したものであり、血管を明確に表した画像となっている。   Next, the control unit 22 subtracts the bone reconstructed image Ir4 generated in step S15 from the reconstructed image Ir1 generated in step S12 to generate a result image If (step S16). Specifically, the control unit 22 subtracts the CT value of the corresponding coordinate (x, y, z) of the reconstructed image Ir4 from the CT value of the pixel of the coordinate (x, y, z) of the reconstructed image Ir1. Then, the result image If is generated using the subtraction result as the CT value of the coordinates (x, y, z) of the result image If. The result image If is obtained by subtracting the reconstructed image Ir4 of the bone in which the edge is enhanced and a predetermined CT value is added from the reconstructed image Ir1, and is an image that clearly represents the blood vessel.

制御部22は、こうして得られた結果画像Ifを表示部25に表示する(ステップS17)。また、必要に応じて保存する。   The control unit 22 displays the result image If thus obtained on the display unit 25 (step S17). Also, save as necessary.

次に、制御部22は、強調周波数指定スライダバー31の「つまみ」32と加算値指定スライダバー33の「つまみ」34が操作されたか否かを判別する(ステップS18)。   Next, the control unit 22 determines whether or not the “knob” 32 of the emphasis frequency designation slider bar 31 and the “knob” 34 of the addition value designation slider bar 33 have been operated (step S18).

少なくとも一方のスライダバー31、33が操作されていれば(ステップS18;Yes)、ステップS12にリターンして、指定されたエッジ強調関数または加算値を用いて上述と同様の処理を実行し、結果画像Ifを表示する。   If at least one of the slider bars 31 and 33 is operated (step S18; Yes), the process returns to step S12, and the same processing as described above is executed using the specified edge enhancement function or addition value. The image If is displayed.

スライダバー31、33の「つまみ」32、33の操作が無い場合(ステップS18;No)、制御部22は、処理の終了あるいは他の処理が指示されたか否かを判別する(ステップS19)。   When there is no operation of the “knobs” 32 and 33 of the slider bars 31 and 33 (step S18; No), the control unit 22 determines whether or not the end of the process or another process is instructed (step S19).

処理の終了が指示されていなければ(ステップS19;No)、ステップS18に処理を戻して、指示を待機する。   If the end of the process is not instructed (step S19; No), the process returns to step S18 to wait for the instruction.

一方、処理の終了あるいは他の処理の開始が指示されていれば(ステップS19;Yes)、今回の処理を終了する。   On the other hand, if the end of the process or the start of another process is instructed (step S19; Yes), the current process ends.

このような構成によれば、ユーザは、画面に表示された結果画像If、すなわち、血管画像を評価し、必要に応じて、強調周波数指定スライダバー31の「つまみ」32と加算値指定スライダバー33の「つまみ」34を適宜操作して、エッジ強調関数の特性と加算値とを適宜変化させて、再度、血管画像を生成・表示することができる。このため、表示された結果画像Ifを観察しながらスライダバー31、33の「つまみ」32、34を操作することにより、最適な血管画像を容易に得ることが可能となる。   According to such a configuration, the user evaluates the result image If displayed on the screen, that is, the blood vessel image, and if necessary, the “knob” 32 of the enhancement frequency designation slider bar 31 and the addition value designation slider bar. The blood vessel image can be generated and displayed again by appropriately operating the “knob” 33 and appropriately changing the characteristics of the edge enhancement function and the added value. For this reason, it is possible to easily obtain an optimal blood vessel image by operating the “knobs” 32 and 34 of the slider bars 31 and 33 while observing the displayed result image If.

また、表示させた画像毎にエッジ強調関数や閾値を変化させることができる。従来では、例えば、頭頚部の場合、全体が特定のエッジ強調関数で処理される。そのため、頭部では骨と血管とを分離できるが、肩付近では、骨と血管の分離が難しいなど不具合が生じるが、本実施形態では、スライダバーを変化させながら、頭部は頭部で、頚部は頚部で骨と血管とを分離していくことが可能である。従って、注目する部位によらず、適切に骨と血管を分離することができる。   Further, the edge enhancement function and the threshold value can be changed for each displayed image. Conventionally, for example, in the case of the head and neck, the whole is processed with a specific edge enhancement function. Therefore, bones and blood vessels can be separated in the head, but in the vicinity of the shoulder, there are problems such as difficulty in separating bones and blood vessels, but in this embodiment, the head is the head while changing the slider bar, The neck can separate bones and blood vessels at the neck. Therefore, it is possible to appropriately separate bones and blood vessels regardless of the region of interest.

図8は、このようにして得られる各画像の一例を示す。
まず、原画像Ioは、頚部を含む人体の三次元CT画像を側方から見たときの図である。
再構成画像Ir1は、原画像Ioを平滑化関数を用いて平滑化した画像であり、外観的にはあまり変化が無い。再構成画像Ir2は、原画像Ioをエッジ強調関数を用いて処理して、エッジを強調した画像である。エッジを強調する程度(強調する周波数)は、強調周波数指定スライダバー31上の「つまみ」32の位置により変化する。
FIG. 8 shows an example of each image obtained in this way.
First, the original image Io is a view when a three-dimensional CT image of a human body including the neck is viewed from the side.
The reconstructed image Ir1 is an image obtained by smoothing the original image Io using a smoothing function, and there is not much change in appearance. The reconstructed image Ir2 is an image obtained by processing the original image Io using an edge enhancement function and enhancing edges. The degree of emphasizing the edge (the frequency to be emphasized) varies depending on the position of the “knob” 32 on the emphasis frequency designation slider bar 31.

再構成画像Ir3は、再構成画像Ir2の各画素のCT値に、加算値指定スライダバー33上の「つまみ」34の位置に対応する係数Kにより定まる加算値K・CT値を加算して、再構成画像Ir3を生成し、さらに、この再構成画像Ir3を骨の閾値を用いて処理して、骨の再構成画像Ir4を求める。   In the reconstructed image Ir3, an addition value K · CT value determined by a coefficient K corresponding to the position of the “knob” 34 on the addition value designation slider bar 33 is added to the CT value of each pixel of the reconstructed image Ir2. A reconstructed image Ir3 is generated, and the reconstructed image Ir3 is processed using a bone threshold value to obtain a bone reconstructed image Ir4.

画像Ifは、再構成画像Ir1から骨の再構成画像Ir4を減算した結果画像であり、骨に隣接するにもかかわらず、血管が適切に抽出されている。   The image If is a result of subtracting the bone reconstructed image Ir4 from the reconstructed image Ir1, and blood vessels are appropriately extracted despite being adjacent to the bone.

図9〜図11に本実施形態の画像処理装置の処理例を示す。   9 to 11 show processing examples of the image processing apparatus according to the present embodiment.

まず、図9は、頭頚部の血管と骨の結果画像の例を示す。
この例では、被験者Aに関しては、高周波を強調すると、肩の部分のノイズが大きくなってしまう。そこで、結果画像Ifを観察しながら、強調周波数指定スライダバー31の「つまみ」32を操作して、エッジ強調関数を変化させ、低周波数を強調することにより、ノイズを除去することができる。一方、被験者Bでは、高周波を強調することにより、肩の部分でも十分高品質な画像が得られている。
First, FIG. 9 shows an example of a result image of blood vessels and bones in the head and neck region.
In this example, for the subject A, when high frequency is emphasized, the noise in the shoulder portion becomes large. Therefore, while observing the result image If, the “knob” 32 of the emphasis frequency designation slider bar 31 is operated to change the edge emphasis function to emphasize the low frequency, thereby removing noise. On the other hand, in the subject B, a sufficiently high quality image is obtained even at the shoulder portion by emphasizing the high frequency.

このように、部位や被験者に応じて強調周波数指定スライダバー31の「つまみ」32を操作してエッジ強調関数を変化させることにより、鮮明な画像を容易に得ることができる。   In this way, a clear image can be easily obtained by operating the “knob” 32 of the enhancement frequency designation slider bar 31 in accordance with the part or the subject to change the edge enhancement function.

また、図10は、エッジ強調関数の変化に伴う末梢血管の画像の変化を示す。この例では、強調周波数指定スライダバー31の「つまみ」32を操作して、高周波を強調したときに、細い末梢血管がより鮮明な結果画像Ifが得られている。   FIG. 10 shows changes in peripheral blood vessel images accompanying changes in the edge enhancement function. In this example, when the “knob” 32 of the emphasis frequency designation slider bar 31 is operated to emphasize the high frequency, the result image If where the thin peripheral blood vessels are clearer is obtained.

さらに、図11は、エッジ強調関数の変化に伴う骨折線の画像の変化を示す。図示するように、強調周波数指定スライダバー31の「つまみ」32を操作して、高周波を強調することにより、骨折線が鮮明な結果画像Ifが得られる。   Further, FIG. 11 shows a change in the image of the fracture line accompanying a change in the edge enhancement function. As shown in the drawing, by operating the “knob” 32 of the emphasis frequency designation slider bar 31 and emphasizing the high frequency, a result image If with a clear fracture line is obtained.

このように、本実施形態では、結果画像Ifを観察しながら、強調周波数指定スライダバー31と加算値指定スライダバー33の「つまみ」32、34を操作することにより、適切な画像を得ることができる。   Thus, in the present embodiment, an appropriate image can be obtained by operating the “knobs” 32 and 34 of the enhancement frequency designation slider bar 31 and the addition value designation slider bar 33 while observing the result image If. it can.

(変形例)
この発明は、上記実施の形態に限定されず、種々の変形及び応用が可能である。
上記実施の形態において、スライダバー31と33を配置したが、例えば、強調周波数指定スライダバー31のみを配置するように構成してもよい。
(Modification)
The present invention is not limited to the above embodiment, and various modifications and applications are possible.
In the above embodiment, the slider bars 31 and 33 are arranged. However, for example, only the emphasized frequency designation slider bar 31 may be arranged.

また、例えば、上記実施の形態においては、骨を抽出する際に、各画素のCT値に注目し、CT値が閾値を越えていれば、骨として抽出したが、他の手法により、骨を抽出してもよい。例えば、骨を始点として(始点は、例えば、オペレータが指定)、画素を辿って、隣接する所定範囲内の画素(例えば、上下左右前後の6点、或いは、近傍12点)のCT値が閾値以上で、隣接した画素のCT値が±100以内であれば選択するようにして、画素をスキャンし、骨として抽出する画素を特定するようにしてもよい。   Further, for example, in the above embodiment, when extracting the bone, attention is paid to the CT value of each pixel, and if the CT value exceeds the threshold value, the bone is extracted. It may be extracted. For example, using a bone as a starting point (the starting point is specified by an operator, for example), the pixels are traced, and the CT values of adjacent pixels within a predetermined range (for example, 6 points up and down, left and right, and 12 points in the vicinity) are threshold values. As described above, if the CT value of the adjacent pixel is within ± 100, the pixel may be selected, and the pixel to be extracted may be specified by scanning the pixel.

また、このようにして抽出された骨では、閾値を設定したため、全体の骨のボリュームが少なくなる場合がある。このような場合には、図12に示す処理が有効である。   Further, since the threshold value is set for the bone extracted in this way, the volume of the entire bone may be reduced. In such a case, the process shown in FIG. 12 is effective.

この場合、制御部22は、まず、原画像Ioを読み込み(ステップS21)、原画像Ioを平滑化して再構成画像Ir1を生成する(ステップS22)。   In this case, the control unit 22 first reads the original image Io (step S21), and smoothes the original image Io to generate a reconstructed image Ir1 (step S22).

次に、制御部22は、原画像Ioを、エッジ強調関数を用いて処理し、エッジを強調した再構成画像Ir2を生成する(ステップS23)。エッジ強調の程度は、例えば、強調周波数指定スライダバー31の「つまみ」32を操作することにより、ユーザが任意に設定できる。   Next, the control unit 22 processes the original image Io using the edge enhancement function, and generates a reconstructed image Ir2 with the edge enhanced (step S23). The degree of edge enhancement can be arbitrarily set by the user, for example, by operating the “knob” 32 of the enhancement frequency designation slider bar 31.

次に、再構成画像Ir2の各画素のCT値に、加算値指定スライダバー33の「つまみ」34の位置により特定される係数KとCT値の積K・CT値を加算値として加算し、再構成画像Ir3を生成し、さらに、骨の閾値を用いて再構成画像Ir3を処理し、骨の再構成画像Ir4を生成する(ステップS24)。   Next, the product K · CT value of the coefficient K and the CT value specified by the position of the “knob” 34 of the addition value designation slider bar 33 is added as an addition value to the CT value of each pixel of the reconstructed image Ir2. A reconstructed image Ir3 is generated, and the reconstructed image Ir3 is processed using the bone threshold value to generate a reconstructed image Ir4 of the bone (step S24).

次に、制御部22は、エッジを強調した再構成画像Ir2から骨の再構成画像Ir4を減算し、再構成画像Ir5を生成する(ステップS25)。即ち、再構成画像Ir2の座標(x,y,z)の画素のCT値から、ステップS24で生成された骨の再構成画像Ir4の座標(x,y,z)の画素のCT値を減算し、新たな画像の座標(x,y,z)の画素のCT値とする。減算により得られた再構成画像Ir5は、血管及び軟部組織が残った画像となる。   Next, the control unit 22 subtracts the bone reconstructed image Ir4 from the reconstructed image Ir2 with the edge enhanced to generate a reconstructed image Ir5 (step S25). That is, the CT value of the pixel at the coordinate (x, y, z) of the bone reconstructed image Ir4 generated in step S24 is subtracted from the CT value of the pixel at the coordinate (x, y, z) of the reconstructed image Ir2. The CT value of the pixel at the coordinates (x, y, z) of the new image is used. The reconstructed image Ir5 obtained by subtraction is an image in which blood vessels and soft tissue remain.

制御部22は、この再構成画像Ir5に対し、血管用の閾値を設定し、血管のみを抽出し、血管の再構成画像Ir6を生成する(ステップS26)。この場合、例えば、血管を始点として(始点は、例えば、オペレータが指定する)、画素を順次辿って、CT値の閾値を100(造影剤濃度による)以上の適当な値とし、CT値が閾値を越えている画素について、隣接する所定範囲内の画素(例えば、上下左右前後の6点、或いは、近傍12点)のCT値が閾値以上で、隣接した画素とのCT値の差が±100以内であれば血管として選択する処理を、画素をスキャンしながら実行する。   The control unit 22 sets a blood vessel threshold for the reconstructed image Ir5, extracts only the blood vessel, and generates a reconstructed image Ir6 of the blood vessel (step S26). In this case, for example, starting from a blood vessel (the start point is specified by an operator, for example), the pixels are sequentially traced to set the CT value threshold to an appropriate value of 100 (depending on the contrast agent concentration), and the CT value is the threshold value. As for the pixels exceeding the threshold value, the CT values of adjacent pixels within a predetermined range (for example, 6 points in the vertical and horizontal directions, or 12 points in the vicinity) are equal to or greater than the threshold value, and the difference in CT values from adjacent pixels is ± 100. If it is within the range, the process of selecting a blood vessel is executed while scanning the pixels.

次に、制御部22は、こうして抽出した血管の再構成画像Ir6を、エッジを強調した再構成画像Ir2から減算する(ステップS27)。これにより、残った再構成画像Ir7は骨と軟部組織の画像となる。   Next, the control unit 22 subtracts the reconstructed image Ir6 of the blood vessel thus extracted from the reconstructed image Ir2 with the edge enhanced (step S27). Thereby, the remaining reconstructed image Ir7 is an image of bone and soft tissue.

次に、制御部22は、この骨と軟部組織の再構成画像Ir7に対して、始点を骨(例えば、オペレータが指定する)の画素として、画素を順次辿って、閾値が100以上で、隣接した画素のCT値が±200以内のとき、その画素を選択することにより、軟骨を含めたボリュームのある骨の再構成画像Ir8を生成する(ステップS28)。   Next, with respect to the reconstructed image Ir7 of bone and soft tissue, the control unit 22 sequentially follows the pixels with the start point being a pixel of the bone (for example, specified by the operator), and the threshold is 100 or more. When the CT value of the selected pixel is within ± 200, by selecting the pixel, a reconstructed image Ir8 of a bone having a volume including cartilage is generated (step S28).

次に、制御部22は、得られた再構成画像Ir8を再構成画像Ir1から減算することにより、辺縁の滑らかな血管の再構成画像Ir9を生成し(ステップS29)、これを表示する(ステップS30)。   Next, the control unit 22 subtracts the obtained reconstructed image Ir8 from the reconstructed image Ir1, thereby generating a reconstructed image Ir9 of a blood vessel with a smooth edge (step S29), and displays it (step S29). Step S30).

次に、制御部22は、強調周波数指定スライダバー31の「つまみ」32と加算値指定スライダバー33の「つまみ」34が操作されたか否かを判別する(ステップS31)。   Next, the control unit 22 determines whether or not the “knob” 32 of the emphasis frequency designation slider bar 31 and the “knob” 34 of the addition value designation slider bar 33 have been operated (step S31).

少なくとも一方のスライダバー31、33の「つまみ」32、34が操作されていれば(ステップS31;Yes)、ステップS22にリターンして、指定されたエッジ強調関数または加算値を用いて上述と同様の処理を実行し、血管の再構成画像Ir9を生成する。   If the “knobs” 32 and 34 of at least one of the slider bars 31 and 33 are operated (step S31; Yes), the process returns to step S22 and the same as described above using the specified edge enhancement function or addition value. The blood vessel reconstruction image Ir9 is generated.

いずれのスライダバー31、33の「つまみ」32、34の操作も無い場合(ステップS31;No)、制御部22は、血管画像生成処理2の終了あるいは他の処理が指示されたか否かを判別する(ステップS32)。   When there is no operation of the “knobs” 32 and 34 of any of the slider bars 31 and 33 (step S31; No), the control unit 22 determines whether or not the end of the blood vessel image generation process 2 or another process is instructed. (Step S32).

処理の終了あるいは他の処理の開始が指示されていなければ(ステップS32;No)、ステップS31に処理を戻して、指示を待機する。   If the end of the process or the start of another process is not instructed (step S32; No), the process returns to step S31 and waits for the instruction.

一方、処理の終了あるいは他の処理の開始が指示されていれば(ステップS31;Yes)、今回の処理を終了する。   On the other hand, if the end of the process or the start of another process is instructed (step S31; Yes), the current process ends.

このような構成においても、例えば、結果画像Ifを観察しながら、スライダバー31、33の「つまみ」32、34を操作することで、エッジ強調関数と加算値を連続的に変化させて、最適な結果画像Ifを容易に生成することが可能となる。   Even in such a configuration, for example, by operating the “knobs” 32 and 34 of the slider bars 31 and 33 while observing the result image If, the edge enhancement function and the addition value are continuously changed, and the optimum It is possible to easily generate a result image If.

以上の説明においては、エッジ強調関数と加算値を、連続的に変更可能とする実施形態を示した。この発明はこれに限定されない。例えば、平滑化関数の平滑化の程度を連続的に変化させるようにしてもよい。また、骨の抽出、血管の抽出などに使用する閾値を連続的に変化させるようにしてもよい。そして、平滑化関数や閾値が変化する度に自動的に画像処理を行って、結果画像Ifを得るように構成してもよい。   In the above description, the embodiment has been described in which the edge enhancement function and the addition value can be changed continuously. The present invention is not limited to this. For example, the degree of smoothing of the smoothing function may be continuously changed. Further, the threshold value used for bone extraction, blood vessel extraction, and the like may be continuously changed. The image processing may be automatically performed each time the smoothing function or the threshold value changes to obtain a result image If.

さらに、スライダバーを表示し、エッジ強調関数、加算値、平滑化関数、閾値を連続的に変化させる例を示したが、他の任意のユーザインタフェースを用いてこれらを変化させてもよい。例えば、図13に例示するような回転つまみを表示し、この回転つまみの回転量を制御することにより、これらを制御するようにしてもよい。
また、指示する値は、一定の分解能のディジタル値でもよい。
Furthermore, although an example in which a slider bar is displayed and the edge enhancement function, the addition value, the smoothing function, and the threshold value are continuously changed has been shown, these may be changed using any other user interface. For example, a rotary knob as illustrated in FIG. 13 may be displayed, and these may be controlled by controlling the amount of rotation of the rotary knob.
Further, the indicated value may be a digital value with a fixed resolution.

目的部位の抽出に適したエッジ強調関数、平滑化関数、加算値、閾値等は、通常、目的部位によってある程度定まる。そこで、ユーザインタフェースの初期位置を、目的部位別に予め求めておき、目的部位が指定された時点で、自動的に設定するようにしてもよい。   An edge enhancement function, a smoothing function, an added value, a threshold value, and the like suitable for extraction of a target part are usually determined to some extent depending on the target part. Therefore, the initial position of the user interface may be obtained in advance for each target part and automatically set when the target part is designated.

例えば、実験などにより、抽出対象の部位とその部位の抽出に適したエッジ強調関数とを予め求め、図14(a)、(b)に示すように、対応表を記憶部23に格納しておき、画像を処理する際に、抽出部位や抽出の程度(抽出したい血管の径等)を入力部24から入力すると、制御部22が、このテーブルを参照して、「つまみ」32の位置を適切な位置に自動的に修正するようにしてもよい。   For example, a part to be extracted and an edge enhancement function suitable for extraction of the part are obtained in advance by an experiment or the like, and a correspondence table is stored in the storage unit 23 as shown in FIGS. 14 (a) and 14 (b). When the image is processed, when the extraction part and the degree of extraction (the diameter of the blood vessel to be extracted, etc.) are input from the input unit 24, the control unit 22 refers to this table and determines the position of the “knob” 32. You may make it correct automatically in an appropriate position.

また、「つまみ」の移動に応じて生成した複数の画像を、図15に例示するように並列に(或いは順次)表示するようにしてもよい。   Further, a plurality of images generated in accordance with the movement of the “knob” may be displayed in parallel (or sequentially) as illustrated in FIG.

上記実施の形態においては、骨と近傍の血管とを分離する例を中心に説明したが、この発明は、CT値の異なる領域を他から分離する場合に、広く適用可能である。
また、モダリティとして、CT装置を例示したが、他の医用の撮像装置を使用してもよい。但し、本発明は、被曝線量を抑えるという観点から、放射線を撮像に使用する撮像装置とこの種の撮像装置で取得した画像を処理するシステムと方法に特に有効である。
In the above-described embodiment, the example of separating a bone from a nearby blood vessel has been mainly described. However, the present invention can be widely applied when a region having a different CT value is separated from another.
Further, although the CT apparatus is exemplified as the modality, other medical imaging apparatuses may be used. However, the present invention is particularly effective for an imaging apparatus that uses radiation for imaging and a system and method for processing an image acquired by this type of imaging apparatus from the viewpoint of suppressing the exposure dose.

また、以上の説明では、撮像から画像の処理・表示までを一貫して行う医用システムを例に説明したが、この発明は、画像処理装置の画像処理方法の部分のみを実施可能である。また、一般のスタンドアロン型のコンピュータ、ネットワークコンピュータ、ワークステーションなどに、上述の画像処理を実行させるためのコンピュータプログラムを、記録媒体に格納し、これを配布し、コンピュータプログラムをインストール及び実行して、上述の画像処理を実行するようにしてもよい。   In the above description, a medical system that consistently performs from imaging to image processing / display has been described as an example. However, the present invention can implement only the image processing method portion of the image processing apparatus. Further, a general stand-alone computer, a network computer, a workstation, and the like store a computer program for executing the above-described image processing in a recording medium, distribute it, install and execute the computer program, You may make it perform the above-mentioned image processing.

また、分離したい画像に選択的な関心領域をおき、その領域をプロファイルすることで、最適加算値および最適関数を自動算出するシステムとしてもよい。
その他、装置構成、フローチャート、具体的な関数や数値は適宜変更可能である。
Alternatively, a system for automatically calculating the optimum addition value and the optimum function by placing a selective region of interest in the image to be separated and profiling that region.
In addition, the device configuration, the flowchart, specific functions and numerical values can be changed as appropriate.

11 CT装置
12 医用情報DB
13 医用端末装置
14 通信ネットワーク
21 通信部
22 制御部
23 記憶部
24 入力部
24M マウス
25 表示部
31 強調周波数指定スライダバー
32 つまみ
33 加算値指定スライダバー
34 つまみ
11 CT apparatus 12 Medical information DB
13 Medical terminal device 14 Communication network 21 Communication unit 22 Control unit 23 Storage unit 24 Input unit 24M Mouse 25 Display unit 31 Emphasized frequency designation slider bar 32 Knob 33 Addition value designation slider bar 34 Knob

Claims (10)

医用画像撮像装置により撮像された目的部位を含む領域のディジタル画像を記憶する記憶手段と、
前記記憶手段に記憶されたディジタル画像を、複数の再構成関数により処理して複数の再構成画像を取得する再構成手段と、
前記再構成手段により再構成された複数の再構成画像に基づいて、前記目的部位の画像を生成する画像処理手段と、
前記再構成関数を、ユーザの操作に応答して、連続的に変化させるユーザインタフェースと、
前記再構成関数の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる制御手段と、
を備えることを特徴とする医用画像作成装置。
Storage means for storing a digital image of a region including a target portion imaged by a medical image imaging device;
Reconstruction means for processing a digital image stored in the storage means by a plurality of reconstruction functions to obtain a plurality of reconstructed images;
Image processing means for generating an image of the target portion based on a plurality of reconstructed images reconstructed by the reconstructing means;
A user interface that continuously changes the reconstruction function in response to a user operation;
Control means for causing the reconstruction means and the image processing means to regenerate an image of the target portion in response to a change in the reconstruction function;
A medical image creating apparatus comprising:
前記ユーザインタフェースは、
スライダバーを表示する手段と、
表示されたスライダバーへの操作を検出する手段と、
検出したスライダバーへの操作に応答して、前記再構成関数の少なくとも1つを変更して設定する手段と、
を備える、ことを特徴とする請求項1に記載の医用画像作成装置。
The user interface is
Means for displaying a slider bar;
Means for detecting an operation on the displayed slider bar;
Means for changing and setting at least one of the reconstruction functions in response to an operation on the detected slider bar;
The medical image creation apparatus according to claim 1, further comprising:
ユーザの操作に応答して、値を変化させる第2のユーザインタフェースをさらに備え、
前記再構成手段は、前記再構成画像の画素値に前記第2のユーザインタフェースにより設定された値を加算する加算手段を備え、
前記制御手段は、前記第2のユーザインタフェースによる値の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる、
ことを特徴とする請求項1又は2に記載の医用画像作成装置。
A second user interface for changing a value in response to a user operation;
The reconstructing means includes an adding means for adding a value set by the second user interface to a pixel value of the reconstructed image,
The control means causes the reconstruction means and the image processing means to regenerate an image of the target portion in response to a change in value by the second user interface.
The medical image creation apparatus according to claim 1 or 2.
前記第2のユーザインタフェースは、
第2のスライダバーを表示する手段と、
表示された第2のスライダバーへの操作を検出する手段と、
検出した第2のスライダバーへの操作に応答して、前記値を変更して設定する手段と、
を備える、ことを特徴とする請求項3に記載の医用画像作成装置。
The second user interface is:
Means for displaying a second slider bar;
Means for detecting an operation on the displayed second slider bar;
Means for changing and setting the value in response to an operation on the detected second slider bar;
The medical image creation apparatus according to claim 3, further comprising:
ユーザの操作に応答して、閾値を連続的に変化させる第3のユーザインタフェースを備え、
前記再構成手段は、前記再構成画像を閾値を用いて処理する手段を備え、
前記制御手段は、前記閾値の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる、
ことを特徴とする請求項1又は2に記載の医用画像作成装置。
A third user interface for continuously changing the threshold in response to a user operation;
The reconstruction means comprises means for processing the reconstructed image using a threshold value,
The control unit causes the reconstruction unit and the image processing unit to regenerate an image of the target portion in response to the change in the threshold value.
The medical image creation apparatus according to claim 1 or 2.
前記第3のユーザインタフェースは、
第3のスライダバーを表示する手段と、
表示された第3のスライダバーへの操作を検出する手段と、
検出した第3のスライダバーへの操作に応答して、前記閾値を変更して設定する手段と、
を備える、ことを特徴とする請求項5に記載の医用画像作成装置。
The third user interface is:
Means for displaying a third slider bar;
Means for detecting an operation on the displayed third slider bar;
Means for changing and setting the threshold value in response to the detected operation on the third slider bar;
The medical image creation apparatus according to claim 5, further comprising:
前記記憶手段に記憶されたディジタル画像は、骨と造影剤が投入された血管とを含む領域のディジタル画像データであり、
前記複数の再構成関数のうち、第1の再構成関数は、画像を処理する関数であり、第2の再構成関数は、画像のエッジを強調する程度が前記第1の再構成関数と異なる関数であり、
前記画像処理手段は、前記第1の再構成関数により処理された第1の再構成画像を構成する各画素の濃度から前記第2の再構成関数により処理された第2の再構成画像を構成する対応する画素の濃度を減算し、血管の画像の対応する画素の濃度とすることにより、血管の画像を生成する手段から構成され、
前記ユーザインタフェースは、前記第1の再構成関数と前記第2の再構成関数の少なくとも一方を、ユーザ操作に応答して変更する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の医用画像作成装置。
The digital image stored in the storage means is digital image data of an area including a bone and a blood vessel into which a contrast medium is injected,
Of the plurality of reconstruction functions, the first reconstruction function is a function for processing an image, and the second reconstruction function is different from the first reconstruction function in that the edge of the image is enhanced. Function,
The image processing means composes a second reconstructed image processed by the second reconstruction function from the density of each pixel constituting the first reconstructed image processed by the first reconstruction function. A means for generating a blood vessel image by subtracting the corresponding pixel density to obtain the corresponding pixel density of the blood vessel image,
The user interface changes at least one of the first reconstruction function and the second reconstruction function in response to a user operation.
The medical image creation apparatus according to any one of claims 1 to 6.
前記記憶手段に記憶された前記ディジタル画像は、骨と造影剤が投入された血管とを含む領域のディジタル画像であり、
前記複数の再構成関数のうち、第1の再構成関数は、画像を処理する関数であり、第2の再構成関数は、画像のエッジを強調する程度が前記第1の再構成関数と異なる関数であり、
前記再構成手段は、前記第1の再構成関数によりディジタル画像を処理することにより、第1の再構成画像を形成し、前記第2の再構成関数によりディジタル画像を処理し、得られた画像の各画素を、第2の閾値に基づいて処理することにより、第2の再構成画像を形成し、
前記ユーザインタフェースは、前記第1の再構成関数と前記第2の再構成関数の少なくとも一方を、ユーザ操作に応答して変更する、
ことを特徴とする請求項1乃至7のいずれか1項に記載の医用画像作成装置。
The digital image stored in the storage means is a digital image of a region including bone and a blood vessel into which a contrast medium has been introduced,
Of the plurality of reconstruction functions, the first reconstruction function is a function for processing an image, and the second reconstruction function is different from the first reconstruction function in that the edge of the image is enhanced. Function,
The reconstruction means forms a first reconstructed image by processing the digital image with the first reconstruction function, processes the digital image with the second reconstruction function, and obtains the obtained image Are processed based on a second threshold value to form a second reconstructed image,
The user interface changes at least one of the first reconstruction function and the second reconstruction function in response to a user operation.
The medical image creation apparatus according to claim 1, wherein the medical image creation apparatus is a medical image creation apparatus.
前記再構成手段は、前記第2の再構成関数により処理した画像を、骨の閾値を用いて処理することにより骨の画像である前記第2の再構成画像を生成する、
ことを特徴とする請求項7又は8に記載の医用画像作成装置。
The reconstruction means generates the second reconstructed image, which is a bone image, by processing the image processed by the second reconstruction function using a bone threshold value.
The medical image creation apparatus according to claim 7 or 8, wherein
コンピュータを、
医用画像撮像装置により撮像された目的部位を含む領域のディジタル画像を記憶する記憶手段、
前記記憶手段に記憶されたディジタル画像を、複数の再構成関数により処理して複数の再構成画像を取得する再構成手段、
前記再構成手段により再構成された複数の再構成画像に基づいて、前記目的部位の画像を生成する画像処理手段、
前記再構成関数を、ユーザの操作に応答して、連続的に変化させるユーザインタフェース、
前記再構成関数の変化に応答して、前記再構成手段と前記画像処理手段とに前記目的部位の画像を再生成させる制御手段、
として機能させるコンピュータプログラム。
Computer
Storage means for storing a digital image of a region including a target portion imaged by a medical image imaging device;
Reconstructing means for processing a digital image stored in the storage means with a plurality of reconstruction functions to obtain a plurality of reconstructed images;
Image processing means for generating an image of the target portion based on a plurality of reconstructed images reconstructed by the reconstructing means;
A user interface that continuously changes the reconstruction function in response to a user operation;
Control means for causing the reconstruction means and the image processing means to regenerate an image of the target portion in response to a change in the reconstruction function;
A computer program that functions as a computer program.
JP2009051393A 2009-03-04 2009-03-04 Medical image preparation instrument Pending JP2010201044A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009051393A JP2010201044A (en) 2009-03-04 2009-03-04 Medical image preparation instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009051393A JP2010201044A (en) 2009-03-04 2009-03-04 Medical image preparation instrument

Publications (1)

Publication Number Publication Date
JP2010201044A true JP2010201044A (en) 2010-09-16

Family

ID=42963152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009051393A Pending JP2010201044A (en) 2009-03-04 2009-03-04 Medical image preparation instrument

Country Status (1)

Country Link
JP (1) JP2010201044A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140131082A (en) * 2013-05-03 2014-11-12 삼성전자주식회사 Medical imaging apparatus and control method for the same
JP2016195759A (en) * 2015-04-03 2016-11-24 デンタル・イメージング・テクノロジーズ・コーポレーション System and method for displaying volume image
WO2021166630A1 (en) * 2020-02-19 2021-08-26 キヤノン株式会社 Image processing device and image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140131082A (en) * 2013-05-03 2014-11-12 삼성전자주식회사 Medical imaging apparatus and control method for the same
US9183627B2 (en) 2013-05-03 2015-11-10 Samsung Electronics Co., Ltd. Medical imaging apparatus and method of controlling the same
KR102078335B1 (en) * 2013-05-03 2020-02-17 삼성전자주식회사 Medical imaging apparatus and control method for the same
JP2016195759A (en) * 2015-04-03 2016-11-24 デンタル・イメージング・テクノロジーズ・コーポレーション System and method for displaying volume image
WO2021166630A1 (en) * 2020-02-19 2021-08-26 キヤノン株式会社 Image processing device and image processing method, and program

Similar Documents

Publication Publication Date Title
JP6827706B2 (en) Information processing equipment and its methods, information processing systems, computer programs
US8103070B2 (en) Volume rendering apparatus and method
US8923581B2 (en) Interactive 3-D examination of root fractures
IL126846A (en) Enhanced visualization of weak image sources in the vicinity of dominant sources
JP5279995B2 (en) Area determination device
US10748263B2 (en) Medical image processing apparatus, medical image processing method and medical image processing system
TW201219013A (en) Method for generating bone mask
WO2013014868A1 (en) Cutting simulation device and cutting simulation program
JP2010535043A (en) X-ray tool for 3D ultrasound
US11900526B2 (en) Volume rendering using surface guided cropping
JP2004057411A (en) Method for preparing visible image for medical use
JP2010201044A (en) Medical image preparation instrument
JP2005185405A (en) Medical image processor, region-of-interest extraction method and program
KR101599890B1 (en) Apparatus and method for processing medical image
CN107170021B (en) Refined reconstruction of time-varying data
US11599977B2 (en) Image-processing of image datasets of patients
JP2007054147A (en) Apparatus for assisting diagnostic imaging/treatment
Suárez et al. VirSSPA-a virtual reality tool for surgical planning workflow
JP5750381B2 (en) Region extraction processing system
JP2008148970A (en) X-ray ct system
JP2009225979A (en) Medical image generating apparatus and method
US11003342B1 (en) Smart scrolling system
CN111462314B (en) Organ three-dimensional image reconstruction method, operation navigation method and operation auxiliary system
CN105193383B (en) Protocol generation system and method, protocol display system, and image generation system
JP7242436B2 (en) Image interpretation support device, image interpretation support method, and image interpretation support program