JP6403136B2 - Medical image processing apparatus, medical image analysis system, medical image processing method and program - Google Patents

Medical image processing apparatus, medical image analysis system, medical image processing method and program Download PDF

Info

Publication number
JP6403136B2
JP6403136B2 JP2014189888A JP2014189888A JP6403136B2 JP 6403136 B2 JP6403136 B2 JP 6403136B2 JP 2014189888 A JP2014189888 A JP 2014189888A JP 2014189888 A JP2014189888 A JP 2014189888A JP 6403136 B2 JP6403136 B2 JP 6403136B2
Authority
JP
Japan
Prior art keywords
image
value
color
unit
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014189888A
Other languages
Japanese (ja)
Other versions
JP2016059593A (en
Inventor
大祐 定岡
大祐 定岡
貴彦 濱▲崎▼
貴彦 濱▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Health Sciences Foundation
Original Assignee
Japan Health Sciences Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Health Sciences Foundation filed Critical Japan Health Sciences Foundation
Priority to JP2014189888A priority Critical patent/JP6403136B2/en
Publication of JP2016059593A publication Critical patent/JP2016059593A/en
Application granted granted Critical
Publication of JP6403136B2 publication Critical patent/JP6403136B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、医用画像処理装置、医用画像解析システム、医用画像処理方法及びプログラムに関する。   The present invention relates to a medical image processing apparatus, a medical image analysis system, a medical image processing method, and a program.

骨粗鬆症は、骨形成速度よりも骨吸収速度が高いことにより、骨に小さな穴が多発する症状である。高齢化に伴い、骨粗鬆症を患う患者の数が増加している。そこで、骨粗鬆症の治療に用いられる薬剤の開発が盛んになっている(例えば、特許文献1、2参照)。   Osteoporosis is a symptom in which small holes occur frequently in the bone because the bone resorption rate is higher than the bone formation rate. As the population ages, the number of patients suffering from osteoporosis is increasing. Then, development of the medicine used for the treatment of osteoporosis has become active (for example, refer patent documents 1 and 2).

国際公開第2011/030774号International Publication No. 2011/030774 特表2010−506844号公報Special table 2010-506844

骨粗鬆症は、脊椎椎体等の骨折の原因となる。上述の薬剤はこのような骨粗鬆症性の脊椎椎体骨折の治療にも用いられる。椎体骨折の治療は長期間に及ぶ。骨折した椎体の治癒状態を確認するため、骨癒合が得られたと思われる段階になると、動態撮影が行われ、その撮影で椎体の不安定性が消失していることを確認することで骨癒合が得られているか否かが判定される。   Osteoporosis causes fractures of the spinal vertebral body and the like. The aforementioned drugs are also used to treat such osteoporotic vertebral body fractures. Treatment of vertebral fractures is long. In order to confirm the healing state of the fractured vertebral body, when it was considered that bone fusion had been obtained, dynamic imaging was performed, and by confirming that the instability of the vertebral body had disappeared by the imaging, It is determined whether or not fusion has been obtained.

一方、骨密度の測定には、X線を用いたDEXA(Dual-Energy X-ray Absorptiometry)法が用いられるのが一般的である。DEXA法を用いれば、椎体ごとに骨密度を簡便に測定できる。しかしながら、DEXA法では、骨密度の数値が改善していることは確認することができるが、椎体の海綿骨あるいは皮質骨のどの部分でどの程度骨量が増加したかまでは分かり得ない。   On the other hand, for the measurement of bone density, a DEXA (Dual-Energy X-ray Absorptiometry) method using X-rays is generally used. If the DEXA method is used, the bone density can be easily measured for each vertebral body. However, in the DEXA method, it can be confirmed that the numerical value of the bone density has improved, but it cannot be known how much the bone mass has increased in which part of the cancellous bone or cortical bone of the vertebral body.

これらの検査に加えてコンピュータ断層撮影(Computed Tomography;CT)により椎体内部の3次元X線CT画像の撮影も広く行われている。矢状断面のCT画像、水平断面のCT画像、冠状断面のCT画像を経時的に観察すれば、骨癒合の過程をある程度確認することができる。しかしながら、CT画像は、256階調のグレー表示(白黒表示)で表示されるため、椎体内部の微細な骨量変化を視覚的に判別することは困難である。骨癒合の過程を見るために椎体内部の構造を強調表示すれば、周辺の部位の像が失われ、椎体と周辺の部位との位置関係を把握できなくなるので、その画像を診断に用いて治療に生かすのが難しくなる。   In addition to these examinations, imaging of three-dimensional X-ray CT images inside the vertebral body is also widely performed by computed tomography (CT). If the CT image of the sagittal cross section, the CT image of the horizontal cross section, and the CT image of the coronal cross section are observed over time, the process of bone fusion can be confirmed to some extent. However, since the CT image is displayed in 256 gray levels (black and white display), it is difficult to visually discriminate minute bone mass changes in the vertebral body. If the structure inside the vertebral body is highlighted to see the process of bone fusion, the image of the surrounding part is lost and the positional relationship between the vertebral body and the surrounding part cannot be grasped. It becomes difficult to make use for treatment.

この発明は、上記のような問題点を解決するためになされたものであり、椎体の内部状態を適切に診断するための画像を生成する医用画像処理装置、医用画像解析システム、医用画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and is a medical image processing apparatus, a medical image analysis system, and a medical image processing for generating an image for appropriately diagnosing the internal state of a vertebral body. An object is to provide a method and a program.

上記目的を達成するため、この発明の第1の観点に係る医用画像処理装置は、
コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成部と、
再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定部と、
前記範囲設定部で設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成部と、
前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成部と、
を備える。
In order to achieve the above object, a medical image processing apparatus according to the first aspect of the present invention provides:
An image reconstruction unit configured to represent a CT value in gray scale and reconstruct a first CT image of a two-dimensional section including a vertebral body based on three-dimensional image data of a region including a vertebra obtained by computed tomography;
CT for performing color mapping on the first CT image in which the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value and the CT value of the cortical bone region is the maximum value A range setting section for setting a range of values;
Based on the CT value range set by the range setting unit, the first CT image is subjected to color mapping using a plurality of colors with color coding according to the CT value of the range . A color image generation unit that converts the CT image of 1 into a second CT image that represents a CT value in color;
A fusion image generating unit that generates a fusion image by superimposing the first CT image and the second CT image;
Is provided.

前記画像再構成部は、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定部は、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成部は、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成部は、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
こととしてもよい。
The image reconstruction unit
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
The range setting unit
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
The color image generation unit
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
The fusion image generation unit
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
It is good as well.

複数の異なる時点での同一断面の前記フュージョン画像を比較表示する表示出力部を備える、
こととしてもよい。
A display output unit for comparing and displaying the fusion image of the same cross section at a plurality of different time points,
It is good as well.

前記範囲設定部は、
前記海綿骨の領域のCT値の平均値を、カラーマッピングを行うCT値の最小値とし、
前記皮質骨の領域のCT値の平均値を、カラーマッピングを行うCT値の最大値として、カラーマッピングを行うCT値の範囲を設定する、
こととしてもよい。
The range setting unit includes:
The average CT value of the cancellous bone region is the minimum CT value for color mapping,
The average value of CT values of the cortical bone region is set as a maximum value of CT values for performing color mapping, and a range of CT values for performing color mapping is set.
It is good as well.

前記画像再構成部は、
前記椎体の複数の異なる水平断面のCT画像を、前記第1のCT画像として再構成する、
こととしてもよい。
The image reconstruction unit
Reconstructing a plurality of different horizontal cross-sectional CT images of the vertebral body as the first CT image;
It is good as well.

前記範囲設定部は、
前記第1のCT画像の椎体の中心部とその前後左右の5点の平均値を海綿骨のCT値の平均値として算出し、
椎弓・椎弓根を含む皮質骨3点の平均値を皮質骨のCT値の平均値として算出する、
こととしてもよい。
The range setting unit includes:
Calculate the average value of the center of the vertebral body of the first CT image and the five points on the front, back, left and right as the average value of the CT value of cancellous bone,
Calculate the average value of three cortical bones including vertebral arches and pedicles as the average CT value of cortical bone.
It is good as well.

この発明の第2の観点に係る医用画像解析システムは、
この発明の医用画像処理装置と、
前記医用画像処理装置によって処理される医用画像を撮像する撮像装置と、
を備える。
A medical image analysis system according to a second aspect of the present invention provides:
A medical image processing apparatus of the present invention;
An imaging device for imaging a medical image processed by the medical image processing device;
Is provided.

この発明の第3の観点に係る医用画像処理方法は、
コンピュータを用いて、コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成ステップと、
コンピュータを用いて、再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定ステップと、
コンピュータを用いて、前記範囲設定ステップで設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成ステップと、
コンピュータを用いて、前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成ステップと、
を含む。
A medical image processing method according to a third aspect of the present invention provides:
An image for reconstructing a first CT image of a two-dimensional cross section including a vertebral body by expressing a CT value in gray scale based on three-dimensional image data of a region including a vertebra obtained by computer tomography using a computer A reconfiguration step;
Using the computer, for the first CT image, the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value, and the CT value of the cortical bone region is the maximum value . A range setting step for setting a range of CT values for performing color mapping;
Using a computer, based on the CT value range set in the range setting step, color mapping using a plurality of colors is performed on the first CT image with color coding according to the CT value in the range. A color image generating step of converting the first CT image into a second CT image representing a CT value in color;
Using a computer, a fusion image generating step of generating a fusion image by superimposing the first CT image and the second CT image;
including.

前記画像再構成ステップでは、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定ステップでは、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成ステップでは、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成ステップでは、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
こととしてもよい。
In the image reconstruction step,
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
In the range setting step,
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
In the color image generation step,
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
In the fusion image generation step,
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
It is good as well.

この発明の第4の観点に係るプログラムは、
コンピュータを、
コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成部、
再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定部、
前記範囲設定部で設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成部、
前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成部、
として機能させる。
A program according to the fourth aspect of the present invention is:
Computer
An image reconstruction unit that represents CT values in gray scale and reconstructs a first CT image of a two-dimensional section including a vertebral body based on three-dimensional image data of a region including a vertebra obtained by computed tomography;
CT for performing color mapping on the first CT image in which the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value and the CT value of the cortical bone region is the maximum value A range setting section for setting the range of values,
Based on the CT value range set by the range setting unit, the first CT image is subjected to color mapping using a plurality of colors with color coding according to the CT value of the range . A color image generation unit that converts one CT image into a second CT image in which CT values are expressed in color;
A fusion image generating unit that generates a fusion image by superimposing the first CT image and the second CT image;
To function as.

前記画像再構成部は、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定部は、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成部は、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成部は、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
ようにコンピュータを機能させる、
こととしてもよい。
The image reconstruction unit
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
The range setting unit includes:
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
The color image generation unit
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
The fusion image generation unit
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
To make the computer work,
It is good as well.

この発明によれば、椎体周辺の部位をコントラスト良く表示するグレースケール画像と、椎体の内部状態を色で強調して表示するカラー画像とが重ね合わせてフュージョン画像が生成される。このフュージョン画像は、椎体周辺の部位の像を消失させることなく椎体内部状態を強調した画像となる。このため、このフュージョン画像を見れば、椎体の内部状態を適切に診断することができる。   According to the present invention, a fusion image is generated by superimposing a grayscale image that displays a region around a vertebral body with good contrast and a color image that displays the internal state of the vertebral body with color emphasis. This fusion image is an image that emphasizes the internal state of the vertebral body without erasing the image of the region around the vertebral body. For this reason, the internal state of the vertebral body can be appropriately diagnosed by looking at this fusion image.

この発明の実施の形態に係る医用画像解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical image analysis system which concerns on embodiment of this invention. 図1の医用画像処理装置のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the medical image processing apparatus of FIG. 椎骨を含む領域の3次元画像データの一例を示す図である。It is a figure which shows an example of the three-dimensional image data of the area | region containing a vertebra. 矢状断面、水平断面、冠状断面の表示画像の一例を示す図である。It is a figure which shows an example of the display image of a sagittal section, a horizontal section, and a coronal section. 椎体上部、椎体中部、椎体下部の水平断面を設定する様子を示す図である。It is a figure which shows a mode that the horizontal cross section of a vertebral body upper part, a vertebral body middle part, and a vertebral body lower part is set. グレースケールの2次元断面画像の一例を示す図である。It is a figure which shows an example of the two-dimensional cross-sectional image of a gray scale. グレースケール画像データに対するカラーマッピングの一例を示す図である。It is a figure which shows an example of the color mapping with respect to gray scale image data. (A)及び(B)は、海綿骨及び皮質骨の領域の一例を示す図である。(A) And (B) is a figure which shows an example of the area | region of cancellous bone and cortical bone. (A)は、グレースケールの画像の一例を示す図である。(B)は、カラー画像の一例を示す図である。(C)は、フュージョン画像の一例を示す図である。(A) is a figure showing an example of a gray scale image. (B) is a diagram showing an example of a color image. (C) is a figure which shows an example of a fusion image. グレースケール画像からカラー画像への変換の流れを示す図である。It is a figure which shows the flow of conversion from a gray scale image to a color image. 複数の異なる時点でのフュージョン画像(水平断面)の比較表示の一例を示す図である。It is a figure which shows an example of the comparison display of the fusion image (horizontal cross section) in a several different time. 診断処理のフローチャートである。It is a flowchart of a diagnostic process. 画像再構成処理のフローチャートである。It is a flowchart of an image reconstruction process. ウインドウ設定処理のフローチャートである。It is a flowchart of a window setting process. 複数の異なる時点のフュージョン画像(矢状断面)の比較表示の一例を示す図である。It is a figure which shows an example of the comparative display of the fusion image (sagittal section) of a several different time. 被検体毎に異なるウインドウを示す図である。It is a figure which shows a different window for every subject.

以下、この発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に示すこの実施の形態に係る医用画像解析システム100は、例えば骨粗鬆症性に起因する椎体骨折の治療等に用いられる。椎体は、椎骨の一部である。椎骨は、脊椎の分節をなす個々の骨のことである。椎骨は縦一列に並んでいる。   A medical image analysis system 100 according to this embodiment shown in FIG. 1 is used for, for example, treatment of a vertebral fracture caused by osteoporosis. The vertebral body is a part of the vertebra. A vertebra is an individual bone that forms a segment of the spine. The vertebrae are arranged in a line.

図1に示すように、医用画像解析システム100は、撮像装置1と、医用画像処理装置2とを備える。撮像装置1と医用画像処理装置2との間は、通信ネットワークで接続されている。この通信ネットワークにより、撮像装置1と医用画像処理装置2との間でデータの送受信が可能となる。   As shown in FIG. 1, the medical image analysis system 100 includes an imaging device 1 and a medical image processing device 2. The imaging device 1 and the medical image processing device 2 are connected via a communication network. Through this communication network, data can be transmitted and received between the imaging apparatus 1 and the medical image processing apparatus 2.

撮像装置1は、コンピュータ断層撮影(Computed Tomography;CT)によりX線CT画像を撮像する装置(モダリティ)である。撮像装置1は、被検者の背骨(椎骨)を含む3次元画像データを撮像する。撮像装置1は、X線管と検出器とを備える。X線管から発せられたX線は、被検者に入射しその体内に一部吸収されて減衰した後透過し、X線管の反対側に位置する検出器に到達して検出される。この間、X線管及び検出器は、被検者の周囲を回転するので、被検者がX線を全方位から受けた時の検出結果が検出器で検出される。検出器の検出結果は、生データとして撮像装置1に保存される。   The imaging apparatus 1 is an apparatus (modality) that captures an X-ray CT image by computed tomography (CT). The imaging device 1 captures three-dimensional image data including a subject's spine (vertebra). The imaging device 1 includes an X-ray tube and a detector. X-rays emitted from the X-ray tube are incident on the subject, partially absorbed in the body, attenuated, and transmitted, reach a detector located on the opposite side of the X-ray tube, and are detected. During this time, since the X-ray tube and the detector rotate around the subject, the detection result when the subject receives X-rays from all directions is detected by the detector. The detection result of the detector is stored in the imaging device 1 as raw data.

さらに、撮像装置1は、保存された生データに基づいて画像再構成処理(逆ラドン変換等)を施すことにより被検者の上半身の横断面データ(スライス画像データ)を生成する。さらに、撮像装置1は、スライス画像データに基づいて、被検者の上半身の3次元画像データを生成する。このようにして、椎骨を含む3次元画像データが得られる。得られた3次元画像データは、DICOM(Digital Imaging and Communications in Medicine)データとして、通信ネットワークを介して医用画像処理装置2に送信される。   Furthermore, the imaging device 1 generates cross-sectional data (slice image data) of the upper body of the subject by performing image reconstruction processing (such as inverse radon transformation) based on the stored raw data. Furthermore, the imaging device 1 generates three-dimensional image data of the upper body of the subject based on the slice image data. In this way, three-dimensional image data including vertebrae is obtained. The obtained three-dimensional image data is transmitted as DICOM (Digital Imaging and Communications in Medicine) data to the medical image processing apparatus 2 via the communication network.

DICOMデータとは、DICOM規格に基づいて生成されたデータをいう。DICOM規格は、主に医用画像データのフォーマットとして用いられている。DICOMデータは、上記3次元画像データとDICOM規格に準じた付帯情報とで構成される。付帯情報は、患者情報、撮影条件情報、画像情報及び表示情報等の画像データの属性情報であり、DICOMデータにタグ情報として埋め込まれる。   DICOM data refers to data generated based on the DICOM standard. The DICOM standard is mainly used as a format for medical image data. The DICOM data is composed of the three-dimensional image data and incidental information according to the DICOM standard. The incidental information is attribute information of image data such as patient information, imaging condition information, image information, and display information, and is embedded as tag information in DICOM data.

医用画像処理装置2は、受信したDICOMデータに含まれる椎骨を含む3次元画像データに基づいて、椎体の内部状態を診断するための2次元断面画像を生成する。   The medical image processing apparatus 2 generates a two-dimensional cross-sectional image for diagnosing the internal state of the vertebral body based on the three-dimensional image data including the vertebrae included in the received DICOM data.

図2には、図1の医用画像処理装置2のハードウエア構成が示されている。図2に示すように、医用画像処理装置2は、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35及び通信部36を備える。主記憶部32、外部記憶部33、操作部34、表示部35及び通信部36はいずれも内部バス30を介して制御部31に接続されている。   FIG. 2 shows a hardware configuration of the medical image processing apparatus 2 of FIG. As illustrated in FIG. 2, the medical image processing apparatus 2 includes a control unit 31, a main storage unit 32, an external storage unit 33, an operation unit 34, a display unit 35, and a communication unit 36. The main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, and the communication unit 36 are all connected to the control unit 31 via the internal bus 30.

制御部31は、CPU(Central Processing Unit)等から構成されている。このCPUが、外部記憶部33に記憶されているプログラム39を実行することにより、図1に示す医用画像処理装置2の各構成要素が実現される。   The control unit 31 includes a CPU (Central Processing Unit) and the like. The CPU executes the program 39 stored in the external storage unit 33, thereby realizing each component of the medical image processing apparatus 2 shown in FIG.

主記憶部32は、RAM(Random-Access Memory)等から構成されている。主記憶部32には、外部記憶部33に記憶されているプログラム39がロードされる。この他、主記憶部32は、制御部31の作業領域(データの一時記憶領域)として用いられる。   The main storage unit 32 is composed of a RAM (Random-Access Memory) or the like. The main storage unit 32 is loaded with a program 39 stored in the external storage unit 33. In addition, the main storage unit 32 is used as a work area (temporary data storage area) of the control unit 31.

外部記憶部33は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成される。外部記憶部33には、制御部31に実行させるためのプログラム39があらかじめ記憶されている。また、外部記憶部33は、制御部31の指示に従って、このプログラム39の実行の際に用いられるデータを制御部31に供給し、制御部31から供給されたデータを記憶する。   The external storage unit 33 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random-Access Memory), and a DVD-RW (Digital Versatile Disc ReWritable). In the external storage unit 33, a program 39 to be executed by the control unit 31 is stored in advance. Further, the external storage unit 33 supplies data used when executing the program 39 to the control unit 31 in accordance with an instruction from the control unit 31, and stores the data supplied from the control unit 31.

操作部34は、キーボード及びマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス30に接続するインターフェイス装置から構成されている。操作部34を介して、操作者が操作した内容に関する情報が制御部31に入力される。   The operation unit 34 includes a pointing device such as a keyboard and a mouse, and an interface device that connects the keyboard and the pointing device to the internal bus 30. Information regarding the content operated by the operator is input to the control unit 31 via the operation unit 34.

表示部35は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成される。表示部35には、椎骨を含む3次元画像データ及び椎体の2次元断面画像などが表示される。   The display unit 35 is configured by a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display). The display unit 35 displays 3D image data including vertebrae, 2D cross-sectional images of vertebral bodies, and the like.

通信部36は、シリアルインターフェイスまたはパラレルインターフェイスから構成されている。通信部36が、通信ネットワークを介して、撮像装置1と接続され、撮像装置1から送られたDICOMデータを受信する。   The communication unit 36 includes a serial interface or a parallel interface. The communication unit 36 is connected to the imaging device 1 via a communication network and receives DICOM data sent from the imaging device 1.

図1に示す医用画像処理装置2の各種構成要素は、図2に示すプログラム39が、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35及び通信部36などをハードウエア資源として用いて実行されることによってその機能を発揮する。   1 includes a control unit 31, a main storage unit 32, an external storage unit 33, an operation unit 34, a display unit 35, a communication unit 36, and the like. The various components of the medical image processing apparatus 2 illustrated in FIG. The function is exhibited by being executed as a hardware resource.

図2に示すようなハードウエア構成を有する医用画像処理装置2は、その機能構成として、図1に示すように、記憶部10と、データ取得部11と、画像再構成部12と、ウインドウ設定部13と、カラー画像生成部14と、フュージョン画像生成部15と、表示出力部16と、を備える。   As shown in FIG. 1, the medical image processing apparatus 2 having the hardware configuration shown in FIG. 2 has a storage unit 10, a data acquisition unit 11, an image reconstruction unit 12, and a window setting. Unit 13, color image generation unit 14, fusion image generation unit 15, and display output unit 16.

記憶部10は、各種データを記憶する。記憶部10によって記憶されるデータの1つにDICOMデータ21がある。記憶部10は、図2に示すハードウエア構成のうち、図2の外部記憶部33に対応する。   The storage unit 10 stores various data. One of the data stored by the storage unit 10 is DICOM data 21. The memory | storage part 10 respond | corresponds to the external memory | storage part 33 of FIG. 2 among the hardware constitutions shown in FIG.

データ取得部11は、図2に示すハードウエア構成のうち、制御部31、操作部34、表示部35及び通信部36に対応する。データ取得部11は、撮像装置1から送信されたDICOMデータを取得する。   The data acquisition unit 11 corresponds to the control unit 31, the operation unit 34, the display unit 35, and the communication unit 36 in the hardware configuration illustrated in FIG. The data acquisition unit 11 acquires DICOM data transmitted from the imaging device 1.

より具体的には、データ取得部11としての制御部31がプログラム39を実行することにより、表示部35には、撮像装置1からデータを取得するためのデータ取得ボタンが表示される。操作部34の操作入力により、データ取得ボタンを選択すると、制御部31は、通信部36を介して撮像装置1にデータ取得コマンドを送信する。撮像装置1は、このコマンドを受けて、DICOMデータを通信部36に送信する。制御部31は、通信部36を介して受信したDICOMデータを受信する。制御部31は、受信したDICOMデータをDICOMデータ21として記憶部10に記憶する。   More specifically, when the control unit 31 as the data acquisition unit 11 executes the program 39, a data acquisition button for acquiring data from the imaging device 1 is displayed on the display unit 35. When the data acquisition button is selected by an operation input of the operation unit 34, the control unit 31 transmits a data acquisition command to the imaging apparatus 1 via the communication unit 36. Upon receiving this command, the imaging apparatus 1 transmits DICOM data to the communication unit 36. The control unit 31 receives the DICOM data received via the communication unit 36. The control unit 31 stores the received DICOM data in the storage unit 10 as the DICOM data 21.

撮像装置1では、複数の被検者の撮像が行われ、それぞれの撮像データがDICOMデータとして得られる。同一の被検者に対しても、日をおいて撮像が行われる。例えば、同一の被検者に対して、骨折直後、その4週間後、12週間後というように、間隔をおいて撮像が行われ、それぞれDICOMデータが生成される。データ取得部11は、これらの複数のDICOMデータを受信して、DICOMデータ21として記憶部10に記憶する。DICOMデータ21は、そのような3次元画像データの集合体である。   In the imaging apparatus 1, a plurality of subjects are imaged, and each imaging data is obtained as DICOM data. Even for the same subject, imaging is performed at a later date. For example, the same subject is imaged at intervals such as immediately after a fracture, 4 weeks later, 12 weeks later, and DICOM data is generated. The data acquisition unit 11 receives the plurality of DICOM data and stores them in the storage unit 10 as DICOM data 21. The DICOM data 21 is an aggregate of such three-dimensional image data.

画像再構成部12は、図2に示すハードウエア構成のうち、制御部31、操作部34及び表示部35に対応する。画像再構成部12は、記憶部10に記憶されたDICOMデータ21から、診断対象となる椎骨を含む領域の3次元画像データを入力する。図3にはこの3次元画像データの一例が示されている。図3に示すように、この3次元画像データは、被検者の内部をCT値で表現した3次元画像データである。   The image reconstruction unit 12 corresponds to the control unit 31, the operation unit 34, and the display unit 35 in the hardware configuration illustrated in FIG. The image reconstruction unit 12 inputs 3D image data of a region including a vertebra to be diagnosed from the DICOM data 21 stored in the storage unit 10. FIG. 3 shows an example of the three-dimensional image data. As shown in FIG. 3, this three-dimensional image data is three-dimensional image data in which the inside of the subject is expressed by CT values.

CT値は、単位がHU(Hounsfield unit)値とも呼ばれ、堅いもの(X線が透過しにくいもの)ほど高くなる。CT値の単位はHUであり、空気が−1000HUであり、水が0HUとなり、最も堅い骨が1000HUとなる。したがって、この3次元画像データでは、しっかりした骨ほどCT値は高くなり、弱い骨のCT値は低くなる。骨のCT値は、骨折によっても変化する。図3では、骨の部分以外の図示は省略されている。実際の画像には、他の部位の像も表れている。   The CT value is also referred to as a HU (Hounsfield unit) value, and the higher the CT value, the higher the value (the harder it is to transmit X-rays). The unit of CT value is HU, air is -1000HU, water is 0HU, and the hardest bone is 1000HU. Therefore, in this three-dimensional image data, the firmer bone has a higher CT value and a weak bone has a lower CT value. The CT value of bone also changes depending on the fracture. In FIG. 3, illustrations other than the bone portion are omitted. In the actual image, images of other parts also appear.

画像再構成部12は、入力された3次元画像データに基づいて、椎体を含む2次元断面のCT画像(第1のCT画像)を再構成する。このCT画像は、CT値をグレースケールで表現するグレー画像である。再構成されたグレー画像は、グレースケールCT画像データ22として、記憶部10に格納される。   The image reconstruction unit 12 reconstructs a CT image (first CT image) of a two-dimensional section including a vertebral body based on the input three-dimensional image data. This CT image is a gray image expressing CT values in gray scale. The reconstructed gray image is stored in the storage unit 10 as grayscale CT image data 22.

より具体的には、画像再構成部12としての制御部31は、操作部34の操作入力により、プログラム39を実行して、表示部35にDICOMデータ21の中に含まれる3次元画像データのリストを表示させる。操作部34の操作入力により、表示部35に表示されたリストの中から、1つの3次元画像データが選択されると、制御部31は、プログラム39に含まれる3次元(3D)ビューアを起動し、3Dビューアにより、表示部35は、例えば、図3に示すような3次元画像データを表示する。   More specifically, the control unit 31 as the image reconstruction unit 12 executes the program 39 in response to an operation input from the operation unit 34, and displays the 3D image data included in the DICOM data 21 on the display unit 35. Display the list. When one three-dimensional image data is selected from the list displayed on the display unit 35 by an operation input from the operation unit 34, the control unit 31 activates a three-dimensional (3D) viewer included in the program 39. Then, the display unit 35 displays, for example, three-dimensional image data as shown in FIG. 3 by the 3D viewer.

プログラム39には、MPR(任意多断面再構成)機能のプログラムも含まれている。MPR機能は、3次元画像データから任意の2次元断面の画像データを再構成して表示する機能である。プログラム39には、2次元(2D)ビューアも含まれている。表示部35には、3次元画像データとともにMPRの起動ボタンも表示されている。操作部34の操作入力により、起動ボタンが選択されると、制御部31は、MPR機能及び2Dビューアを起動する。表示部35は、図4に示すように、MPR機能及び2Dビューアにより、3次元画像データから、矢状断面画像と、水平断面画像と、冠状断面画像とを再構成して表示する。   The program 39 also includes an MPR (arbitrary multi-section reconstruction) function program. The MPR function is a function for reconstructing and displaying image data of an arbitrary two-dimensional section from three-dimensional image data. The program 39 also includes a two-dimensional (2D) viewer. The display unit 35 also displays an MPR activation button together with the three-dimensional image data. When an activation button is selected by an operation input from the operation unit 34, the control unit 31 activates the MPR function and the 2D viewer. As shown in FIG. 4, the display unit 35 reconstructs and displays a sagittal cross-sectional image, a horizontal cross-sectional image, and a coronal cross-sectional image from the three-dimensional image data by the MPR function and the 2D viewer.

矢状断面、水平断面及び冠状断面は調整することが可能である。オペレータは、表示部35に表示された矢状断面画像と、水平断面画像と、冠状断面画像とを見ながら操作部34を操作して、矢状断面の位置を変更することができる。この変更に応じて、制御部31が、MPR機能により、変更された矢状断面画像、水平断面画像、冠状断面画像を再構成し、表示部35に表示する。操作部34の操作入力による断面の調整と表示部35の調整画像の表示との繰り返しにより、正確な矢状断面の位置が決定される。   The sagittal section, horizontal section and coronal section can be adjusted. The operator can change the position of the sagittal section by operating the operation unit 34 while viewing the sagittal section image, the horizontal section image, and the coronal section image displayed on the display unit 35. In response to this change, the control unit 31 reconstructs the changed sagittal cross-sectional image, horizontal cross-sectional image, and coronal cross-sectional image by the MPR function, and displays them on the display unit 35. By repeating the adjustment of the cross section by the operation input of the operation unit 34 and the display of the adjustment image of the display unit 35, the exact position of the sagittal cross section is determined.

操作部34の操作入力により、矢状断面の位置が決定されると、画像再構成部12としての制御部31は、その矢状断面を基準として、椎体を含む領域の水平断面の画像を再構成する。画像再構成部12(制御部31)は、再構成された水平断面の画像データを、グレースケールCT画像データ22として、記憶部10に記憶する。   When the position of the sagittal section is determined by the operation input of the operation unit 34, the control unit 31 as the image reconstruction unit 12 uses the sagittal section as a reference to display an image of the horizontal section of the region including the vertebral body. Reconfigure. The image reconstruction unit 12 (control unit 31) stores the reconstructed horizontal slice image data as grayscale CT image data 22 in the storage unit 10.

画像再構成部12は、椎体上部、椎体中部、椎体下部の3つの水平断面のCT画像を、グレースケール画像として再構成する。図5には、椎体上部、椎体中部、椎体下部で水平断面が指定される様子が示されている。図5では、厚さ2mm、2mm間隔、有効視野100mmで、椎体上部、中部、下部の水平断面が選択されている。   The image reconstruction unit 12 reconstructs CT images of three horizontal sections of the upper vertebral body, the middle vertebral body, and the lower vertebral body as grayscale images. FIG. 5 shows a state in which horizontal sections are designated at the upper vertebral body, the middle vertebral body, and the lower vertebral body. In FIG. 5, horizontal sections of the upper, middle, and lower vertebral bodies are selected with a thickness of 2 mm, an interval of 2 mm, and an effective visual field of 100 mm.

図6には、このグレースケールの2次元断面画像の一例が示されている。この画像は、椎体及び他の部位を含む水平断面の画像である。このグレースケールの画像は、256階調のCT値で表現される画像である。例えば、上述した−1000HU〜+1000HUのうち、所定のウインドウで区切られた範囲のCT値が256階調の濃淡の輝度値に割り振られて表示される。図6に示すように、骨である椎体は、他の部位よりもX線の透過率が低いので、CT値が他の部位よりも高めとなり、白っぽく写っている。   FIG. 6 shows an example of this grayscale two-dimensional cross-sectional image. This image is an image of a horizontal section including vertebral bodies and other parts. This gray scale image is an image expressed by a CT value of 256 gradations. For example, among the above-described −1000 HU to +1000 HU, CT values in a range delimited by a predetermined window are allocated and displayed with 256 grayscale brightness values. As shown in FIG. 6, the vertebral body, which is a bone, has a lower X-ray transmittance than other parts, so the CT value is higher than the other parts and appears whitish.

椎体は、海綿骨と皮質骨とにより形成されている。海綿骨は、脊柱椎体などに含まれる海綿状の骨である。皮質骨は、海綿骨を薄く覆っている骨や、長管骨の中央部のように厚い竹筒状になっている骨である。海綿骨よりも皮質骨の方が固く骨密度が高いため、CT画像において、皮質骨の領域ではCT値が高くなっており、海綿骨の領域ではCT値が低くなっている。   The vertebral body is formed by cancellous bone and cortical bone. The cancellous bone is a cancellous bone contained in the spinal vertebral body and the like. Cortical bone is bone that thinly covers cancellous bone or bone that has a thick bamboo tube shape like the central portion of long bone. Since cortical bone is harder and has a higher bone density than cancellous bone, in the CT image, the CT value is high in the cortical bone region, and the CT value is low in the cancellous bone region.

範囲設定部としてのウインドウ設定部13は、図2に示すハードウエア構成のうち、制御部31、操作部34及び表示部35に対応する。ウインドウ設定部13は、再構成されたグレースケールCT画像データ22に含まれる海綿骨の領域のCT値と皮質骨の領域のCT値とに基づいて、グレースケールの2次元画像のCT画像に対してカラーマッピングを行うCT値の範囲(ウインドウ)を設定する。ウインドウ設定部13は、グレースケールCT画像データ22を入力する。ウインドウ設定部13は、海綿骨の領域を抽出して、その領域のCT値の平均値を、カラーマッピングを行うCT値の最小値として算出する。さらに、ウインドウ設定部13は、皮質骨の領域を抽出して、その領域のCT値の平均値を、カラーマッピングを行うCT値の最大値として算出する。   The window setting unit 13 as the range setting unit corresponds to the control unit 31, the operation unit 34, and the display unit 35 in the hardware configuration illustrated in FIG. The window setting unit 13 applies the CT image of the grayscale two-dimensional image to the CT image of the cancellous bone region and the CT value of the cortical bone region included in the reconstructed grayscale CT image data 22. The CT value range (window) for color mapping is set. The window setting unit 13 inputs grayscale CT image data 22. The window setting unit 13 extracts the cancellous bone region, and calculates the average value of the CT values in the region as the minimum value of the CT values for color mapping. Further, the window setting unit 13 extracts a cortical bone region, and calculates an average value of CT values in the region as a maximum value of CT values for performing color mapping.

ウインドウ設定部13は、算出されたCT値の最大値、CT値の最小値に基づいて、カラーマッピングを行うウインドウの幅(WW)とレベル(WL)を設定する。ウインドウのレベルWLは、ウインドウの中央値である。カラーマッピングを行うCT値の範囲(WW、WL)は、ウインドウデータ23として記憶部10に記憶される。このウインドウ内にあるCT値に対して、CT値が大きくなるにつれて、青(寒色系)から赤(暖色系)までの256色の色彩が付与される。   The window setting unit 13 sets the width (WW) and level (WL) of the window for performing color mapping based on the calculated maximum CT value and minimum CT value. The level WL of the window is the median value of the window. The CT value range (WW, WL) for color mapping is stored in the storage unit 10 as window data 23. As the CT value increases, 256 colors from blue (cold color system) to red (warm color system) are given to the CT values in this window.

図7には、グレースケール画像データのCT値とウインドウとの関係が示されている。図7に示すように、グレースケールCT画像データ22においてCT値は−1000〜+1000の値をとる。CT値が大きくなるにつれて、各画素の色は黒から白へ変化する。椎体の領域は他の部位の領域よりも白く写るので、皮質骨の領域のCT値の平均値及び海綿骨の領域のCT値の平均値は、他の部位のCT値よりも高めにでる。   FIG. 7 shows the relationship between the CT value of the grayscale image data and the window. As shown in FIG. 7, in the gray scale CT image data 22, the CT value takes a value of −1000 to +1000. As the CT value increases, the color of each pixel changes from black to white. Since the vertebral body region appears whiter than other regions, the average CT value of the cortical bone region and the average CT value of the cancellous bone region are higher than the CT values of the other regions. .

皮質骨の領域の方が、海綿骨の領域よりも白く写るので、皮質骨の領域のCT値の平均値は、海綿骨の領域のCT値の平均値よりも高くなる。そこで、皮質骨の領域のCT値の平均値を最大値とし、海綿骨の領域のCT値の平均値を最小値としてカラーマッピングを行うCT値の範囲を決定すれば、グレースケールCT画像データ22の骨の領域に正確にカラーマッピングを行うことができる。図7に示すように、ウインドウのレベルWLは、皮質骨の領域のCT値の平均値と、海綿骨の領域のCT値の平均値との中間値となり、ウインドウ幅WWは、皮質骨の領域のCT値の平均値と、海綿骨の領域のCT値の平均値との差となる。   Since the cortical bone region appears whiter than the cancellous bone region, the average CT value of the cortical bone region is higher than the average CT value of the cancellous bone region. Therefore, if the CT value range for color mapping is determined by setting the average CT value of the cortical bone region as the maximum value and the average CT value of the cancellous bone region as the minimum value, the grayscale CT image data 22 is obtained. Color mapping can be performed accurately on the bone area of the bone. As shown in FIG. 7, the window level WL is an intermediate value between the average CT value of the cortical bone region and the average CT value of the cancellous bone region, and the window width WW is the cortical bone region. The difference between the average CT value and the average CT value of the cancellous bone region.

海綿骨の領域と皮質骨の領域の抽出方法には、様々な方法が考えられる。例えば、表示部35に表示されたグレースケールの画像の一部を、操作部34の操作入力により指定することにより、海綿骨、皮質骨の領域を抽出し、制御部31が、抽出された領域のCT値の平均値を算出するようにすることができる。   There are various methods for extracting the cancellous bone region and the cortical bone region. For example, by designating a part of the gray scale image displayed on the display unit 35 by an operation input of the operation unit 34, the cancellous bone and cortical bone regions are extracted, and the control unit 31 extracts the extracted regions. The average value of the CT values can be calculated.

図8(A)には、椎体上部、椎体中部、椎体下部で水平断面画像においてそれぞれ指定された海綿骨の5点の領域ROI1〜ROI5と3点の皮質骨の領域ROI6〜ROI8とが示されている。ウインドウ設定部13は、図8(B)に示すように、各グレースケール画像の椎体の中心部とその前後左右の5点に取った関心領域ROI1〜ROI5の平均値を海綿骨のCT値の平均値として算出し、椎弓・椎弓根の皮質骨3点に捕った関心領域ROI6〜ROI8の平均値を皮質骨のCT値の平均値として算出する。なお、各点のうち、指定しづらい点がある場合には、その点の指定を省略するようにしてもよい。   FIG. 8A shows five regions of cancellous bone ROI1 to ROI5 and three regions of cortical bone ROI6 to ROI8 respectively designated in the horizontal cross-sectional images at the upper vertebral body, middle vertebral body, and lower vertebral body. It is shown. As shown in FIG. 8B, the window setting unit 13 calculates the average value of the regions of interest ROI1 to ROI5 taken at the center of the vertebral body of each grayscale image and the five points on the front, back, left, and right, and the CT value of the cancellous bone. The average value of the regions of interest ROI6 to ROI8 captured by three cortical bones of the vertebra and pedicle is calculated as the average value of CT values of cortical bone. If there is a point that is difficult to specify among the points, the specification of that point may be omitted.

カラー画像生成部14は、制御部31、操作部34及び表示部35に対応する。カラー画像生成部14は、ウインドウ設定部13で設定されたCT値の範囲(ウインドウデータ23)に基づいて、グレースケール画像に対してカラーマッピングを行うことにより、グレースケールCT画像データ22を、CT値をカラーで表すカラー画像(第2のCT画像)に変換する。カラー画像は、カラー画像データ24として記憶部10に記憶される。   The color image generation unit 14 corresponds to the control unit 31, the operation unit 34, and the display unit 35. The color image generation unit 14 performs gray mapping on the gray scale image based on the CT value range (window data 23) set by the window setting unit 13, thereby converting the gray scale CT image data 22 into CT. The value is converted into a color image (second CT image) representing the color. The color image is stored in the storage unit 10 as color image data 24.

図9(A)には、グレースケールの画像の一例が示され、図9(B)には、その断面画像に対してカラーマッピングが行われて生成されるカラー画像の一例が示されている。図9(B)では、青色が付与された画素は暗く、赤色が付与された画素は明るくなるように示されている。このカラー画像では、色付けされてない画素は、黒色で示されており、骨の領域のみがカラーで色付け表示されている。X線画像では、CT値はその領域のX線の透過率と相関している。したがって、CT値は、骨の領域においては骨密度を表しているとみなすことができる。このカラー画像では、骨の領域内部がその内部領域のCT値の対応する色で色付けされており、骨の領域内の色の分布により、その領域の骨密度の分布がどのようになっているかを確認することができる。   FIG. 9A shows an example of a gray scale image, and FIG. 9B shows an example of a color image generated by performing color mapping on the cross-sectional image. . In FIG. 9B, a pixel to which blue is given is dark and a pixel to which red is given is shown to be bright. In this color image, pixels that are not colored are shown in black, and only the bone region is colored and displayed. In the X-ray image, the CT value correlates with the X-ray transmittance of the region. Therefore, the CT value can be regarded as representing bone density in the bone region. In this color image, the inside of the bone area is colored with the color corresponding to the CT value of the inside area, and the distribution of the bone density in the area is determined by the color distribution in the bone area. Can be confirmed.

この色付けは、操作部34の操作入力により、カラー画像生成部14としての制御部31によって実行され、その画像が表示部35に表示されることにより行われる。   This coloring is performed by an operation input from the operation unit 34 by the control unit 31 as the color image generation unit 14 and displaying the image on the display unit 35.

フュージョン画像生成部15は、制御部31、操作部34及び表示部35に対応する。フュージョン画像生成部15は、グレースケールCT画像データ22とそのグレースケール画像から生成されたカラー画像データ24とを位置合わせして、これらを重ね合わせてフュージョン画像を生成する。フュージョン画像は、フュージョン画像データ25として記憶部10に記憶される。   The fusion image generation unit 15 corresponds to the control unit 31, the operation unit 34, and the display unit 35. The fusion image generation unit 15 aligns the grayscale CT image data 22 and the color image data 24 generated from the grayscale image, and superimposes them to generate a fusion image. The fusion image is stored in the storage unit 10 as fusion image data 25.

図9(C)には、図9(A)のグレー画像と、図9(B)のカラー画像とを重ね合わせて生成されたフュージョン画像が示されている。図9(C)では、白黒表示で示されているが、このフュージョン画像は、骨の領域がカラー表示され、他の部位がグレースケールで表示されたグレースケールとカラーの混合画像となっている。   FIG. 9C shows a fusion image generated by superimposing the gray image of FIG. 9A and the color image of FIG. 9B. Although shown in black and white in FIG. 9C, this fusion image is a mixed image of gray scale and color in which the bone region is displayed in color and the other parts are displayed in gray scale. .

表示出力部16は、図2のハードウエア構成における制御部31及び表示部35に対応する。表示出力部16は、フュージョン画像データ25を入力してこれを表示する。図9(C)に示すように、フュージョン画像は、骨以外の部位をはっきりを表示するとともに骨の領域内部の構造を色で強調する画像となっている。これは、白黒濃淡の部分のウインドウとは独立したウインドウで骨の領域をカラーマッピングしているためである。   The display output unit 16 corresponds to the control unit 31 and the display unit 35 in the hardware configuration of FIG. The display output unit 16 inputs the fusion image data 25 and displays it. As shown in FIG. 9C, the fusion image is an image that clearly displays a portion other than the bone and emphasizes the structure inside the bone region with a color. This is because the bone region is color-mapped in a window independent from the black and white shaded portion window.

このように、この医用画像解析システム100は、骨以外の部位をはっきりを表示するとともに骨の領域の内部状態を色で強調するフュージョン画像を表示するので、骨粗鬆症による椎体骨折の治療などに有用である。例えば、椎体骨折の受傷時のフュージョン画像と、数ヶ月後経過した時のフュージョン画像とを両方生成し比較表示すれば、椎体の治癒具合を確認することができる。   As described above, the medical image analysis system 100 displays a fusion image that clearly displays a region other than a bone and emphasizes the internal state of the bone region with a color, and thus is useful for treatment of a vertebral fracture caused by osteoporosis. It is. For example, if both a fusion image at the time of injury of a vertebral body fracture and a fusion image after several months have been generated and displayed for comparison, the healing state of the vertebral body can be confirmed.

この場合、画像再構成部12は、複数の異なる時点で撮像装置1により得られた3次元画像データそれぞれから、複数の異なる時点での同一断面におけるグレースケール画像を再構成する。図10には、このようにして再構成された基準時である椎体骨折直後のグレー画像、その4週間後の同一断面のグレー画像、その12週間後の同一断面のグレー画像が示されている。   In this case, the image reconstruction unit 12 reconstructs a grayscale image in the same cross section at a plurality of different time points from each of the three-dimensional image data obtained by the imaging device 1 at a plurality of different time points. FIG. 10 shows a gray image immediately after a vertebral fracture, which is a reference time reconstructed in this way, a gray image of the same cross section after 4 weeks, and a gray image of the same cross section after 12 weeks. Yes.

ウインドウ設定部13は、複数の異なる時点のうち、基準となる時点でのグレースケール画像における海綿骨の領域のCT値と皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定する。図10では、基準時(受傷直後)のグレー画像に基づいて、ウインドウ幅WW、ウインドウレベルWLが決定される様子が示されている。   The window setting unit 13 selects a CT value for performing color mapping based on the CT value of the cancellous bone region and the CT value of the cortical bone region in the grayscale image at a reference time point among a plurality of different time points. Set the range. FIG. 10 shows how the window width WW and window level WL are determined based on the gray image at the reference time (immediately after being damaged).

カラー画像生成部14は、複数の異なる時点での同一断面におけるグレースケール画像それぞれを、ウインドウ設定部13で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表すカラー画像にそれぞれ変換する。図10では、基準時である椎体骨折直後に撮像されたグレー画像、4週間後に撮像された同一断面のグレー画像、12週間後に撮像された同一断面のグレー画像がそれぞれ同一のウインドウ幅WW、レベルWLに応じてカラーマッピングされる様子が示されている。   The color image generation unit 14 converts each of the grayscale images in the same cross section at a plurality of different time points into a color image that expresses the CT value in color by performing color mapping within the range set by the window setting unit 13. To do. In FIG. 10, the gray image captured immediately after the vertebral fracture, which is the reference time, the gray image of the same cross section captured after 4 weeks, and the gray image of the same cross section captured after 12 weeks have the same window width WW, A state in which color mapping is performed according to the level WL is shown.

フュージョン画像生成部15は、同一の時点でのグレー画像と同一断面のカラー画像とを重ね合わせて複数の異なる時点でのフュージョン画像をそれぞれ生成する。   The fusion image generating unit 15 generates a fusion image at a plurality of different time points by superimposing a gray image at the same time point and a color image of the same cross section.

表示出力部16は、基準時におけるフュージョン画像と、他の時点における前記フュージョン画像とを比較表示する。図11には、基準時(受傷直後)のフュージョン画像(Baseline axial image)と、4週間後のフュージョン画像(4week axial image)と、12週間後のフュージョン画像(12week axial image)とが示されている。図11に示すように、基準時に比べ、4週間後では、海綿骨の領域の画素の色が、まばらではあるが暖色系に変化しており、海綿骨の骨密度が上昇しているのがわかる。また、12週間後には、海綿骨の領域の画素の色がより暖色系に変化しており、海綿骨の骨密度が上昇している。このように、異なる時間のフュージョン画像を比較表示すれば、骨の内部の経時的変化を視覚的に確認することができる。   The display output unit 16 compares and displays the fusion image at the reference time and the fusion image at another time point. FIG. 11 shows a fusion image (Baseline axial image) at the base time (immediately after injury), a fusion image after 4 weeks (4week axial image), and a fusion image after 12 weeks (12week axial image). Yes. As shown in FIG. 11, compared to the reference time, after 4 weeks, the color of the pixel in the cancellous bone area has changed to a sparse but warm color system, and the bone density of the cancellous bone has increased. Recognize. In addition, after 12 weeks, the color of the pixel in the cancellous bone region has changed to a warmer color system, and the bone density of the cancellous bone has increased. In this way, if the fusion images at different times are compared and displayed, the temporal change in the bone can be visually confirmed.

次に、この医用画像解析システム100による診断処理の流れについて、図12乃至図14のフローチャートを中心に説明する。ここでは、基準時(受傷直後)、基準時から4週間後、基準時から12週間後の2次元水平断面のフュージョン画像を比較表示する場合について説明する。   Next, the flow of diagnosis processing by the medical image analysis system 100 will be described with reference to the flowcharts of FIGS. Here, a description will be given of a case where a fusion image of a two-dimensional horizontal section is displayed comparatively at a reference time (immediately after an injury), 4 weeks after the reference time, and 12 weeks after the reference time.

操作部34の操作により、プログラム39の実行が指示されると、制御部31は、外部記憶部33に記憶されたプログラム39を主記憶部32に読み込んで、図12に示す処理の実行を開始する。   When the execution of the program 39 is instructed by the operation of the operation unit 34, the control unit 31 reads the program 39 stored in the external storage unit 33 into the main storage unit 32 and starts executing the processing shown in FIG. To do.

図12に示すように、まず、データ取得部11が、DICOMデータの取得処理を行う(ステップS1)。ここでは、データ取得部11が、撮像装置1からDICOMデータを受信し、DICOMデータ21として記憶部10に格納する。ここでは、基準時(受傷直後)、基準時から4週間後、基準時から12週間後のDICOMデータが得られて記憶部10に記憶されるものとする。   As shown in FIG. 12, first, the data acquisition unit 11 performs DICOM data acquisition processing (step S1). Here, the data acquisition unit 11 receives the DICOM data from the imaging apparatus 1 and stores it in the storage unit 10 as the DICOM data 21. Here, it is assumed that DICOM data at the reference time (immediately after the injury), 4 weeks after the reference time, and 12 weeks after the reference time are obtained and stored in the storage unit 10.

続いて、画像再構成部12が、画像再構成処理を行う(ステップS2)。図13には、画像再構成処理の流れが示されている。図13に示すように、まず、画像再構成部12は、表示されたDICOMデータ21のリストの中から、3次元画像データを選択する(ステップS21)。ここでは、基準時(受傷直後)に撮像装置1で撮像された3次元画像データが選択される。   Subsequently, the image reconstruction unit 12 performs an image reconstruction process (step S2). FIG. 13 shows the flow of the image reconstruction process. As shown in FIG. 13, first, the image reconstruction unit 12 selects three-dimensional image data from the displayed list of DICOM data 21 (step S21). Here, the three-dimensional image data picked up by the image pickup apparatus 1 at the reference time (immediately after being damaged) is selected.

3次元画像データが選択されると、画像再構成部12は、3Dビューアを開いて3次元画像データを表示部35に表示させる(ステップS22)。これにより、例えば、図3に示すような3次元画像が表示部35に表示される。ここで、MPR機能が選択されると、画像再構成部12は、MPR機能を用いて、図4に示すように、矢状断面画像と、水平断面画像と、冠状断面画像とを表示する(ステップS23)。   When the 3D image data is selected, the image reconstruction unit 12 opens the 3D viewer and displays the 3D image data on the display unit 35 (step S22). Thereby, for example, a three-dimensional image as shown in FIG. 3 is displayed on the display unit 35. Here, when the MPR function is selected, the image reconstruction unit 12 displays a sagittal cross-sectional image, a horizontal cross-sectional image, and a coronal cross-sectional image as shown in FIG. 4 using the MPR function ( Step S23).

始めに表示される矢状断面は正確ではない。そこで、画像再構成部12は、矢状断面を調整する(ステップS24)。具体的には、画像再構成部12としての制御部31は、操作部34の操作入力に従って調整された矢状断面の位置の画像を再構成し、再構成された画像を表示部34に表示させる。このようにして、矢状断面の調整が行われる。矢状断面が調整されると、それに合わせて水平断面、冠状断面も調整される。   The sagittal section displayed at the beginning is not accurate. Therefore, the image reconstruction unit 12 adjusts the sagittal section (step S24). Specifically, the control unit 31 as the image reconstruction unit 12 reconstructs the image of the position of the sagittal section adjusted according to the operation input of the operation unit 34 and displays the reconstructed image on the display unit 34. Let In this way, the sagittal section is adjusted. When the sagittal section is adjusted, the horizontal section and the coronal section are adjusted accordingly.

調整後、MPR機能により、画像再構成部12は、骨折椎体に対して水平断面の画像データ(椎体上部・椎体中部・椎体下部)を生成する(ステップS25)。椎体上部・椎体中部・椎体下部の水平断面は、図5に示すように任意に設定することができる。骨折による圧壊が著しい場合は、設定される水平断面は、1つでもよいし、2つでもよい。さらに、画像再構成部12は、水平断面画像データ(椎体上部・椎体中部・椎体下部)をグレースケール画像データ22として、記憶部10に記憶する(ステップS26)。   After the adjustment, the MPR function causes the image reconstruction unit 12 to generate horizontal cross-section image data (upper vertebral body, middle vertebral body, lower vertebral body) for the fractured vertebral body (step S25). The horizontal sections of the upper vertebral body, middle vertebral body, and lower vertebral body can be arbitrarily set as shown in FIG. When crushing due to a fracture is significant, the horizontal section to be set may be one or two. Further, the image reconstruction unit 12 stores the horizontal slice image data (upper vertebral body, middle vertebral body, lower vertebral body) as grayscale image data 22 in the storage unit 10 (step S26).

図12に戻り、医用画像処理装置2は、基準時(受傷直後)の3次元画像データを処理しているのか否かを判定する(ステップS3)。この時点では、基準時(受傷直後)の3次元画像データを処理している。基準時(受傷直後)の3次元画像データを処理していると判定された場合(ステップS3;Yes)、ウインドウ設定部13がウインドウ設定処理を行う(ステップS4)。   Returning to FIG. 12, the medical image processing apparatus 2 determines whether or not the three-dimensional image data at the reference time (immediately after the injury) is being processed (step S3). At this time, the three-dimensional image data at the reference time (immediately after being damaged) is processed. When it is determined that the three-dimensional image data at the reference time (immediately after being damaged) is being processed (step S3; Yes), the window setting unit 13 performs window setting processing (step S4).

ステップS4において、図14に示すように、ウインドウ設定部13は、2Dビューアを用いて、生成した水平断面画像データ(椎体上部・椎体中部・椎体下部)を表示する(ステップS31)。   In step S4, as shown in FIG. 14, the window setting unit 13 displays the generated horizontal slice image data (upper vertebral body, middle vertebral body, lower vertebral body) using a 2D viewer (step S31).

続いて、ウインドウ設定部13は、水平断面画像データ(椎体上部・椎体中部・椎体下部)それぞれについて、図8(B)に示すように、海綿骨の領域を最大5点、皮質骨の領域を最大3点、関心領域ROIとして指定する(ステップS32)。   Subsequently, for each of the horizontal cross-sectional image data (upper vertebral body, middle vertebral body, lower vertebral body), the window setting unit 13 sets a maximum of 5 cancellous bone regions and cortical bones as shown in FIG. Are designated as a region of interest ROI (step S32).

続いて、ウインドウ設定部13は、指定された海綿骨の領域のCT値と、皮質骨の領域のCT値とをそれぞれ取得する(ステップS33)。続いて、ウインドウ設定部13(制御部31)は、海綿骨のCT値の平均値、皮質骨のCT値の平均値を算出する(ステップS34)。続いて、ウインドウ設定部13は、図7に示すように、海綿骨のCT値の平均値を最小値、皮質骨のCT値の平均値を最大値として、色を付与するウインドウ幅WW、レベルWLを算出して記憶部10に記憶する(ステップS35)。前述のとおり、ウインドウ幅WWは、皮質骨のCT値の平均値と海綿骨のCT値の平均値との差であり、ウインドウのレベルWLは、皮質骨のCT値の平均値と海綿骨のCT値の平均値との中間値である。   Subsequently, the window setting unit 13 acquires the CT value of the designated cancellous bone region and the CT value of the cortical bone region (step S33). Subsequently, the window setting unit 13 (control unit 31) calculates the average value of the CT value of the cancellous bone and the average value of the CT value of the cortical bone (step S34). Subsequently, as shown in FIG. 7, the window setting unit 13 sets the average value of the CT value of the cancellous bone as the minimum value and the average value of the CT value of the cortical bone as the maximum value. WL is calculated and stored in the storage unit 10 (step S35). As described above, the window width WW is the difference between the average value of the cortical bone CT value and the average value of the CT value of the cancellous bone, and the window level WL is the average value of the CT value of the cortical bone and the average value of the cancellous bone. It is an intermediate value from the average value of CT values.

図12に戻り、カラー画像生成部14が、カラー画像生成処理を行う(ステップS5)。具体的には、カラー画像生成部14は、図10に示すように、グレースケール画像におけるCT値に対して、ウインドウ設定部13で設定されたウインドウ幅WW、レベルWLに応じたCT値に対してカラーマッピングを行い、カラー画像を生成する。   Returning to FIG. 12, the color image generation unit 14 performs color image generation processing (step S5). Specifically, as shown in FIG. 10, the color image generation unit 14 performs the CT value corresponding to the window width WW and the level WL set by the window setting unit 13 with respect to the CT value in the grayscale image. Color mapping to generate a color image.

フュージョン画像生成部15が、フュージョン画像生成処理を行う(ステップS6)。具体的には、フュージョン画像生成部15は、例えば、図9(A)に示すようなグレー画像と図9(B)に示すようなカラー画像とを重ね合わせて位置合わせを行い、それらを重ね合わせて図9(C)に示すフュージョン画像を生成する。具体的には、図9(A)に示す画像のうち、カラーマッピングされていない領域と、図9(B)に示す画像のうち、カラーマッピングされている領域とが合成されて、フュージョン画像が生成される。フュージョン画像は、フュージョン画像データ25として記憶部10に記憶される。   The fusion image generation unit 15 performs a fusion image generation process (step S6). Specifically, for example, the fusion image generation unit 15 aligns a gray image as shown in FIG. 9A and a color image as shown in FIG. In addition, a fusion image shown in FIG. 9C is generated. Specifically, in the image shown in FIG. 9A, an area that is not color mapped and an area that is color mapped in the image shown in FIG. 9B are combined to form a fusion image. Generated. The fusion image is stored in the storage unit 10 as fusion image data 25.

続いて、医用画像処理装置2は、比較対象となる全ての画像で処理が完了したか否かを判定する(ステップS7)。この時点では、基準時に撮像された画像データの処理のみが行われただけである。比較対象となる全ての画像で処理が完了していない場合(ステップS7;No)、医用画像処理装置2は、ステップS2に戻る。   Subsequently, the medical image processing apparatus 2 determines whether or not the processing has been completed for all the images to be compared (step S7). At this point, only the processing of the image data captured at the reference time has been performed. If the processing has not been completed for all the images to be compared (step S7; No), the medical image processing apparatus 2 returns to step S2.

この場合、再び、画像再構成部12は、画像再構成処理を行う(ステップS2)。この処理では、例えば、基準時から4週間後の3次元画像データに基づいて、椎体上部・椎体中部・椎体下部の2次元水平断面画像が生成され、記憶部10にグレースケール画像データ22として記憶される。   In this case, the image reconstruction unit 12 again performs an image reconstruction process (step S2). In this process, for example, a two-dimensional horizontal cross-sectional image of the upper vertebral body, the middle vertebral body, and the lower vertebral body is generated based on the three-dimensional image data four weeks after the reference time, and grayscale image data is stored in the storage unit 10. 22 is stored.

医用画像処理装置2は、基準時(受傷直後)の3次元画像データを処理しているのか否かを判定する(ステップS3)。この時点では、4週間後の3次元画像データを処理している。基準時(受傷直後)の3次元画像データを処理していないと判定された場合(ステップS3;No)、カラー画像生成部14が、カラー画像生成処理を行う(ステップS5)。具体的には、カラー画像生成部14は、図10に示すように、グレースケール画像におけるCT値に対して、基準時のグレースケール画像データ22において設定されたウインドウ幅WW、レベルWLに応じたCT値に対して色づけを行い、カラー画像を生成する。   The medical image processing apparatus 2 determines whether or not the three-dimensional image data at the reference time (immediately after the injury) is being processed (step S3). At this time, 3D image data after 4 weeks is being processed. When it is determined that the three-dimensional image data at the reference time (immediately after being damaged) is not processed (step S3; No), the color image generation unit 14 performs a color image generation process (step S5). Specifically, as shown in FIG. 10, the color image generation unit 14 corresponds to the CT value in the grayscale image according to the window width WW and level WL set in the grayscale image data 22 at the reference time. The CT values are colored to generate a color image.

続いて、フュージョン画像生成部15が、フュージョン画像生成処理を行う(ステップS6)。具体的には、フュージョン画像生成部15は、図9(A)に示すグレー画像と図9(B)に示すカラー画像とを重ね合わせて図9(C)に示すフュージョン画像を生成する。生成されたフュージョン画像は、フュージョン画像データ25として記憶部10に記憶される。   Subsequently, the fusion image generation unit 15 performs a fusion image generation process (step S6). Specifically, the fusion image generation unit 15 generates a fusion image shown in FIG. 9C by superimposing the gray image shown in FIG. 9A and the color image shown in FIG. 9B. The generated fusion image is stored in the storage unit 10 as fusion image data 25.

続いて、医用画像処理装置2は、比較対象となる全ての画像で処理が完了したか否かを判定する(ステップS7)。この時点では、まだ、12週間後に撮像された画像データの処理が行われていない。比較対象となる全ての画像で処理が完了していない場合(ステップS7;No)、医用画像処理装置2は、ステップS2に戻る。   Subsequently, the medical image processing apparatus 2 determines whether or not the processing has been completed for all the images to be compared (step S7). At this time, the processing of the image data captured after 12 weeks has not yet been performed. If the processing has not been completed for all the images to be compared (step S7; No), the medical image processing apparatus 2 returns to step S2.

ここでは、再び、画像再構成部12は、画像再構成処理を行う(ステップS2)。ここでは、例えば、基準時から12週間後の3次元画像データに基づいて、椎体上部・椎体中部・椎体下部の2次元水平断面の画像が生成され、グレースケールCT画像データ22として記憶部10に記憶される。   Here, again, the image reconstruction unit 12 performs an image reconstruction process (step S2). Here, for example, based on the three-dimensional image data 12 weeks after the reference time, two-dimensional horizontal cross-sectional images of the upper vertebral body, middle vertebral body, and lower vertebral body are generated and stored as grayscale CT image data 22. Stored in the unit 10.

医用画像処理装置2は、基準時(受傷直後)の3次元画像データを処理しているのか否かを判定する(ステップS3)。この時点では、12週間後の3次元画像データを処理している。基準時(受傷直後)の3次元画像データを処理していないと判定された場合(ステップS3;No)、カラー画像生成部14が、カラー画像生成処理を行う(ステップS5)。具体的には、カラー画像生成部14は、グレースケール画像におけるCT値に対して、基準時のグレースケール画像データ22において設定されたウインドウ幅WW、レベルWLに応じたCT値に対してカラーマッピングを行い、カラー画像を生成する。   The medical image processing apparatus 2 determines whether or not the three-dimensional image data at the reference time (immediately after the injury) is being processed (step S3). At this time, the three-dimensional image data after 12 weeks is processed. When it is determined that the three-dimensional image data at the reference time (immediately after being damaged) is not processed (step S3; No), the color image generation unit 14 performs a color image generation process (step S5). Specifically, the color image generation unit 14 performs color mapping on the CT value corresponding to the window width WW and the level WL set in the reference grayscale image data 22 with respect to the CT value in the grayscale image. To generate a color image.

続いて、フュージョン画像生成部15が、フュージョン画像生成処理を行う(ステップS6)。具体的には、フュージョン画像生成部15は、グレー画像(図9(A)参照)とカラー画像(図9(B)参照)とを重ね合わせてフュージョン画像(図9(C)参照)を生成する。フュージョン画像は、フュージョン画像データ25として記憶部10に記憶される。   Subsequently, the fusion image generation unit 15 performs a fusion image generation process (step S6). Specifically, the fusion image generation unit 15 generates a fusion image (see FIG. 9C) by superimposing a gray image (see FIG. 9A) and a color image (see FIG. 9B). To do. The fusion image is stored in the storage unit 10 as fusion image data 25.

続いて、医用画像処理装置2は、比較対象となる全ての画像で処理が完了したか否かを判定する(ステップS7)。この時点では、基準時に撮像された画像データの処理のみが行われただけである。比較対象となる全ての画像で処理が完了している場合(ステップS7;Yes)、表示出力部16が、フュージョン画像の表示出力処理を行う(ステップS8)。具体的には、表示出力部16は、図11に示すように、受傷時のフュージョン画像と、その後(4週間後、12週間後)のフュージョン画像とを比較表示する。その後、医用画像処理装置2は、処理を終了する。   Subsequently, the medical image processing apparatus 2 determines whether or not the processing has been completed for all the images to be compared (step S7). At this point, only the processing of the image data captured at the reference time has been performed. When the processing has been completed for all the images to be compared (step S7; Yes), the display output unit 16 performs the fusion image display output processing (step S8). Specifically, as shown in FIG. 11, the display output unit 16 displays a comparison between the fusion image at the time of injury and the subsequent fusion image (after 4 weeks and 12 weeks). Thereafter, the medical image processing apparatus 2 ends the process.

なお、この診断処理では、基準(4週間後、12週間後)時のフュージョン画像、それ以降(4週間後、12週間後)のフュージョン画像の処理を順番に行った。しかしながら、基準時、4週間後、12週間後のグレースケールの2次元断面画像データの生成を先に行い、その後、基準時の2次元断面画像データに基づいて、ウインドウの幅WW、レベルWLを生成し、それから、基準時、4週間後、12週間後のカラー画像の生成、フュージョン画像の生成を順番に行うようにしてもよい。   In this diagnosis processing, the fusion image at the time of reference (after 4 weeks and 12 weeks) and the fusion image after that (after 4 weeks and 12 weeks) were sequentially processed. However, the grayscale two-dimensional cross-sectional image data after four weeks and twelve weeks is generated first, and then the window width WW and level WL are set based on the reference two-dimensional cross-sectional image data. Then, the color image generation and the fusion image generation after 4 weeks and 12 weeks may be sequentially performed at the reference time.

また、撮像装置1から基準時の3次元画像データを取得した時点で、基準時の3次元画像データに対して、グレースケールの2次元断面画像の生成、ウインドウデータの生成、カラー画像の生成、フュージョン画像の生成を行うようにしてもよい。それ以降に取得された3次元画像データについても、データが撮像装置1から取得される度に、同様の処理を行えばよい。そして、全てのフュージョン画像が生成された後で、それらの表示出力処理を行うようにすればよい。   In addition, at the time when the reference 3D image data is acquired from the imaging device 1, the generation of the grayscale 2D cross-sectional image, the generation of window data, the generation of the color image with respect to the reference 3D image data, A fusion image may be generated. The same process may be performed on the three-dimensional image data acquired thereafter after each acquisition of data from the imaging apparatus 1. Then, after all fusion images have been generated, their display output processing may be performed.

また、上記実施の形態では、2次元グレースケールの画像を、水平断面の画像としたが、これには限られず、矢状断面の画像であってもよいし、冠状断面の画像であってもよい。図15には、受傷時、4週間後、12週間後の矢状断面のフュージョン画像が示されている。   In the above embodiment, the two-dimensional grayscale image is a horizontal cross-sectional image. However, the image is not limited to this, and may be a sagittal cross-sectional image or a coronal cross-sectional image. Good. FIG. 15 shows a fusion image of a sagittal cross section after 4 weeks and 12 weeks after injury.

以上詳細に説明したように、この実施の形態によれば、椎体周辺の部位をコントラスト良く表示するグレースケール画像と、椎体内部の骨量分布を色で強調して表示するカラー画像とが重ね合わせてフュージョン画像が生成される。このフュージョン画像は、椎体周辺の部位の像を消失させることなく椎体の内部状態を強調した画像となる。このため、このフュージョン画像を見れば、椎体の内部状態を適切に診断することができる。   As described above in detail, according to this embodiment, there are a grayscale image that displays a region around the vertebral body with good contrast, and a color image that displays the bone mass distribution inside the vertebral body with color enhancement. A fusion image is generated by superposition. This fusion image is an image that emphasizes the internal state of the vertebral body without erasing the image of the region around the vertebral body. For this reason, the internal state of the vertebral body can be appropriately diagnosed by looking at this fusion image.

また、この実施の形態によれば、表示出力部16において、図11に示すように、基準時のフュージョン画像と、それ以降(4週間後、12週間後)のフュージョン画像とを比較表示することにより、骨折椎体内部の骨の内部状態の経時的変化を確認することができる。この比較表示により、骨粗鬆症性の椎体骨折における椎体での骨癒合の過程や骨量の微細な増加を視覚的に評価することができる。   In addition, according to this embodiment, as shown in FIG. 11, the display output unit 16 displays a reference fusion image and a fusion image after that (after 4 weeks and 12 weeks) for comparison display. Thus, it is possible to confirm the temporal change of the internal state of the bone inside the fractured vertebral body. With this comparative display, it is possible to visually evaluate the process of bone fusion in the vertebral body and the minute increase in bone mass in an osteoporotic vertebral fracture.

図11、図15に示す画像は、例えば、第1腰椎椎体骨折の場合で、腰椎軟性装具とテリパラチドを週1回製剤投与による保存的治療を行った場合の骨折椎体の内部状態の経時的変化を示すものである。図11、図15に示すように、この比較表示を見れば、骨折椎体に対して、投与した製剤が、骨折椎体のどの部分(海綿骨又は皮質骨)でどのような骨量、骨密度の増加に関与しているのかを確認することができる。また、この比較表示により、骨折椎体だけでなく、骨折していない非骨折椎体でも画像処理を行い、骨折椎体と非骨折椎体との比較表示を行うようにすれば、骨折椎体と非骨折椎体との間での骨量増加に違いがあるか否かなどの確認することも可能である。   The images shown in FIG. 11 and FIG. 15, for example, in the case of the first lumbar vertebral body fracture, the time-lapse of the internal state of the fractured vertebral body when conservative treatment is performed by administering the lumbar soft device and teriparatide once a week. Change. As shown in FIG. 11 and FIG. 15, when this comparative display is seen, the administered drug is applied to the fractured vertebral body in any part (cancellous bone or cortical bone) of any bone mass, bone. It can be confirmed whether it is involved in the increase in density. In addition, with this comparison display, not only fractured vertebral bodies but also non-fractured non-fracture vertebral bodies can be image-processed, and the fractured vertebral body and non-fracture vertebral body can be compared and displayed. It is also possible to confirm whether or not there is a difference in bone mass increase between the vertebral body and the non-fracture vertebral body.

この医用画像解析システム100を用いれば、ファントム等の特殊な機器が不要となるので、比較的簡便で容易に骨量変化の推移、経時的、視覚的な変化を把握することができる。   If this medical image analysis system 100 is used, a special device such as a phantom is not required, so that it is relatively simple and easy to grasp changes in bone mass change, temporal changes, and visual changes.

なお、上記実施の形態では、医用画像解析システム100を、骨粗鬆症による椎体骨折の治療に薬剤を用いたときの効果を確認する場合について説明したが、これには限られない。骨折の有無にかかわらず、ビスホスホネート製剤、副甲状腺ホルモン(PUH)製剤、骨粗鬆症の治療薬の効果の確認にも適用することができる。さらに、各種骨粗鬆症の治療薬を投与した場合の骨量増加・骨形成作用の違いを明らかにして製剤の効果判定に用いることができる。   In the above embodiment, the case where the medical image analysis system 100 confirms the effect when the drug is used for the treatment of the vertebral fracture caused by osteoporosis has been described. However, the present invention is not limited to this. Regardless of the presence or absence of a fracture, the present invention can also be applied to confirm the effects of bisphosphonate preparations, parathyroid hormone (PUH) preparations, and osteoporosis therapeutic agents. Furthermore, it is possible to clarify the difference in bone mass increase and osteogenesis when administration of various therapeutic agents for osteoporosis is used to determine the effect of the preparation.

骨密度は人によって異なる。特に骨粗鬆症の患者ではその違いは大きい。そこで、上記実施の形態における医用画像解析システム100のフュージョン画像のカラーマッピングを行うウインドウの幅WW、レベルWLは、実際の海綿骨のCT値、皮質骨のCT値に基づいて決定される。例えば、図16に示すように、皮質骨のCT値の平均値、海綿骨のCT値の平均値が高い人のウインドウはW1のようになり、皮質骨のCT値の平均値、海綿骨のCT値の平均値が低い人のウインドウはW2のようになる。このようにすれば、その人の骨密度に応じた分解能を有し、その人の椎体の状態をよりきめ細かく表現したフュージョン画像を表示することにより、その椎体の内部状態の経時的変化等をより鮮明に描き出すことができるようになる。   Bone density varies from person to person. The difference is particularly significant in patients with osteoporosis. Therefore, the width WW and level WL of the window for performing color mapping of the fusion image in the medical image analysis system 100 in the above embodiment are determined based on the actual CT value of the cancellous bone and the CT value of the cortical bone. For example, as shown in FIG. 16, the window of a person with a high average value of cortical bone CT values and a high average value of cancellous bone CT is W1, and the average value of cortical bone CT values of cancellous bone The window of a person with a low average CT value is W2. In this way, by displaying a fusion image that has a resolution according to the bone density of the person and more precisely expresses the state of the person's vertebral body, changes in the internal state of the vertebral body over time, etc. Can be drawn more clearly.

また、上記実施の形態では、CT値が大きくなるにつれて、青(寒色系)から赤(暖色系)までの256色の色彩を付与したが、これには限られない。色の数は、256より多くても良いし、256より少なくてもよい。また、CT値に対する配色も任意に設定可能である。CT値が大きくなるにつれて、色を暖色系に変更する必要はない。   In the above embodiment, as the CT value increases, 256 colors from blue (cold color system) to red (warm color system) are provided. However, the present invention is not limited to this. The number of colors may be greater than 256 or less than 256. Also, the color scheme for the CT value can be arbitrarily set. It is not necessary to change the color to a warm color system as the CT value increases.

さらに、複数の時点におけるフュージョン画像間で、同一の部位のCT値の変化量を計算により求め、CT値と骨密度との相関関係に基づいて、その骨量の変化度合量等を算出したり、画像によって可視化するようにしてもよい。   Furthermore, between the fusion images at a plurality of time points, the amount of change in the CT value of the same part is obtained by calculation, and the amount of change in the bone amount is calculated based on the correlation between the CT value and the bone density. It may be visualized by an image.

この医用画像解析システム100は、臨床での使用に適している。上記各実施の形態に係るプログラム39は、近年急速に普及しているワークステーションにアプリケーションとして組み込むことができる。   This medical image analysis system 100 is suitable for clinical use. The program 39 according to each of the above embodiments can be incorporated as an application in a workstation that has rapidly spread in recent years.

その他、医用画像処理装置2のハードウエア構成やソフトウエア構成は一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and software configuration of the medical image processing apparatus 2 are examples, and can be arbitrarily changed and modified.

制御部31、主記憶部32、外部記憶部33、操作部34、表示部35及び通信部36、内部バス30などから構成される医用画像処理装置2の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する医用画像処理装置2を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで医用画像処理装置2を構成してもよい。   The central part that performs processing of the medical image processing apparatus 2 including the control unit 31, the main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, the communication unit 36, the internal bus 30, and the like is dedicated. It can be realized using a normal computer system regardless of the system. For example, a computer program for executing the above operation is stored in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.) and distributed, and the computer program is installed in the computer. Thus, the medical image processing apparatus 2 that executes the above-described processing may be configured. Alternatively, the medical image processing apparatus 2 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet, and downloading it by a normal computer system.

医用画像処理装置2の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   When the functions of the medical image processing apparatus 2 are realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program part is stored in a recording medium or a storage device. May be.

搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)にコンピュータプログラムを掲示し、ネットワークを介してコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, a computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

この発明は、この発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、この発明の範囲を限定するものではない。すなわち、この発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。   Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. The above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. In other words, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention.

1 撮像装置、2 医用画像処理装置、10 記憶部、11 データ取得部、12 画像再構成部、13 ウインドウ設定部、14 カラー画像生成部、15 フュージョン画像生成部、16 表示出力部、21 DICOMデータ、22 グレースケールCT画像データ、23 ウインドウデータ、24 カラー画像データ、25 フュージョン画像データ、30 内部バス、31 制御部、32 主記憶部、33 外部記憶部、34 操作部、35 表示部、36 通信部、39 プログラム、100 医用画像解析システム。   DESCRIPTION OF SYMBOLS 1 Imaging apparatus, 2 Medical image processing apparatus, 10 Storage part, 11 Data acquisition part, 12 Image reconstruction part, 13 Window setting part, 14 Color image generation part, 15 Fusion image generation part, 16 Display output part, 21 DICOM data , 22 Grayscale CT image data, 23 Window data, 24 Color image data, 25 Fusion image data, 30 Internal bus, 31 Control unit, 32 Main storage unit, 33 External storage unit, 34 Operation unit, 35 Display unit, 36 Communication Part, 39 program, 100 medical image analysis system.

Claims (11)

コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成部と、
再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定部と、
前記範囲設定部で設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成部と、
前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成部と、
を備える医用画像処理装置。
An image reconstruction unit configured to represent a CT value in gray scale and reconstruct a first CT image of a two-dimensional section including a vertebral body based on three-dimensional image data of a region including a vertebra obtained by computed tomography;
CT for performing color mapping on the first CT image in which the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value and the CT value of the cortical bone region is the maximum value A range setting section for setting a range of values;
Based on the CT value range set by the range setting unit, the first CT image is subjected to color mapping using a plurality of colors with color coding according to the CT value of the range . A color image generation unit that converts the CT image of 1 into a second CT image that represents a CT value in color;
A fusion image generating unit that generates a fusion image by superimposing the first CT image and the second CT image;
A medical image processing apparatus comprising:
前記画像再構成部は、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定部は、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成部は、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成部は、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
請求項1に記載の医用画像処理装置。
The image reconstruction unit
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
The range setting unit
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
The color image generation unit
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
The fusion image generation unit
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
The medical image processing apparatus according to claim 1.
複数の異なる時点での同一断面の前記フュージョン画像を比較表示する表示出力部を備える、
請求項2に記載の医用画像処理装置。
A display output unit for comparing and displaying the fusion image of the same cross section at a plurality of different time points,
The medical image processing apparatus according to claim 2.
前記範囲設定部は、
前記海綿骨の領域のCT値の平均値を、カラーマッピングを行うCT値の最小値とし、
前記皮質骨の領域のCT値の平均値を、カラーマッピングを行うCT値の最大値として、カラーマッピングを行うCT値の範囲を設定する、
請求項1から3のいずれか一項に記載の医用画像処理装置。
The range setting unit includes:
The average CT value of the cancellous bone region is the minimum CT value for color mapping,
The average value of CT values of the cortical bone region is set as a maximum value of CT values for performing color mapping, and a range of CT values for performing color mapping is set.
The medical image processing apparatus according to any one of claims 1 to 3.
前記画像再構成部は、
前記椎体の複数の異なる水平断面のCT画像を、前記第1のCT画像として再構成する、
請求項1から4のいずれか一項に記載の医用画像処理装置。
The image reconstruction unit
Reconstructing a plurality of different horizontal cross-sectional CT images of the vertebral body as the first CT image;
The medical image processing apparatus according to any one of claims 1 to 4.
前記範囲設定部は、
前記第1のCT画像の椎体の中心部とその前後左右の5点の平均値を海綿骨のCT値の平均値として算出し、
椎弓・椎弓根を含む皮質骨3点の平均値を皮質骨のCT値の平均値として算出する、
請求項5に記載の医用画像処理装置。
The range setting unit includes:
Calculate the average value of the center of the vertebral body of the first CT image and the five points on the front, back, left and right as the average value of the CT value of cancellous bone,
Calculate the average value of three cortical bones including vertebral arches and pedicles as the average CT value of cortical bone.
The medical image processing apparatus according to claim 5.
請求項1から6のいずれか一項に記載の医用画像処理装置と、
前記医用画像処理装置によって処理される医用画像を撮像する撮像装置と、
を備える医用画像解析システム。
A medical image processing apparatus according to any one of claims 1 to 6;
An imaging device for imaging a medical image processed by the medical image processing device;
A medical image analysis system comprising:
コンピュータを用いて、コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成ステップと、
コンピュータを用いて、再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定ステップと、
コンピュータを用いて、前記範囲設定ステップで設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成ステップと、
コンピュータを用いて、前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成ステップと、
を含む医用画像処理方法。
An image for reconstructing a first CT image of a two-dimensional cross section including a vertebral body by expressing a CT value in gray scale based on three-dimensional image data of a region including a vertebra obtained by computer tomography using a computer A reconfiguration step;
Using the computer, for the first CT image, the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value, and the CT value of the cortical bone region is the maximum value . A range setting step for setting a range of CT values for performing color mapping;
Using a computer, based on the CT value range set in the range setting step, color mapping using a plurality of colors is performed on the first CT image with color coding according to the CT value in the range. A color image generating step of converting the first CT image into a second CT image representing a CT value in color;
Using a computer, a fusion image generating step of generating a fusion image by superimposing the first CT image and the second CT image;
A medical image processing method.
前記画像再構成ステップでは、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定ステップでは、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成ステップでは、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成ステップでは、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
請求項8に記載の医用画像処理方法。
In the image reconstruction step,
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
In the range setting step,
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
In the color image generation step,
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
In the fusion image generation step,
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
The medical image processing method according to claim 8.
コンピュータを、
コンピュータ断層撮影により得られ椎骨を含む領域の3次元画像データに基づいて、CT値をグレースケールで表現し椎体を含む2次元断面の第1のCT画像を再構成する画像再構成部、
再構成された前記第1のCT画像における海綿骨の領域のCT値を最小値とし、皮質骨の領域のCT値を最大値とする、前記第1のCT画像に対してカラーマッピングを行うCT値の範囲を設定する範囲設定部、
前記範囲設定部で設定されたCT値の範囲に基づいて、前記第1のCT画像に対して前記範囲のCT値に応じた色分けで複数の色を用いたカラーマッピングを行うことにより、前記第1のCT画像を、CT値をカラーで表す第2のCT画像に変換するカラー画像生成部、
前記第1のCT画像と前記第2のCT画像とを重ね合わせてフュージョン画像を生成するフュージョン画像生成部、
として機能させるプログラム。
Computer
An image reconstruction unit that represents CT values in gray scale and reconstructs a first CT image of a two-dimensional section including a vertebral body based on three-dimensional image data of a region including a vertebra obtained by computed tomography;
CT for performing color mapping on the first CT image in which the CT value of the cancellous bone region in the reconstructed first CT image is the minimum value and the CT value of the cortical bone region is the maximum value A range setting section for setting the range of values,
Based on the CT value range set by the range setting unit, the first CT image is subjected to color mapping using a plurality of colors with color coding according to the CT value of the range . A color image generation unit that converts one CT image into a second CT image in which CT values are expressed in color;
A fusion image generating unit that generates a fusion image by superimposing the first CT image and the second CT image;
Program to function as.
前記画像再構成部は、
複数の異なる時点でコンピュータ断層撮影により得られた前記3次元画像データそれぞれから、前記複数の異なる時点での同一断面における前記第1のCT画像を再構成し、
前記範囲設定部は、
前記複数の異なる時点のうち、基準となる時点での前記第1のCT画像における前記海綿骨の領域のCT値と前記皮質骨の領域のCT値とに基づいて、カラーマッピングを行うCT値の範囲を設定し、
前記カラー画像生成部は、
前記複数の異なる時点での同一断面における前記第1のCT画像それぞれを、前記範囲設定部で設定された範囲でカラーマッピングを行うことにより、CT値をカラーで表す第2のCT画像にそれぞれ変換し、
前記フュージョン画像生成部は、
同一の時点での前記第1のCT画像と前記第2のCT画像とを重ね合わせて複数の異なる時点での前記フュージョン画像をそれぞれ生成する、
ようにコンピュータを機能させる、
請求項10に記載のプログラム。
The image reconstruction unit
Reconstructing the first CT image in the same cross section at the plurality of different time points from each of the three-dimensional image data obtained by computer tomography at a plurality of different time points,
The range setting unit includes:
Based on a CT value of the cancellous bone region and a CT value of the cortical bone region in the first CT image at the reference time point among the plurality of different time points, Set the range,
The color image generation unit
Each of the first CT images in the same cross section at a plurality of different time points is converted into a second CT image in which CT values are expressed in color by performing color mapping in the range set by the range setting unit. And
The fusion image generation unit
The first CT image and the second CT image at the same time point are overlapped to generate the fusion images at a plurality of different time points, respectively.
To make the computer work,
The program according to claim 10.
JP2014189888A 2014-09-18 2014-09-18 Medical image processing apparatus, medical image analysis system, medical image processing method and program Expired - Fee Related JP6403136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014189888A JP6403136B2 (en) 2014-09-18 2014-09-18 Medical image processing apparatus, medical image analysis system, medical image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189888A JP6403136B2 (en) 2014-09-18 2014-09-18 Medical image processing apparatus, medical image analysis system, medical image processing method and program

Publications (2)

Publication Number Publication Date
JP2016059593A JP2016059593A (en) 2016-04-25
JP6403136B2 true JP6403136B2 (en) 2018-10-10

Family

ID=55796482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189888A Expired - Fee Related JP6403136B2 (en) 2014-09-18 2014-09-18 Medical image processing apparatus, medical image analysis system, medical image processing method and program

Country Status (1)

Country Link
JP (1) JP6403136B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6482457B2 (en) * 2015-12-29 2019-03-13 ラトックシステムエンジニアリング株式会社 Bone metabolism analysis support program and method
JP7059835B2 (en) * 2018-07-04 2022-04-26 株式会社島津製作所 Video signal compression processing device, video signal decompression processing device, video signal transmission system, video signal compression processing method, and video signal decompression processing method
WO2024101243A1 (en) * 2022-11-10 2024-05-16 コニカミノルタ株式会社 Image processing method, image processing device, and image processing system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5324779B2 (en) * 2005-02-09 2013-10-23 株式会社日立メディコ Image diagnosis support system, image diagnosis support program
WO2011021181A1 (en) * 2009-08-16 2011-02-24 Ori Hay Assessment of spinal anatomy

Also Published As

Publication number Publication date
JP2016059593A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
US8891847B2 (en) Automatic implant detection from image artifacts
Kamburoğlu Use of dentomaxillofacial cone beam computed tomography in dentistry
Wilde et al. Prevalence of cone beam computed tomography imaging findings according to the clinical stage of bisphosphonate-related osteonecrosis of the jaw
Capello et al. Clinical technique: application of computed tomography for diagnosis of dental disease in the rabbit, guinea pig, and chinchilla
Tanaka et al. Reduction of dark-band-like metal artifacts caused by dental implant bodies using hypothetical monoenergetic imaging after dual-energy computed tomography
US20150265222A1 (en) Medical information processing apparatus, medical image diagnostic apparatus, and medical information processing method
US20150332455A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
Lukat et al. The effects of voxel size on cone beam computed tomography images of the temporomandibular joints
KR20170060698A (en) Computed tomography apparatus and control method for the same
JP2013244211A (en) Medical image processor, medical image processing method and control program
Saati et al. Comparison of cone beam computed tomography and multi slice computed tomography image quality of human dried mandible using 10 anatomical landmarks
Orhan et al. Cone-beam CT evaluation of morphology, location, and course of mandibular incisive canal: considerations for implant treatment
Mys et al. Quantification of bone microstructure in the wrist using cone-beam computed tomography
JP6403136B2 (en) Medical image processing apparatus, medical image analysis system, medical image processing method and program
Venskutonis Periapical tissue evaluation: analysis of existing indexes and application of Periapical and Endodontic Status Scale (PESS) in clinical practice
Klatt et al. Clinical indication for intraoperative 3D imaging during open reduction of fractures of the mandibular angle
Czyz et al. The computed tomography-based fractal analysis of trabecular bone structure may help in detecting decreased quality of bone before urgent spinal procedures
US10398395B2 (en) Medical image diagnostic apparatus
JP6417558B2 (en) Osteoporosis diagnosis support device and osteoporosis diagnosis support program
TW201637615A (en) Method and system for detection of bone structure
Ben-David et al. Significance of enhanced cerebral gray–white matter contrast at 80ákVp compared to conventional 120ákVp CT scan in the evaluation of acute stroke
JP7346546B2 (en) How to perform automatic adaptive energy settings for CT virtual monochromatic imaging
Pohlenz et al. 3D C-arm as an alternative modality to CT in postmortem imaging: Technical feasibility
Klintström Image Analysis for Trabecular Bone Properties on Cone-Beam CT Data
JP2007175194A (en) Method and apparatus for reconstructing difference image of computer tomography projection data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6403136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees