JP2023049944A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2023049944A
JP2023049944A JP2021159996A JP2021159996A JP2023049944A JP 2023049944 A JP2023049944 A JP 2023049944A JP 2021159996 A JP2021159996 A JP 2021159996A JP 2021159996 A JP2021159996 A JP 2021159996A JP 2023049944 A JP2023049944 A JP 2023049944A
Authority
JP
Japan
Prior art keywords
image
bone
trabecular
density
radiographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021159996A
Other languages
Japanese (ja)
Inventor
知幸 高橋
Tomoyuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021159996A priority Critical patent/JP2023049944A/en
Priority to US17/898,157 priority patent/US20230093849A1/en
Publication of JP2023049944A publication Critical patent/JP2023049944A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Abstract

To allow a bone density and a trabecula structure to be checked at a glance in an image processing device, a method, and a program.SOLUTION: A processor derives a bone part image of a subject from a first radiation image and a second radiation image acquired by imaging the subject including a bone part by radioactive rays with different energy distributions; derives a bone density image indicating bone density in a bone part region of the subject from the bone part image; derives a trabecula image indicating a trabecula structure from the first radiation image, the second radiation image, or the bone part image; and superimposes the trabecula image on the bone density image and displays it.SELECTED DRAWING: Figure 3

Description

本開示は、画像処理装置、方法およびプログラムに関する。 The present disclosure relates to an image processing device, method and program.

従来より人体の骨の強度に関する情報を放射線画像から取得して表示する手法が提案されている。例えば、特許文献1には、エネルギーサブトラクション処理により被写体の骨部を表す骨部画像を取得し、骨部画像から骨塩情報を取得し、骨塩情報および骨の骨梁構造の密度に関する指標値から骨強度の分布を導出し、骨強度の分布を色分けして表示する手法が提案されている。また、特許文献2には、放射線画像から導出した骨量すなわち骨密度の分布を表す画像を導出し、骨密度に応じた骨梁の構造を表す骨梁画像を放射線画像とは別に取得し、骨密度の分布画像と骨梁画像とを表示する手法が提案されている。 Conventionally, there have been proposed methods of obtaining information about the strength of bones of a human body from radiographic images and displaying the information. For example, in Patent Document 1, a bone portion image representing the bone portion of a subject is obtained by energy subtraction processing, bone mineral information is obtained from the bone portion image, and an index value regarding the density of the bone mineral information and the trabecular structure of the bone is obtained. A method has been proposed in which the bone strength distribution is derived from the bone strength distribution, and the bone strength distribution is displayed in a color-coded manner. Further, in Patent Document 2, an image representing the distribution of bone mass, that is, bone density derived from a radiographic image is derived, and a trabecular bone image representing the structure of the trabecular bone corresponding to the bone density is acquired separately from the radiographic image, A technique for displaying a bone density distribution image and a trabecular bone image has been proposed.

特開2019-202035号公報JP 2019-202035 A 特開2021-069791号公報JP 2021-069791 A

しかしながら、特許文献1に記載された手法は、表示された画像において骨強度を確認できるが、骨梁の構造は確認することはできない。また、特許文献2に記載された手法においては、骨梁画像は被写体の放射線画像から導出されるものではないため、別途骨梁画像を取得するための撮影を行う必要がある。また、特許文献2に記載された手法においては、骨密度の分布画像と骨梁画像とは別々に表示されるため、骨密度と骨梁の構造とを一見して確認することができない。 However, the method described in Patent Literature 1 can confirm the bone strength in the displayed image, but cannot confirm the structure of the trabecular bone. Further, in the method described in Patent Document 2, since the trabecular bone image is not derived from the radiographic image of the subject, it is necessary to separately perform imaging to acquire the trabecular image. Further, in the method described in Patent Document 2, since the bone density distribution image and the bone trabecular image are displayed separately, the bone density and the structure of the trabecular bone cannot be confirmed at a glance.

本開示は上記事情に鑑みなされたものであり、骨密度と骨梁の構造とを一見して確認できるようにすることを目的とする。 The present disclosure has been made in view of the circumstances described above, and aims to enable confirmation of bone density and trabecular bone structure at a glance.

本開示による画像処理装置は、少なくとも1つのプロセッサを備え、プロセッサは、エネルギー分布が異なる放射線により骨部を含む被写体を撮影することにより取得された第1の放射線画像および第2の放射線画像から、被写体の骨部画像を導出し、
骨部画像から被写体の骨部領域における骨密度を表す骨密度画像を導出し、
第1の放射線画像、第2の放射線画像または骨部画像から骨梁の構造を表す骨梁画像を導出し、
骨密度画像に骨梁画像を重畳して表示する。
An image processing apparatus according to the present disclosure includes at least one processor, and the processor acquires a first radiographic image and a second radiographic image obtained by imaging a subject including bones with radiation having different energy distributions, Deriving a bone image of the subject,
deriving a bone density image representing the bone density in the bone region of the subject from the bone image;
deriving a trabecular image representing the structure of the trabecular bone from the first radiographic image, the second radiographic image or the bone image;
The trabecular bone image is superimposed on the bone density image and displayed.

なお、本開示による画像処理方法においては、プロセッサは、第1の放射線画像、第2の放射線画像または骨部画像の高周波成分を骨梁画像として導出するものであってもよい。 Note that in the image processing method according to the present disclosure, the processor may derive a high-frequency component of the first radiographic image, the second radiographic image, or the bone image as a trabecular bone image.

この場合、プロセッサは、強調された高周波成分を骨梁画像として導出するものであってもよい。 In this case, the processor may derive the enhanced high-frequency component as a trabecular bone image.

また、本開示による画像処理装置においては、プロセッサは、骨部領域における各画素の骨密度を導出し、骨密度の分布の低周波成分を画素値とする骨密度画像を導出するものであってもよい。 Further, in the image processing device according to the present disclosure, the processor derives the bone density of each pixel in the bone region, and derives a bone density image in which pixel values are low-frequency components of the bone density distribution. good too.

また、本開示による画像処理装置においては、プロセッサは、骨部領域における各画素の骨密度を導出し、骨部領域における骨密度の代表値を画素値とする骨密度画像を導出するのであってもよい。 Further, in the image processing apparatus according to the present disclosure, the processor derives the bone density of each pixel in the bone region, and derives a bone density image in which the pixel value is the representative value of the bone density in the bone region. good too.

また、本開示による画像処理装置においては、骨密度画像は骨密度に応じた色の分布を有するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the bone density image may have a color distribution according to bone density.

また、本開示による画像処理装置においては、骨梁画像は骨密度とは異なる色を有するものであってもよい。 Also, in the image processing apparatus according to the present disclosure, the trabecular bone image may have a color different from the bone density.

本開示による画像処理方法は、エネルギー分布が異なる放射線により骨部を含む被写体を撮影することにより取得された第1の放射線画像および第2の放射線画像から、被写体の骨部画像を導出し、
骨部画像から被写体の骨部領域における骨密度を表す骨密度画像を導出し、
第1の放射線画像、第2の放射線画像または骨部画像から骨梁の構造を表す骨梁画像を導出し、
骨密度画像に骨梁画像を重畳して表示する。
An image processing method according to the present disclosure derives a bone image of a subject from a first radiographic image and a second radiographic image obtained by imaging a subject including a bone with radiation having different energy distributions,
deriving a bone density image representing the bone density in the bone region of the subject from the bone image;
deriving a trabecular image representing the structure of the trabecular bone from the first radiographic image, the second radiographic image or the bone image;
The trabecular bone image is superimposed on the bone density image and displayed.

なお、本開示による画像処理方法をコンピュータに実行させるプログラムとして提供してもよい。 Note that the image processing method according to the present disclosure may be provided as a program that causes a computer to execute.

本開示によれば、骨密度と骨梁の構造とを一見して確認できる。 According to the present disclosure, bone density and trabecular structure can be identified at a glance.

本開示の実施形態による画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of a radiation imaging system to which an image processing apparatus according to an embodiment of the present disclosure is applied; FIG. 本実施形態による画像処理装置の概略構成を示す図A diagram showing a schematic configuration of an image processing apparatus according to the present embodiment. 本実施形態による画像処理装置の機能的な構成を示す図A diagram showing the functional configuration of the image processing apparatus according to the present embodiment. 軟部画像を示す図Diagram showing soft tissue images 体厚に対する骨部と軟部とのコントラストの関係を示す図Diagram showing the relationship of contrast between bone and soft tissue with respect to body thickness 補正係数を取得するためのルックアップテーブルを示す図Diagram showing lookup table for obtaining correction factor 椎骨の断面図Vertebral cross section 骨梁画像を示す図Diagram showing trabecular images 骨密度のマッピング画像を示す図A diagram showing a mapping image of bone density 表示画面を示す図Diagram showing the display screen 本実施形態において行われる処理を示すフローチャートFlowchart showing processing performed in the present embodiment

以下、図面を参照して本開示の実施形態について説明する。図1は本開示の実施形態による画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による放射線画像撮影システムは、撮影装置1と、本実施形態による画像処理装置10とを備える。 Embodiments of the present disclosure will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a radiographic imaging system to which an image processing apparatus according to an embodiment of the present disclosure is applied. As shown in FIG. 1, the radiation imaging system according to this embodiment includes an imaging device 1 and an image processing device 10 according to this embodiment.

撮影装置1は、第1の放射線検出器5および第2の放射線検出器6に、放射線源3から発せられ、被写体Hを透過したX線等の放射線を、それぞれエネルギーを変えて照射するいわゆる1ショット法によるエネルギーサブトラクションを行うための撮影装置である。撮影時においては、図1に示すように、放射線源3に近い側から順に、第1の放射線検出器5、銅板等からなる放射線エネルギー変換フィルタ7、および第2の放射線検出器6を配置して、放射線源3を駆動させる。なお、第1および第2の放射線検出器5,6と放射線エネルギー変換フィルタ7とは密着されている。 The imaging apparatus 1 irradiates a first radiation detector 5 and a second radiation detector 6 with radiation such as X-rays emitted from a radiation source 3 and transmitted through a subject H with different energies. This is an imaging device for performing energy subtraction by the shot method. During imaging, as shown in FIG. 1, a first radiation detector 5, a radiation energy conversion filter 7 made of a copper plate or the like, and a second radiation detector 6 are arranged in this order from the radiation source 3 side. to drive the radiation source 3 . The first and second radiation detectors 5 and 6 and the radiation energy conversion filter 7 are in close contact.

これにより、第1の放射線検出器5においては、いわゆる軟線も含む低エネルギーの放射線による被写体Hの第1の放射線画像G1が取得される。また、第2の放射線検出器6においては、軟線が除かれた高エネルギーの放射線による被写体Hの第2の放射線画像G2が取得される。第1および第2の放射線画像は、画像処理装置10に入力される。 As a result, the first radiation detector 5 acquires a first radiographic image G1 of the subject H using low-energy radiation including so-called soft rays. Also, the second radiation detector 6 acquires a second radiographic image G2 of the subject H by high-energy radiation from which soft rays have been removed. The first and second radiographic images are input to the image processing device 10 .

第1および第2の放射線検出器5,6は、放射線画像の記録および読み出しを繰り返して行うことができるものであり、放射線の照射を直接受けて電荷を発生する、いわゆる直接型の放射線検出器を用いてもよいし、放射線を一旦可視光に変換し、その可視光を電荷信号に変換する、いわゆる間接型の放射線検出器を用いるようにしてもよい。また、放射線画像信号の読出方式としては、TFT(thin film transistor)スイッチをオン・オフさせることによって放射線画像信号が読み出される、いわゆるTFT読出方式のもの、または読取り光を照射することによって放射線画像信号が読み出される、いわゆる光読出方式のものを用いることが望ましいが、これに限らずその他のものを用いるようにしてもよい。 The first and second radiation detectors 5 and 6 are capable of repeatedly recording and reading radiographic images, and are so-called direct radiation detectors that directly receive radiation to generate charges. may be used, or a so-called indirect type radiation detector that converts radiation to visible light and then converts the visible light to charge signals may be used. As for the readout method of the radiographic image signal, the so-called TFT readout method, in which the radiographic image signal is read out by turning on/off a TFT (thin film transistor) switch, or the radiographic image signal is read out by irradiating the readout light. Although it is desirable to use a so-called optical readout system in which .

次いで、本実施形態に係る画像処理装置について説明する。まず、図2を参照して、本実施形態に係る画像処理装置のハードウェア構成を説明する。図2に示すように、画像処理装置10は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、画像処理装置10は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びに不図示のネットワークに接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。 Next, an image processing apparatus according to this embodiment will be described. First, the hardware configuration of the image processing apparatus according to this embodiment will be described with reference to FIG. As shown in FIG. 2, the image processing apparatus 10 is a computer such as a workstation, server computer, or personal computer, and includes a CPU (Central Processing Unit) 11, a nonvolatile storage 13, and a memory 16 as a temporary storage area. Prepare. The image processing apparatus 10 also includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I/F (Interface) 17 connected to a network (not shown). CPU 11 , storage 13 , display 14 , input device 15 , memory 16 and network I/F 17 are connected to bus 18 . Note that the CPU 11 is an example of a processor in the present disclosure.

ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像処理装置10にインストールされた画像処理プログラム12が記憶される。CPU11は、ストレージ13から画像処理プログラム12を読み出してメモリ16に展開し、展開した画像処理プログラム12を実行する。 The storage 13 is implemented by a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like. The image processing program 12 installed in the image processing apparatus 10 is stored in the storage 13 as a storage medium. The CPU 11 reads out the image processing program 12 from the storage 13 , expands it in the memory 16 , and executes the expanded image processing program 12 .

なお、画像処理プログラム12は、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて画像処理装置10を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から画像処理装置10を構成するコンピュータにインストールされる。 Note that the image processing program 12 is stored in a storage device of a server computer connected to a network or in a network storage in an externally accessible state, and is downloaded to a computer constituting the image processing device 10 in response to a request. Installed. Alternatively, it is recorded on a recording medium such as a DVD (Digital Versatile Disc), a CD-ROM (Compact Disc Read Only Memory), or the like, distributed, and installed in a computer constituting the image processing apparatus 10 from the recording medium.

次いで、本実施形態による画像処理装置の機能的な構成を説明する。図3は、本実施形態による画像処理装置の機能的な構成を示す図である。図3に示すように、画像処理装置10は、画像取得部21、骨部画像生成部22、第1導出部23、第2導出部24および表示制御部25を備える。そして、CPU11は、画像処理プログラム12を実行することにより、画像取得部21、骨部画像生成部22、第1導出部23、第2導出部24および表示制御部25として機能する。 Next, the functional configuration of the image processing apparatus according to this embodiment will be described. FIG. 3 is a diagram showing the functional configuration of the image processing apparatus according to this embodiment. As shown in FIG. 3 , the image processing apparatus 10 includes an image acquisition section 21 , a bone image generation section 22 , a first derivation section 23 , a second derivation section 24 and a display control section 25 . By executing the image processing program 12 , the CPU 11 functions as an image acquisition section 21 , a bone image generation section 22 , a first derivation section 23 , a second derivation section 24 and a display control section 25 .

画像取得部21は、撮影装置1に被写体Hのエネルギーサブトラクション撮影を行わせることにより、第1および第2の放射線検出器5,6から、被写体Hの第1の放射線画像G1および第2の放射線画像G2を取得する。第1の放射線画像G1および第2の放射線画像G2の取得に際しては、撮影線量、線質、管電圧、放射線源3と第1および第2の放射線検出器5,6の表面との距離であるSID(Source Image receptor Distance)、放射線源3と被写体Hの表面との距離であるSOD(Source Object Distance)、並びに散乱線除去グリッドの有無等の撮影条件が設定される。 The image acquiring unit 21 causes the imaging device 1 to perform energy subtraction imaging of the subject H, thereby obtaining a first radiation image G1 of the subject H and a second radiation image G1 of the subject H from the first and second radiation detectors 5 and 6. Acquire image G2. When acquiring the first radiographic image G1 and the second radiographic image G2, the imaging dose, radiation quality, tube voltage, distance between the radiation source 3 and the surfaces of the first and second radiation detectors 5 and 6 Imaging conditions such as SID (Source Image receptor Distance), SOD (Source Object Distance), which is the distance between the radiation source 3 and the surface of the object H, and the presence or absence of an anti-scatter grid are set.

SODおよびSIDについては、後述するように体厚分布の算出に用いられる。SODについては、例えば、TOF(Time Of Flight)カメラで取得することが好ましい。SIDについては、例えば、ポテンショメーター、超音波距離計およびレーザー距離計等で取得することが好ましい。 The SOD and SID are used for calculating the body thickness distribution as described later. The SOD is preferably obtained with, for example, a TOF (Time Of Flight) camera. The SID is preferably obtained by, for example, a potentiometer, an ultrasonic rangefinder, a laser rangefinder, or the like.

撮影条件は、操作者による入力デバイス15からの入力により設定すればよい。 The imaging conditions may be set by input from the input device 15 by the operator.

骨部画像生成部22は、画像取得部21が取得した第1放射線画像G1および第2放射線画像G2から、被写体Hの骨部領域を表す骨部画像Gbを生成する。図4には、骨部画像生成部22が生成した骨部画像Gbの一例を示す。なお、一般的に骨量または骨塩量の測定には腰椎や大腿骨が用いられる。このため、図4に示した骨部画像Gbは、被写体Hの大腿骨および腰椎の一部を含むように撮影を行って得られた第1放射線画像G1および第2放射線画像G2により生成された骨部画像Gbを示している。 The bone image generator 22 generates a bone image Gb representing the bone region of the subject H from the first radiographic image G1 and the second radiographic image G2 acquired by the image acquisition unit 21 . FIG. 4 shows an example of the bone image Gb generated by the bone image generator 22. As shown in FIG. Lumbar vertebrae and femurs are generally used to measure bone mass or bone mineral content. Therefore, the bone image Gb shown in FIG. 4 is generated from the first radiographic image G1 and the second radiographic image G2 obtained by performing imaging so as to include part of the femur and lumbar spine of the subject H. A bone image Gb is shown.

骨部画像生成部22は、第1放射線画像G1および第2放射線画像G2に対して、下記の式(1)に示すように、相対応する画素間で重み付け減算を行うことにより、第1放射線画像G1および第2放射線画像G2に含まれる被写体Hの骨部のみが抽出された骨部画像Gbを生成する。なお、下記式(1)におけるμbは重み付け係数であり、x、yは骨部画像Gbの各画素の座標である。 The bone image generating unit 22 performs weighted subtraction between corresponding pixels on the first radiographic image G1 and the second radiographic image G2, as shown in the following equation (1), so that the first radiation A bone portion image Gb is generated in which only the bone portion of the subject H included in the image G1 and the second radiographic image G2 is extracted. Note that μb in the following equation (1) is a weighting coefficient, and x and y are the coordinates of each pixel of the bone image Gb.

Gb(x,y)=G1(x,y)-μb×G2(x,y) (1) Gb(x,y)=G1(x,y)-μb×G2(x,y) (1)

ここで、第1の放射線画像G1および第2の放射線画像G2の各々には、被写体Hを透過した放射線の一次線成分以外に、被写体H内において散乱された放射線に基づく散乱線成分が含まれる。このため、第1の放射線画像G1および第2の放射線画像G2から散乱線成分を除去することが好ましい。散乱線成分を除去する手法はとくに限定されないが、例えば特開2015-043959号公報に記載された方法を適用して、第1の放射線画像G1および第2の放射線画像G2から散乱線成分を除去してもよい。特開2015-043959号公報に記載された手法等を用いる場合、被写体Hの体厚分布の導出および散乱線成分を除去するための散乱線成分の導出が同時に行われる。 Here, each of the first radiographic image G1 and the second radiographic image G2 includes, in addition to the primary ray component of the radiation transmitted through the subject H, the scattered ray component based on the radiation scattered within the subject H. . Therefore, it is preferable to remove scattered radiation components from the first radiographic image G1 and the second radiographic image G2. The method of removing the scattered radiation component is not particularly limited, but for example, the method described in JP 2015-043959 is applied to remove the scattered radiation component from the first radiographic image G1 and the second radiographic image G2. You may When using the method described in Japanese Patent Application Laid-Open No. 2015-043959, the derivation of the body thickness distribution of the subject H and the derivation of the scattered radiation component for removing the scattered radiation component are performed at the same time.

以下、第1の放射線画像G1からの散乱線成分の除去について説明するが、第2の放射線画像G2からの散乱線成分の除去も同様に行うことができる。まず、骨部画像生成部22は、初期体厚分布T0(x,y)を有する被写体Hの仮想モデルを取得する。仮想モデルは、初期体厚分布T0(x,y)に従った体厚が、第1の放射線画像G1の各画素の座標位置に対応付けられた、被写体Hを仮想的に表すデータである。なお、初期体厚分布T0(x,y)を有する被写体Hの仮想モデルは、画像処理装置10のストレージ13に予め記憶されていてもよい。また、骨部画像生成部22は、撮影条件に含まれるSIDとSODに基づいて、被写体Hの体厚分布T(x、y)を算出してもよい。この場合、初期体厚分布T0(x,y)は、SIDからSODを減算することにより求めることができる。 The removal of the scattered radiation component from the first radiographic image G1 will be described below, but the removal of the scattered radiation component from the second radiographic image G2 can also be performed in the same manner. First, the bone image generator 22 acquires a virtual model of the subject H having an initial body thickness distribution T0(x, y). The virtual model is data that virtually represents the subject H, in which the body thickness according to the initial body thickness distribution T0(x, y) is associated with the coordinate position of each pixel of the first radiographic image G1. A virtual model of the subject H having the initial body thickness distribution T0(x, y) may be stored in the storage 13 of the image processing device 10 in advance. Further, the bone image generator 22 may calculate the body thickness distribution T(x, y) of the subject H based on the SID and SOD included in the imaging conditions. In this case, the initial body thickness distribution T0(x, y) can be obtained by subtracting SOD from SID.

次に、骨部画像生成部22は、仮想モデルに基づいて、仮想モデルの撮影により得られる一次線画像を推定した推定一次線画像と、仮想モデルの撮影により得られる散乱線画像を推定した推定散乱線画像とを合成した画像を、被写体Hの撮影により得られた第1の放射線画像G1を推定した推定画像として生成する。 Next, based on the virtual model, the bone image generating unit 22 generates an estimated primary line image obtained by estimating the primary line image obtained by imaging the virtual model, and an estimated primary line image obtained by estimating the scattered radiation image obtained by imaging the virtual model. An image synthesized with the scattered radiation image is generated as an estimated image obtained by estimating the first radiographic image G1 obtained by imaging the subject H. FIG.

次に、骨部画像生成部22は、推定画像と第1の放射線画像G1との違いが小さくなるように仮想モデルの初期体厚分布T0(x,y)を修正する。骨部画像生成部22は、推定画像と第1の放射線画像G1との違いが予め定められた終了条件を満たすまで推定画像の生成および体厚分布の修正を繰り返し行う。骨部画像生成部22は、終了条件を満たした際の体厚分布を、被写体Hの体厚分布T(x,y)として導出する。また、骨部画像生成部22は、終了条件を満たした際の散乱線成分を第1の放射線画像G1から減算することにより、第1の放射線画像G1に含まれる散乱線成分を除去する。 Next, the bone image generator 22 corrects the initial body thickness distribution T0(x, y) of the virtual model so that the difference between the estimated image and the first radiographic image G1 is reduced. The bone image generator 22 repeats the generation of the estimated image and the correction of the body thickness distribution until the difference between the estimated image and the first radiographic image G1 satisfies a predetermined end condition. The bone image generation unit 22 derives the body thickness distribution when the end condition is satisfied as the body thickness distribution T(x, y) of the subject H. FIG. Further, the bone image generator 22 removes the scattered radiation component included in the first radiographic image G1 by subtracting the scattered radiation component when the end condition is satisfied from the first radiographic image G1.

第1導出部23は、骨部画像生成部22が生成した骨部画像Gbに基づいて、被写体Hの骨部領域における骨密度を表す骨密度画像を導出する。第1導出部23は、骨部画像Gbの画素(x,y)毎に骨密度B(x,y)を導出することにより骨密度画像Bを導出する。なお、骨部画像Gbに含まれる全ての骨について骨密度B(x,y)を導出してもよいし、予め定められた骨についてのみ骨密度B(x,y)を導出してもよい。一例として本実施形態では、骨部画像Gbについて、予め定められた骨を骨部画像Gbに含まれる腰椎とし、第1導出部23は、腰椎に対応する骨部領域の画素毎に骨密度B(x,y)を導出し、骨部画像Gbに含まれる他の骨に対応する骨部領域については、骨密度B(x,y)を導出しない。以下、第1導出部23が骨密度B(x,y)を導出する骨部領域とは腰椎に対応する骨部領域のことをいう。 The first derivation unit 23 derives a bone density image representing bone density in the bone region of the subject H based on the bone image Gb generated by the bone image generation unit 22 . The first derivation unit 23 derives the bone density image B by deriving the bone density B(x, y) for each pixel (x, y) of the bone image Gb. The bone density B(x, y) may be derived for all bones included in the bone image Gb, or the bone density B(x, y) may be derived only for a predetermined bone. . As an example, in the present embodiment, for the bone image Gb, a predetermined bone is the lumbar spine included in the bone image Gb, and the first derivation unit 23 calculates the bone density B for each pixel of the bone region corresponding to the lumbar spine. (x, y) is derived, and the bone density B(x, y) is not derived for bone regions corresponding to other bones included in the bone region image Gb. Hereinafter, the bone region from which the first derivation unit 23 derives the bone density B(x, y) refers to the bone region corresponding to the lumbar vertebrae.

具体的には第1導出部23は、骨部画像Gbの骨部領域の各画素値Gb(x,y)を、基準撮影条件により取得した場合の骨画像の画素値に変換することにより各画素に対応する骨密度B(x,y)を導出する。より具体的には、第1導出部23は、後述するルックアップテーブル(図示省略)から取得される補正係数を用いて、骨部画像Gbの各画素値Gb(x,y)を補正することにより画素毎の骨密度B(x,y)を導出する。 Specifically, the first derivation unit 23 converts each pixel value Gb(x, y) of the bone region of the bone image Gb into a pixel value of the bone image acquired under the reference imaging condition, thereby obtaining each pixel value of the bone image Gb. A bone density B(x,y) corresponding to the pixel is derived. More specifically, the first derivation unit 23 corrects each pixel value Gb(x, y) of the bone image Gb using a correction coefficient obtained from a lookup table (not shown) to be described later. Bone density B(x, y) for each pixel is derived by

ここで、放射線源3における管電圧が高く、放射線源3から放射される放射線が高エネルギーであるほど、放射線画像における軟部と骨部とのコントラストが小さくなる。また、放射線が被写体Hを透過する過程において、放射線の低エネルギー成分が被写体Hに吸収され、放射線が高エネルギー化するビームハードニングが生じる。ビームハードニングによる放射線の高エネルギー化は、被写体Hの体厚が大きいほど大きくなる。 Here, the higher the tube voltage in the radiation source 3 and the higher the energy of the radiation emitted from the radiation source 3, the smaller the contrast between the soft tissue and the bone tissue in the radiographic image. In addition, in the course of the radiation passing through the subject H, the subject H absorbs the low-energy component of the radiation, causing beam hardening in which the energy of the radiation increases. The higher the energy of the radiation due to the beam hardening, the greater the body thickness of the subject H.

図5は被写体Hの体厚に対する骨部と軟部とのコントラストの関係を示す図である。なお、図5においては、80kV、90kVおよび100kVの3つの管電圧における、被写体Hの体厚に対する骨部と軟部とのコントラストの関係を示している。図5に示すように、管電圧が高いほどコントラストは低くなる。また、被写体Hの体厚がある値を超えると、体厚が大きいほどコントラストは低くなる。なお、骨部画像Gbにおける骨部領域の画素値Gb(x,y)が大きいほど、骨部と軟部とのコントラストは大きくなる。このため、図5に示す関係は、骨部画像Gbにおける骨部領域の画素値Gb(x,y)が大きいほど、高コントラスト側にシフトすることとなる。 FIG. 5 is a diagram showing the relationship between the body thickness of the subject H and the contrast between the bone portion and the soft portion. Note that FIG. 5 shows the relationship between the body thickness of the subject H and the contrast between the bone and soft parts at three tube voltages of 80 kV, 90 kV and 100 kV. As shown in FIG. 5, the higher the tube voltage, the lower the contrast. Further, when the body thickness of the subject H exceeds a certain value, the greater the body thickness, the lower the contrast. The larger the pixel value Gb(x, y) of the bone region in the bone image Gb, the greater the contrast between the bone and soft tissue. Therefore, the relationship shown in FIG. 5 shifts to the high contrast side as the pixel value Gb(x, y) of the bone region in the bone image Gb increases.

本実施形態において、骨部画像Gbにおける、撮影時の管電圧に応じたコントラストの相違、およびビームハードニングの影響によるコントラストの低下を補正するための補正係数を取得するためのルックアップテーブル(図示省略)が、ストレージ13に記憶されている。補正係数は、骨部画像Gbの各画素値Gb(x,y)を補正するための係数である。 In the present embodiment, a lookup table (see omitted) is stored in the storage 13 . The correction coefficient is a coefficient for correcting each pixel value Gb(x, y) of the bone image Gb.

図6は、ストレージ13に記憶されるルックアップテーブルの一例を示す図である。図6において、基準撮影条件を、管電圧90kVに設定したルックアップテーブルLUT1が例示されている。図6に示すようにルックアップテーブルLUT1において、管電圧が大きいほど、かつ被写体の体厚が大きいほど、大きい補正係数が設定されている。図6に示す例において、基準撮影条件が管電圧90kVであるため、管電圧が90kVで体厚が0の場合に、補正係数が1となっている。なお、図6において、ルックアップテーブルLUT1を2次元で示しているが、補正係数は骨部領域の画素値に応じて異なる。このため、ルックアップテーブルLUT1は、実際には骨部領域の画素値を表す軸が加わった3次元のテーブルとなる。 FIG. 6 is a diagram showing an example of a lookup table stored in the storage 13. As shown in FIG. FIG. 6 exemplifies a lookup table LUT1 in which the reference imaging condition is set to a tube voltage of 90 kV. As shown in FIG. 6, in the lookup table LUT1, a larger correction coefficient is set as the tube voltage increases and the body thickness of the subject increases. In the example shown in FIG. 6, since the standard imaging condition is a tube voltage of 90 kV, the correction coefficient is 1 when the tube voltage is 90 kV and the body thickness is 0. Although the lookup table LUT1 is shown two-dimensionally in FIG. 6, the correction coefficients differ according to the pixel values of the bone region. Therefore, the lookup table LUT1 is actually a three-dimensional table to which an axis representing pixel values of the bone region is added.

第1導出部23は、被写体Hの体厚分布T(x,y)およびストレージ13に記憶された管電圧の設定値を含む撮影条件に応じた画素毎の補正係数C0(x,y)を、ルックアップテーブルLUT1から抽出する。そして、第1導出部23は、下記の式(2)に示すように、骨部画像Gbにおける骨部領域の各画素値Gb(x,y)に対して、補正係数C0(x,y)を乗算することにより、骨部画像Gbの画素毎の骨密度B(x,y)を導出する。これにより、骨密度B(x,y)を画素値とする骨密度画像Bが導出される。このようにして導出された骨密度B(x,y)は、基準撮影条件である90kVの管電圧により被写体Hを撮影することにより取得され、かつビームハードニングの影響が除去された放射線画像に含まれる骨部領域の骨部の画素値を表すものとなる。
B(x,y)=C0(x,y)×Gb(x,y) (2)
The first derivation unit 23 calculates the correction coefficient C0(x, y) for each pixel according to the imaging conditions including the body thickness distribution T(x, y) of the subject H and the setting value of the tube voltage stored in the storage 13. , from the lookup table LUT1. Then, the first derivation unit 23 calculates the correction coefficient C0(x, y) for each pixel value Gb(x, y) of the bone region in the bone image Gb, as shown in the following equation (2). By multiplying by , the bone density B(x, y) for each pixel of the bone image Gb is derived. Thereby, a bone density image B having a pixel value of bone density B(x, y) is derived. The bone density B (x, y) derived in this way is obtained by imaging the subject H with a tube voltage of 90 kV, which is the standard imaging condition, and is a radiographic image from which the influence of beam hardening has been removed. It represents the pixel value of the bone portion of the included bone portion region.
B(x,y)=C0(x,y)×Gb(x,y) (2)

なお、第1導出部23は、骨部画像Gbの各画素の骨密度B(x,y)の分布の低周波成分を導出し、導出した低周波成分を画素値とするように骨密度画像Bを導出してもよい。また、骨部画像Gbの各画素の骨密度B(x,y)の代表値を導出し、導出した代表値を画素値とするように骨密度画像Bを導出してもよい。代表値としては、平均値、中間値、最大値または最小値を用いることができる。これにより、骨密度画像Bを表示した際に、骨密度の大局的な変化を確認することができる。 Note that the first derivation unit 23 derives the low-frequency component of the distribution of the bone density B(x, y) of each pixel of the bone image Gb, and calculates the bone density image so that the derived low-frequency component is used as the pixel value. B may be derived. Alternatively, a representative value of the bone density B(x, y) of each pixel of the bone image Gb may be derived, and the bone density image B may be derived such that the derived representative value is used as the pixel value. An average value, median value, maximum value, or minimum value can be used as the representative value. Thereby, when the bone density image B is displayed, it is possible to confirm the global change in the bone density.

第2導出部24は、第1の放射線画像G1、第2の放射線画像G2または骨部画像Gbから、骨梁の構造を表す骨梁画像Kを導出する。本実施形態においては、骨部画像Gbから骨梁画像Kを導出するものとする。図7は、人間の骨の断面構造の一例である椎骨の断面図である。図7に示すように、人間の骨は、海綿骨31と、海綿骨31の外側を覆う皮質骨32とを含んで構成されている。皮質骨32は海綿骨31よりも硬く、緻密である。海綿骨31は骨髄腔内に広がり、これが骨梁と呼ばれる。骨梁は小さな骨の柱の集合体である。骨梁は骨の板と柱の格子から構成されているため、骨梁の構造は画像中において高周波成分として現れる。このため、第2導出部24は、骨部画像Gbにおける骨部領域の画像の高周波成分を骨梁画像Kとして導出する。ここで、骨梁画像Kの画素値K(x,y)は骨部画像Gbにおける骨部領域の画像の高周波成分の値となる。図8に導出された骨梁画像を示す。図8においては導出された骨梁画像Kを高濃度にて示している。なお、骨部画像Gbにおける0.1~0.2cycle/mm程度以上の帯域情報を高周波成分とすることにより、骨梁および骨皮質成分情報を含む骨梁画像Kを導出することができる。また、骨部画像Gbにおける0.4~1.0cycle/mm程度以上の帯域情報を高周波成分とすることにより、骨梁の細い線のみを含む骨梁画像Kを導出することができる。一方、上述した骨密度B(x,y)の分布の低周波成分を骨密度画像Bとして導出する場合の低周波成分とは、上記の高周波成分の帯域以外の帯域の周波数成分となる。 The second derivation unit 24 derives a trabecular bone image K representing the structure of trabecular bone from the first radiographic image G1, the second radiographic image G2, or the bone image Gb. In this embodiment, the trabecular bone image K is derived from the bone image Gb. FIG. 7 is a cross-sectional view of a vertebra, which is an example of the cross-sectional structure of human bones. As shown in FIG. 7, human bones are composed of cancellous bone 31 and cortical bone 32 covering the outside of cancellous bone 31 . Cortical bone 32 is harder and denser than cancellous bone 31 . Trabecular bone 31 extends into the medullary cavity and is called trabecular bone. Trabeculae are aggregates of small bone pillars. Since the trabecular bone is composed of a lattice of bone plates and columns, the structure of the trabecular bone appears as a high-frequency component in the image. Therefore, the second derivation unit 24 derives the high-frequency component of the image of the bone region in the bone image Gb as the trabecular bone image K. FIG. Here, the pixel value K(x, y) of the trabecular bone image K is the value of the high frequency component of the image of the bone region in the bone image Gb. FIG. 8 shows the derived trabecular images. FIG. 8 shows the derived trabecular bone image K at high density. By using band information of about 0.1 to 0.2 cycle/mm or higher in the bone image Gb as high-frequency components, a trabecular bone image K including bone trabecular and cortical bone component information can be derived. Further, by using band information of about 0.4 to 1.0 cycle/mm or more in the bone image Gb as high frequency components, a trabecular bone image K including only thin lines of trabecular bone can be derived. On the other hand, the low-frequency component in the case of deriving the low-frequency component of the distribution of the bone density B(x, y) as the bone density image B is the frequency component in the band other than the band of the high-frequency component.

なお、骨部画像Gbにおける骨部領域の画像の高周波成分はコントラストが小さいため、視認しにくい場合がある。このため、第2導出部24は、高周波成分を強調し、強調した高周波成分を骨梁画像Kとして導出するものであってもよい。 Note that the high-frequency components of the bone region image in the bone image Gb have low contrast, and may be difficult to visually recognize. Therefore, the second derivation unit 24 may emphasize high frequency components and derive the emphasized high frequency components as the trabecular bone image K. FIG.

表示制御部25は、骨密度画像Bに骨梁画像Kを重畳してディスプレイ14に表示する。具体的には、表示制御部25は、骨密度画像Bに骨梁画像Kを重畳することにより合成画像GC0を生成し、生成した合成画像GC0をディスプレイ14に表示する。合成画像GC0を生成するに際し、表示制御部25は、骨密度画像Bに対して骨密度B(x,y)の値に応じて異なる色をマッピングしてマッピング画像Bmを生成する。図9はマッピング画像を示す図である。図9においては、色が異なることを濃度の相違により示しており、高濃度であるほど骨密度が大きいことを示している。この結果、マッピング画像Bmは骨密度画像Bにおいて骨密度に応じた色の分布を有するものとなる。なお、マッピング画像Bmにおいては、色のマッピングに変えて、骨密度に応じた濃度の変化を表すものであってもよい。 The display control unit 25 superimposes the trabecular bone image K on the bone density image B and displays it on the display 14 . Specifically, the display control unit 25 superimposes the trabecular bone image K on the bone density image B to generate the composite image GC0, and displays the generated composite image GC0 on the display . When generating the composite image GC0, the display control unit 25 maps different colors to the bone density image B according to the values of the bone density B(x, y) to generate a mapping image Bm. FIG. 9 is a diagram showing a mapping image. In FIG. 9, different colors are indicated by different densities, and the higher the density, the higher the bone density. As a result, the mapping image Bm has a color distribution in the bone density image B corresponding to the bone density. In addition, in the mapping image Bm, instead of color mapping, density change according to bone density may be expressed.

そして、表示制御部25は、マッピング画像Bmに骨梁画像Kを重畳することにより合成画像GC0を導出する。図10は合成画像の表示画面を示す図である。なお、図10に示す表示画面40においては、図4に示す骨部画像Gbの椎骨の領域のみを拡大表示している。図10においては、骨梁画像Kの色をマッピング画像Bmの色とは異なる色とすることが好ましい。例えば、マッピング画像Bmの色が寒色系である場合、骨梁画像Kの色を暖色系とすることが好ましい。 Then, the display control unit 25 derives a composite image GC0 by superimposing the trabecular bone image K on the mapping image Bm. FIG. 10 is a diagram showing a display screen of a synthesized image. In addition, on the display screen 40 shown in FIG. 10, only the vertebral region of the bone image Gb shown in FIG. 4 is enlarged and displayed. In FIG. 10, the color of the trabecular bone image K is preferably different from the color of the mapping image Bm. For example, if the color of the mapping image Bm is a cold color, it is preferable that the color of the trabecular image K is a warm color.

より具体的には、マッピング画像Bmにおいて、最小骨密度を緑((R,G,B)=(0,255,0))、最大骨密度を青(0,0,255)とし、骨密度B(x,y)をN段階の色の変化により表現する場合は、マッピング画像Bmの画素値を(0,255-255×(n-1)/N,255×(n-1)/N)(n=1,2,…N)により導出する。nは骨密度B(x,y)が取り得る最小値から最大値の範囲をN個に分割した場合において、骨密度B(x,y)が属する範囲を示す。例えば、骨密度B(x,y)が0~255の値をとる場合においてN=16である場合、ある画素の骨密度B(x,y)が10であればn=1、120であればn=8、250であればn=16である。一方、骨梁画像Kにおいて、最小画素値を黄色(255,255,0)、最大画素値を赤色(255,0,0)とし、骨梁画像Kの画素値K(x,y)をM段階の色の変化により表現する場合は、骨梁画像Kの画素値を(255,255-255×(m-1)/M,255×(m-1)/M)(m=1,2,…M)により導出する。この場合において、骨梁画像Kの色をマッピング画像Bmの色とは異なる色とするとは、上記のいずれのn,mにおいても、マッピング画像Bmの色と骨梁画像Kの色とが一致しないことを言う。 More specifically, in the mapping image Bm, the minimum bone density is green ((R, G, B) = (0, 255, 0)), the maximum bone density is blue (0, 0, 255), and the bone density When B(x, y) is represented by N-step color changes, the pixel values of the mapping image Bm are set to (0, 255-255×(n−1)/N, 255×(n−1)/N ) (n=1, 2, . . . N). n indicates the range to which the bone density B(x, y) belongs when the range from the minimum value to the maximum value that the bone density B(x, y) can take is divided into N. For example, when the bone density B (x, y) takes a value of 0 to 255 and N = 16, if the bone density B (x, y) of a certain pixel is 10, n = 1, even if it is 120 For example, if n=8, 250 then n=16. On the other hand, in the trabecular image K, the minimum pixel value is yellow (255, 255, 0), the maximum pixel value is red (255, 0, 0), and the pixel value K (x, y) of the trabecular image K is M In the case of expressing by a stepwise color change, the pixel value of the trabecular image K is set to (255, 255-255×(m−1)/M, 255×(m−1)/M) (m=1, 2 , . . . M). In this case, making the color of the trabecular image K different from the color of the mapping image Bm means that the color of the mapping image Bm and the color of the trabecular image K do not match for any of the above n and m. Say things.

なお、マッピング画像Bmおよび骨梁画像Kの色の変化は線形でなくてもよい。例えば、マッピング画像Bmの画素値を(0,255-255×(n-1)2/N2,255×(n-1)2/N2)により導出し、骨梁画像Kの画素値を(255,255-255×(m-1)2/M2,255×(m-1)2/M2)により導出してもよい。 Note that the color change of the mapping image Bm and the trabecular image K does not have to be linear. For example, the pixel values of the mapping image Bm are derived by (0, 255-255×(n−1) 2 /N 2 , 255×(n−1) 2 /N 2 ), and the pixel values of the trabecular bone image K are (255, 255-255 x (m-1) 2 /M 2 , 255 x (m-1) 2 /M 2 ).

次いで、本実施形態において行われる処理について説明する。図11は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21は、撮影装置1に撮影を行わせてエネルギー分布が互いに異なる第1および第2の放射線画像G1,G2を取得する(ステップST1)。次いで、骨部画像生成部22が、画像取得部21が取得した第1放射線画像G1および第2放射線画像G2から、被写体Hの骨部領域を表す骨部画像Gbを導出する(ステップST2)。 Next, processing performed in this embodiment will be described. FIG. 11 is a flow chart showing the processing performed in this embodiment. First, the image acquiring unit 21 acquires the first and second radiation images G1 and G2 having different energy distributions by causing the imaging device 1 to perform imaging (step ST1). Next, the bone image generator 22 derives a bone image Gb representing the bone region of the subject H from the first radiographic image G1 and the second radiographic image G2 acquired by the image acquisition unit 21 (step ST2).

続いて、第1導出部23が、骨部画像生成部22が生成した骨部画像Gbに基づいて、被写体Hの骨部領域における骨密度を表す骨密度画像Bを導出する(ステップST3)。さらに、第2導出部24が、骨部画像Gbから骨梁の構造を表す骨梁画像Kを導出する(ステップST4)。そして、骨密度画像Bに骨梁画像Kを重畳して合成画像GC0を導出し、導出した合成画像GC0をディスプレイ14に表示し(ステップST5)、処理を終了する。 Subsequently, the first derivation unit 23 derives a bone density image B representing bone density in the bone region of the subject H based on the bone image Gb generated by the bone image generation unit 22 (step ST3). Further, the second derivation unit 24 derives a trabecular bone image K representing the structure of the trabecular bone from the bone image Gb (step ST4). Then, the trabecular bone image K is superimposed on the bone density image B to derive a synthesized image GC0, the derived synthesized image GC0 is displayed on the display 14 (step ST5), and the process is terminated.

このように、本実施形態においては、骨密度画像Bに骨梁画像Kを重畳して表示するようにしたため、骨密度と骨梁の構造とを一見して確認できる。 As described above, in the present embodiment, the trabecular bone image K is superimposed on the bone density image B, so that the bone density and the structure of the trabecular bone can be confirmed at a glance.

また、骨密度画像Bと骨梁画像Kとの色を異なるものとすることにより、両者を容易に区別して確認することができる。 By using different colors for the bone density image B and the trabecular bone image K, the two can be easily distinguished and confirmed.

なお、上記実施形態においては、エネルギーサブトラクション処理を行うに際し、1ショット法により第1および第2の放射線画像G1,G2を取得しているが、これに限定されるものではない。1つの放射線検出器のみ用いて撮影を2回行う、いわゆる2ショット法により第1および第2の放射線画像G1,G2を取得してもよい。2ショット法の場合、被写体Hの体動により、第1の放射線画像G1および第2の放射線画像G2に含まれる被写体Hの位置がずれる可能性がある。このため、第1の放射線画像G1および第2の放射線画像G2において、被写体の位置合わせを行った上で、本実施形態の処理を行うことが好ましい。 In the above embodiment, the first and second radiographic images G1 and G2 are acquired by the one-shot method when performing the energy subtraction processing, but the method is not limited to this. The first and second radiographic images G1 and G2 may be acquired by a so-called two-shot method, in which imaging is performed twice using only one radiation detector. In the case of the two-shot method, body motion of the subject H may shift the position of the subject H included in the first radiographic image G1 and the second radiographic image G2. Therefore, it is preferable to perform the processing of the present embodiment after aligning the subject in the first radiographic image G1 and the second radiographic image G2.

また、上記実施形態においては、第1および第2の放射線検出器5,6を用いて被写体Hを撮影するシステムにおいて取得した第1および第2の放射線画像を用いて、内臓脂肪量分布を導出しているが、放射線検出器に代えて、蓄積性蛍光体シートを用いて取得した第1および第2の放射線画像G1,G2を用いて内臓脂肪量分布を導出するようにしてもよい。この場合、2枚の蓄積性蛍光体シートを重ねて被写体Hを透過した放射線を照射して、被写体Hの放射線画像情報を各蓄積性蛍光体シートに蓄積記録し、各蓄積性蛍光体シートから放射線画像情報を光電的に読み取ることにより第1および第2の放射線画像G1,G2を取得すればよい。なお、蓄積性蛍光体シートを用いて第1および第2の放射線画像G1,G2を取得する場合にも、2ショット法を用いるようにしてもよい。 Further, in the above embodiment, the visceral fat mass distribution is derived using the first and second radiographic images acquired in the system for imaging the subject H using the first and second radiation detectors 5 and 6. However, the visceral fat mass distribution may be derived using first and second radiographic images G1 and G2 obtained using a stimulable phosphor sheet instead of the radiation detector. In this case, two stimulable phosphor sheets are superimposed and irradiated with radiation that has passed through the subject H, and the radiographic image information of the subject H is accumulated and recorded on each stimulable phosphor sheet. The first and second radiographic images G1 and G2 may be obtained by photoelectrically reading the radiographic image information. The two-shot method may also be used when the first and second radiographic images G1 and G2 are acquired using the stimulable phosphor sheet.

また、上記実施形態における放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を用いることができる。 Moreover, the radiation in the above embodiment is not particularly limited, and α-rays, γ-rays, or the like can be used in addition to X-rays.

また、上記実施形態において、例えば、画像取得部21、骨部画像生成部22、第1導出部23、第2導出部24および表示制御部25といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Further, in the above-described embodiment, a processing unit (processing unit) that executes various processes such as the image acquisition unit 21, the bone image generation unit 22, the first derivation unit 23, the second derivation unit 24, and the display control unit 25 As the hardware structure of , the following various processors can be used. In addition to the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as described above, the various processors described above include circuits such as FPGAs (Field Programmable Gate Arrays) after manufacturing. Programmable Logic Device (PLD), which is a processor whose configuration can be changed, ASIC (Application Specific Integrated Circuit), etc. Circuits, etc. are included.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be configured with one of these various processors, or a combination of two or more processors of the same or different type (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). ). Also, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units in one processor, first, as represented by computers such as clients and servers, one processor is configured by combining one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。 Furthermore, more specifically, as the hardware structure of these various processors, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

1 撮影装置
3 放射線源
5、6 放射線検出器
7 放射線エネルギー変換フィルタ
10 画像処理装置
11 CPU
12 画像処理プログラム
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
21 画像取得部
22 骨部画像生成部
23 第1導出部
24 第2導出部
25 表示制御部
31 海綿骨
32 皮質骨
40 表示画面
B 骨密度画像
Bm マッピング画像
G1 第1の放射線画像
G2 第2の放射線画像
Gb 骨部画像
GC0 合成画像
H 被写体
K 骨梁画像
REFERENCE SIGNS LIST 1 imaging device 3 radiation source 5, 6 radiation detector 7 radiation energy conversion filter 10 image processing device 11 CPU
12 image processing program 13 storage 14 display 15 input device 16 memory 17 network I/F
18 bus 21 image acquisition unit 22 bone image generation unit 23 first derivation unit 24 second derivation unit 25 display control unit 31 cancellous bone 32 cortical bone 40 display screen B bone density image Bm mapping image G1 first radiographic image G2 second Radiation image 2 Gb Bone image GC0 Composite image H Subject K Trabecular image

Claims (9)

少なくとも1つのプロセッサを備え、
前記プロセッサは、
エネルギー分布が異なる放射線により骨部を含む被写体を撮影することにより取得された第1の放射線画像および第2の放射線画像から、前記被写体の骨部画像を導出し、
前記骨部画像から前記被写体の骨部領域における骨密度を表す骨密度画像を導出し、
前記第1の放射線画像、前記第2の放射線画像または前記骨部画像から骨梁の構造を表す骨梁画像を導出し、
前記骨密度画像に前記骨梁画像を重畳して表示する画像処理装置。
comprising at least one processor;
The processor
Deriving a bone image of the subject from a first radiographic image and a second radiographic image obtained by imaging the subject including the bone with radiation having different energy distributions,
deriving a bone density image representing bone density in the bone region of the subject from the bone image;
deriving a trabecular bone image representing the structure of trabecular bone from the first radiographic image, the second radiographic image or the bone image;
An image processing apparatus for superimposing and displaying the trabecular bone image on the bone density image.
前記プロセッサは、前記第1の放射線画像、前記第2の放射線画像または前記骨部画像の高周波成分を前記骨梁画像として導出する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the processor derives high-frequency components of the first radiographic image, the second radiographic image, or the bone image as the trabecular bone image. 前記プロセッサは、強調された前記高周波成分を前記骨梁画像として導出する請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the processor derives the enhanced high-frequency component as the trabecular bone image. 前記プロセッサは、前記骨部領域における各画素の骨密度を導出し、前記骨密度の分布の低周波成分を画素値とする前記骨密度画像を導出する請求項1から3のいずれか1項に記載の画像処理装置。 4. The processor according to any one of claims 1 to 3, wherein the processor derives the bone density of each pixel in the bone region, and derives the bone density image in which pixel values are low-frequency components of the bone density distribution. The described image processing device. 前記プロセッサは、前記骨部領域における各画素の骨密度を導出し、前記骨部領域における前記骨密度の代表値を画素値とする前記骨密度画像を導出する請求項1から3のいずれか1項に記載の画像処理装置。 4. Any one of claims 1 to 3, wherein the processor derives the bone density of each pixel in the bone region, and derives the bone density image having a pixel value representing the representative value of the bone density in the bone region. 10. The image processing device according to claim 1. 前記骨密度画像は前記骨密度に応じた色の分布を有する請求項1から5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the bone density image has a color distribution according to the bone density. 前記骨梁画像は前記骨密度とは異なる色を有する請求項6に記載の画像処理装置。 7. The image processing apparatus according to claim 6, wherein said bone trabecular image has a color different from said bone density. エネルギー分布が異なる放射線により骨部を含む被写体を撮影することにより取得された第1の放射線画像および第2の放射線画像から、前記被写体の骨部画像を導出し、
前記骨部画像から前記被写体の骨部領域における骨密度を表す骨密度画像を導出し、
前記第1の放射線画像、前記第2の放射線画像または前記骨部画像から骨梁の構造を表す骨梁画像を導出し、
前記骨密度画像に前記骨梁画像を重畳して表示する画像処理方法。
Deriving a bone image of the subject from a first radiographic image and a second radiographic image obtained by imaging the subject including the bone with radiation having different energy distributions,
deriving a bone density image representing bone density in the bone region of the subject from the bone image;
deriving a trabecular bone image representing the structure of trabecular bone from the first radiographic image, the second radiographic image or the bone image;
An image processing method for superimposing and displaying the trabecular bone image on the bone density image.
エネルギー分布が異なる放射線により骨部を含む被写体を撮影することにより取得された第1の放射線画像および第2の放射線画像から、前記被写体の骨部画像を導出する手順と、
前記骨部画像から前記被写体の骨部領域における骨密度を表す骨密度画像を導出する手順と、
前記第1の放射線画像、前記第2の放射線画像または前記骨部画像から骨梁の構造を表す骨梁画像を導出する手順と、
前記骨密度画像に前記骨梁画像を重畳して表示する手順とをコンピュータに実行させる画像処理プログラム。
A procedure for deriving a bone image of a subject from first and second radiographic images acquired by imaging a subject including a bone with radiation having different energy distributions;
a procedure of deriving a bone density image representing bone density in a bone region of the subject from the bone image;
a procedure of deriving a trabecular bone image representing a structure of trabecular bone from the first radiographic image, the second radiographic image, or the bone image;
and an image processing program for causing a computer to execute a procedure for superimposing and displaying the trabecular bone image on the bone density image.
JP2021159996A 2021-09-29 2021-09-29 Image processing device, method, and program Pending JP2023049944A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021159996A JP2023049944A (en) 2021-09-29 2021-09-29 Image processing device, method, and program
US17/898,157 US20230093849A1 (en) 2021-09-29 2022-08-29 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021159996A JP2023049944A (en) 2021-09-29 2021-09-29 Image processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2023049944A true JP2023049944A (en) 2023-04-10

Family

ID=85706410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021159996A Pending JP2023049944A (en) 2021-09-29 2021-09-29 Image processing device, method, and program

Country Status (2)

Country Link
US (1) US20230093849A1 (en)
JP (1) JP2023049944A (en)

Also Published As

Publication number Publication date
US20230093849A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
JP6906479B2 (en) Bone mineral information acquisition device, method and program
US10973482B2 (en) Bone mineral information acquisition apparatus, bone mineral information acquisition method, and bone mineral information acquisition program
JP7016294B2 (en) Bone salt information acquisition device, method and program
JP7284768B2 (en) SUBJECT INFORMATION ACQUISITION DEVICE, OPERATION METHOD THEREOF, AND SUBJECT INFORMATION ACQUISITION PROGRAM
JP2023049944A (en) Image processing device, method, and program
JP7187421B2 (en) Image processing device, image processing method, and image processing program
US20230172576A1 (en) Radiation image processing device, radiation image processing method, and radiation image processing program
JP7220643B2 (en) Image processing device, method and program
JP7301792B2 (en) Radiation image processing apparatus, method and program
US20230017704A1 (en) Estimation device, estimation method, and estimation program
US20230096694A1 (en) Image processing device, image processing method, and image processing program
US11911204B2 (en) Scattered ray model derivation device, scattered ray model derivation method, scattered ray model derivation program, radiation image processing device, radiation image processing method, and radiation image processing program
JP7342140B2 (en) Information processing device, information processing method and program
JP2023177980A (en) Radiation image processing device, method, and program
JP7258165B2 (en) Image processing device, method and program
US20230134187A1 (en) Radiation image processing device, radiation image processing method, and radiation image processing program
JP7289922B2 (en) Energy subtraction processor, method and program
JP7289769B2 (en) Image processing device, method and program
WO2023054287A1 (en) Bone disease prediction device, method, and program, learning device, method, and program, and trained neural network
JP2024040945A (en) Image processing device, method and program
WO2021100413A1 (en) Radiographic image processing device, method, and program
US20240023919A1 (en) Radiation image processing device, radiation image processing method, and radiation image processing program
US20220323032A1 (en) Learning device, learning method, and learning program, radiation image processing device, radiation image processing method, and radiation image processing program
JP2024010991A (en) Radiation image processing device, method, and program
JP2023047910A (en) Fat mass derivation device, method and program