JP2019005417A - Dynamic image processing device and dynamic image processing system - Google Patents
Dynamic image processing device and dynamic image processing system Download PDFInfo
- Publication number
- JP2019005417A JP2019005417A JP2017125736A JP2017125736A JP2019005417A JP 2019005417 A JP2019005417 A JP 2019005417A JP 2017125736 A JP2017125736 A JP 2017125736A JP 2017125736 A JP2017125736 A JP 2017125736A JP 2019005417 A JP2019005417 A JP 2019005417A
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- correction
- frame
- image
- frame images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 35
- 238000012937 correction Methods 0.000 claims abstract description 68
- 238000003384 imaging method Methods 0.000 claims abstract description 45
- 210000004072 lung Anatomy 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 16
- 201000010099 disease Diseases 0.000 claims description 9
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 9
- 230000000241 respiratory effect Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000002238 attenuated effect Effects 0.000 abstract description 15
- 238000003745 diagnosis Methods 0.000 abstract description 6
- 230000005855 radiation Effects 0.000 description 45
- 238000000034 method Methods 0.000 description 28
- 210000000038 chest Anatomy 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 210000000988 bone and bone Anatomy 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 230000029058 respiratory gaseous exchange Effects 0.000 description 10
- 210000004204 blood vessel Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 210000000614 rib Anatomy 0.000 description 6
- 210000003109 clavicle Anatomy 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 206010006322 Breath holding Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- YDLQKLWVKKFPII-UHFFFAOYSA-N timiperone Chemical compound C1=CC(F)=CC=C1C(=O)CCCN1CCC(N2C(NC3=CC=CC=C32)=S)CC1 YDLQKLWVKKFPII-UHFFFAOYSA-N 0.000 description 1
- 229950000809 timiperone Drugs 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明は、動態画像処理装置及び動態画像処理システムに関する。 The present invention relates to a dynamic image processing apparatus and a dynamic image processing system.
胸部のX線画像においては、診断対象となる肺野だけでなく、それを覆う肋骨、鎖骨や血管等の構造物が同時に写り込んでしまう。これらは、肺野の診断の妨げとなる。 In the X-ray image of the chest, not only the lung field to be diagnosed, but also structures such as ribs, clavicles and blood vessels that cover it are reflected at the same time. These hinder the diagnosis of the lung field.
そこで、例えば、特許文献1には、胸部動態画像の複数のフレーム画像のそれぞれから肋骨、鎖骨等の構造物の領域を抽出し、抽出した領域の構造物による信号成分を推定してもとのフレーム画像から減算することが記載されている。また、フレーム画像間の構造物による信号成分の推定の誤差を複数のフレーム画像を用いて補正することが記載されている。 Therefore, for example, in Patent Document 1, a region of a structure such as a rib or a clavicle is extracted from each of a plurality of frame images of a chest dynamic image, and a signal component due to the structure of the extracted region is estimated. The subtraction is described from the frame image. Further, it is described that an error in estimating a signal component due to a structure between frame images is corrected using a plurality of frame images.
隣接するフレーム画像間では硬質な構造物(肋骨、鎖骨など骨格)は画像上で形状がほとんど変わらないため、特許文献1に記載の手法による信号推定誤差の抑制は所望の結果を得られることが予想される。しかし、血管や心臓などの軟部組織は隣接するフレーム画像間でも形状が変わってしまい、単純にフレーム画像間の推定した信号値の代表値を用いて補正するだけでは正しい信号値を推定することはできず、アーチファクトのように見えてしまう。また、硬質な構造物であっても、隣接しないフレーム画像を用いて信号推定の精度を高めることを試みる場合は、呼吸に伴って構造物が移動し、X線源との位置関係が変わることで、画像上では形状が変形してしまうため、前述の血管や心臓と同様、正しく信号を推定することが難しい。構造物の信号推定に誤差を生じたフレーム画像があると、減弱後の動態画像を再生したときにちらつきが生じ、診断対象を観察しづらいといった問題がある。 Since hard structures (skeletons such as ribs and clavicles) hardly change in shape between adjacent frame images, suppression of signal estimation errors by the method described in Patent Document 1 can obtain a desired result. is expected. However, the shape of soft tissue such as blood vessels and the heart changes between adjacent frame images, and it is not possible to estimate the correct signal value simply by correcting using the representative value of the estimated signal value between the frame images. It can't be done and looks like an artifact. Even if it is a hard structure, when trying to increase the accuracy of signal estimation using non-adjacent frame images, the structure moves with breathing and the positional relationship with the X-ray source changes. Thus, since the shape is deformed on the image, it is difficult to correctly estimate the signal as in the case of the blood vessels and the heart. If there is a frame image that causes an error in signal estimation of the structure, there is a problem that flickering occurs when the attenuated dynamic image is reproduced, and it is difficult to observe the diagnosis target.
本発明の課題は、構造物を減弱した胸部動態画像における構造物の信号推定誤差によるちらつきノイズを抑制することである。 An object of the present invention is to suppress flicker noise due to a signal estimation error of a structure in a chest dynamic image in which the structure is attenuated.
上記課題を解決するため、請求項1に記載の発明の動態画像処理装置は、
被写体の胸部を動態撮影することにより取得された複数のフレーム画像のそれぞれから所定の構造物の領域を抽出する抽出手段と、
前記抽出手段により抽出された前記所定の構造物の領域における前記所定の構造物に起因する信号値を推定する推定手段と、
前記複数のフレーム画像のそれぞれにおける前記推定手段による推定結果の補正に用いるフレーム画像を前記複数のフレーム画像における補正対象のフレーム画像とは別のフレーム画像の中から決定する決定手段と、
前記決定手段により決定された前記補正に用いるフレーム画像における前記所定の構造物の領域の形状を前記補正対象のフレーム画像における前記所定の構造物の領域の形状と同一化し、前記形状を同一化したフレーム画像における前記推定結果を用いて前記補正対象のフレーム画像における前記推定結果を補正する補正手段と、
前記補正手段により補正された推定結果に基づいて、前記複数のフレーム画像のそれぞれにおける前記所定の構造物に起因する信号成分を減弱する減弱手段と、
を備える。
In order to solve the above-described problem, a dynamic image processing apparatus according to claim 1 is provided.
Extraction means for extracting a region of a predetermined structure from each of a plurality of frame images acquired by dynamic imaging of the chest of the subject;
Estimating means for estimating a signal value caused by the predetermined structure in the region of the predetermined structure extracted by the extracting means;
Determining means for determining a frame image to be used for correcting the estimation result by the estimating means in each of the plurality of frame images from a frame image different from the frame image to be corrected in the plurality of frame images;
The shape of the region of the predetermined structure in the frame image used for the correction determined by the determination unit is made the same as the shape of the region of the predetermined structure in the frame image to be corrected, and the shape is made the same Correction means for correcting the estimation result in the frame image to be corrected using the estimation result in a frame image;
Attenuating means for attenuating a signal component caused by the predetermined structure in each of the plurality of frame images based on the estimation result corrected by the correcting means;
Is provided.
請求項2に記載の発明は、請求項1に記載の発明において、
前記決定手段は、前記複数のフレーム画像における横隔膜の移動の速度、周期もしくは周波数、前記複数のフレーム画像における肺野の濃度変化の速度、周期もしくは周波数、前記被写体の動態撮影時の呼吸状態、又は前記被写体の疾患に基づいて、前記補正に用いるフレーム画像の数を決定し、前記補正対象のフレーム画像の前後の決定した数のフレーム画像を前記補正に用いるフレーム画像として決定する。
The invention according to claim 2 is the invention according to claim 1,
The determination means includes a speed, period or frequency of movement of the diaphragm in the plurality of frame images, a speed, period or frequency of concentration change in the lung field in the plurality of frame images, a respiratory state during dynamic imaging of the subject, or Based on the disease of the subject, the number of frame images used for the correction is determined, and the determined number of frame images before and after the correction target frame image are determined as the frame images used for the correction.
請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記補正手段は、前記補正対象のフレーム画像における前記推定結果を、当該推定結果と前記補正に用いるフレーム画像の対応する位置における前記推定結果の代表値に置き換える。
The invention according to claim 3 is the invention according to claim 1 or 2,
The correction unit replaces the estimation result in the correction target frame image with a representative value of the estimation result at a position corresponding to the estimation result and the frame image used for the correction.
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、
前記補正手段は、前記補正に用いるフレーム画像における推定結果に基づいて、前記補正対象のフレーム画像における推定結果に外れ値が含まれているか否かを判断し、外れ値が含まれている場合に、その外れ値について前記補正を行う。
The invention according to claim 4 is the invention according to any one of claims 1 to 3,
The correction means determines whether or not an outlier is included in the estimation result in the frame image to be corrected based on the estimation result in the frame image used for the correction, and when the outlier is included The correction is performed for the outlier.
請求項5に記載の発明の動態画像処理システムは、
被写体の胸部に動態撮影を行う撮影手段と、
前記撮影手段により取得された複数のフレーム画像のそれぞれから所定の構造物の領域を抽出する抽出手段と、
前記抽出手段により抽出された前記所定の構造物の領域における前記所定の構造物に起因する信号値を推定する推定手段と、
前記複数のフレーム画像のそれぞれにおける前記推定手段による推定結果の補正に用いるフレーム画像を前記複数のフレーム画像における補正対象のフレーム画像とは別のフレーム画像の中から決定する決定手段と、
前記決定手段により決定された前記補正に用いるフレーム画像における前記所定の構造物の領域の形状を前記補正対象のフレーム画像における前記所定の構造物の領域の形状と同一化し、前記形状を同一化したフレーム画像における前記推定結果を用いて前記補正対象のフレーム画像における前記推定結果を補正する補正手段と、
前記補正手段により補正された推定結果に基づいて、前記複数のフレーム画像のそれぞれにおける前記所定の構造物に起因する信号成分を減弱する減弱手段と、
を備える。
The dynamic image processing system of the invention according to claim 5 is:
Photographing means for performing dynamic photographing on the chest of the subject;
Extracting means for extracting a region of a predetermined structure from each of a plurality of frame images acquired by the photographing means;
Estimating means for estimating a signal value caused by the predetermined structure in the region of the predetermined structure extracted by the extracting means;
Determining means for determining a frame image to be used for correcting the estimation result by the estimating means in each of the plurality of frame images from a frame image different from the frame image to be corrected in the plurality of frame images;
The shape of the region of the predetermined structure in the frame image used for the correction determined by the determination unit is made the same as the shape of the region of the predetermined structure in the frame image to be corrected, and the shape is made the same Correction means for correcting the estimation result in the frame image to be corrected using the estimation result in a frame image;
Attenuating means for attenuating a signal component caused by the predetermined structure in each of the plurality of frame images based on the estimation result corrected by the correcting means;
Is provided.
本発明によれば、構造物を減弱した胸部動態画像における構造物の信号推定誤差によるちらつきノイズを抑制することができる。 According to the present invention, it is possible to suppress flicker noise due to a signal estimation error of a structure in a chest dynamic image in which the structure is attenuated.
以下、図面を参照して本発明の実施形態について説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
〔動態画像処理システム100の構成〕
まず、本実施形態の構成を説明する。
図1に、本実施形態における動態画像処理システム100の全体構成を示す。
図1に示すように、動態画像処理システム100は、撮影装置1と、撮影用コンソール2とが通信ケーブル等により接続され、撮影用コンソール2と、診断用コンソール3とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。動態画像処理システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
[Configuration of Dynamic Image Processing System 100]
First, the configuration of the present embodiment will be described.
FIG. 1 shows the overall configuration of a dynamic image processing system 100 in the present embodiment.
As shown in FIG. 1, in the dynamic image processing system 100, an imaging device 1 and an imaging console 2 are connected by a communication cable or the like, and the imaging console 2 and the diagnostic console 3 are connected to a LAN (Local Area Network). Etc., and connected via a communication network NT. Each device constituting the dynamic image processing system 100 conforms to the DICOM (Digital Image and Communications in Medicine) standard, and communication between the devices is performed according to DICOM.
〔撮影装置1の構成〕
撮影装置1は、例えば、呼吸運動に伴う肺の膨張及び収縮の形態変化、心臓の拍動等の、生体の動態を撮影する撮影手段である。動態撮影とは、被写体に対し、X線等の放射線をパルス状にして所定時間間隔で繰り返し照射するか(パルス照射)、もしくは、低線量率にして途切れなく継続して照射する(連続照射)ことで、被写体の動態を示す複数の画像を取得することをいう。動態撮影により得られた一連の画像を動態画像と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。なお、以下の実施形態では、パルス照射により胸部の動態撮影を行う場合を例にとり説明する。
[Configuration of the photographing apparatus 1]
The imaging device 1 is an imaging unit that images dynamics of a living body, such as changes in the shape of lung expansion and contraction associated with respiratory motion, heart pulsation, and the like. Dynamic imaging is to irradiate a subject repeatedly with a pulse of X-ray radiation (pulse irradiation) or continuously with a low dose rate without interruption (continuous irradiation). In other words, obtaining a plurality of images showing the dynamics of the subject. A series of images obtained by dynamic imaging is called a dynamic image. Each of the plurality of images constituting the dynamic image is called a frame image. In the following embodiment, a case where dynamic imaging of the chest is performed by pulse irradiation will be described as an example.
放射線源11は、被写体Mを挟んで放射線検出部13と対向する位置に配置され、放射線照射制御装置12の制御に従って、被写体Mに対し放射線(X線)を照射する。
放射線照射制御装置12は、撮影用コンソール2に接続されており、撮影用コンソール2から入力された放射線照射条件に基づいて放射線源11を制御して放射線撮影を行う。撮影用コンソール2から入力される放射線照射条件は、例えば、パルスレート、パルス幅、パルス間隔、1撮影あたりの撮影フレーム数、X線管電流の値、X線管電圧の値、付加フィルター種等である。パルスレートは、1秒あたりの放射線照射回数であり、後述するフレームレートと一致している。パルス幅は、放射線照射1回当たりの放射線照射時間である。パルス間隔は、1回の放射線照射開始から次の放射線照射開始までの時間であり、後述するフレーム間隔と一致している。
The radiation source 11 is disposed at a position facing the radiation detection unit 13 across the subject M, and irradiates the subject M with radiation (X-rays) according to the control of the radiation irradiation control device 12.
The radiation irradiation control device 12 is connected to the imaging console 2 and controls the radiation source 11 based on the radiation irradiation conditions input from the imaging console 2 to perform radiation imaging. The radiation irradiation conditions input from the imaging console 2 are, for example, pulse rate, pulse width, pulse interval, number of imaging frames per imaging, X-ray tube current value, X-ray tube voltage value, additional filter type, etc. It is. The pulse rate is the number of times of radiation irradiation per second, and matches the frame rate described later. The pulse width is a radiation irradiation time per one irradiation. The pulse interval is a time from the start of one radiation irradiation to the start of the next radiation irradiation, and coincides with a frame interval described later.
放射線検出部13は、FPD(Flat Panel Detector)等の半導体イメージセンサーにより構成される。FPDは、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線源11から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。FPDにはX線をシンチレーターを介して光電変換素子により電気信号に変換する間接変換型、X線を直接的に電気信号に変換する直接変換型があるが、何れを用いてもよい。
放射線検出部13は、被写体Mを挟んで放射線源11と対向するように設けられている。
The radiation detection unit 13 includes a semiconductor image sensor such as an FPD (Flat Panel Detector). The FPD has, for example, a glass substrate or the like, detects radiation that has been irradiated from the radiation source 11 and transmitted through at least the subject M at a predetermined position on the substrate according to its intensity, and detects the detected radiation as an electrical signal. A plurality of detection elements (pixels) converted and stored in a matrix are arranged in a matrix. Each pixel includes a switching unit such as a TFT (Thin Film Transistor). The FPD includes an indirect conversion type in which X-rays are converted into electric signals by a photoelectric conversion element via a scintillator, and a direct conversion type in which X-rays are directly converted into electric signals, either of which may be used.
The radiation detection unit 13 is provided to face the radiation source 11 with the subject M interposed therebetween.
読取制御装置14は、撮影用コンソール2に接続されている。読取制御装置14は、撮影用コンソール2から入力された画像読取条件に基づいて放射線検出部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出部13に蓄積された電気信号を読み取ることにより、画像データを取得する。この画像データがフレーム画像である。フレーム画像の画素信号値は濃度値を表す。そして、読取制御装置14は、取得したフレーム画像を撮影用コンソール2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。 The reading control device 14 is connected to the imaging console 2. The reading control device 14 controls the switching unit of each pixel of the radiation detection unit 13 based on the image reading condition input from the imaging console 2 to switch the reading of the electrical signal accumulated in each pixel. Then, the image data is acquired by reading the electrical signal accumulated in the radiation detection unit 13. This image data is a frame image. The pixel signal value of the frame image represents a density value. Then, the reading control device 14 outputs the acquired frame image to the photographing console 2. The image reading conditions are, for example, a frame rate, a frame interval, a pixel size, an image size (matrix size), and the like. The frame rate is the number of frame images acquired per second and matches the pulse rate. The frame interval is the time from the start of one frame image acquisition operation to the start of the next frame image acquisition operation, and coincides with the pulse interval.
ここで、放射線照射制御装置12と読取制御装置14は互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。 Here, the radiation irradiation control device 12 and the reading control device 14 are connected to each other, and exchange synchronization signals to synchronize the radiation irradiation operation and the image reading operation.
〔撮影用コンソール2の構成〕
撮影用コンソール2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師等の撮影実施者によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
撮影用コンソール2は、図1に示すように、制御部21、記憶部22、操作部23、表示部24、通信部25を備えて構成され、各部はバス26により接続されている。
[Configuration of the shooting console 2]
The imaging console 2 outputs radiation irradiation conditions and image reading conditions to the imaging apparatus 1 to control radiation imaging and radiographic image reading operations by the imaging apparatus 1, and also captures dynamic images acquired by the imaging apparatus 1. The image is displayed for confirming whether the image is suitable for confirmation of positioning or diagnosis by a photographer.
As shown in FIG. 1, the imaging console 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25, and each unit is connected by a bus 26.
制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影用コンソール2各部の動作や、撮影装置1の放射線照射動作及び読み取り動作を集中制御する。
The control unit 21 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).
) Etc. The CPU of the control unit 21 reads the system program and various processing programs stored in the storage unit 22 in accordance with the operation of the operation unit 23, expands them in the RAM, and performs shooting control processing described later according to the expanded programs. Various processes including the beginning are executed to centrally control the operation of each part of the imaging console 2 and the radiation irradiation operation and the reading operation of the imaging apparatus 1.
記憶部22は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。例えば、記憶部22は、図2に示す撮影制御処理を実行するためのプログラムを記憶している。また、記憶部22は、検査対象部位(ここでは、胸部とする)に対応付けて放射線照射条件及び画像読取条件を記憶している。各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部21は、当該プログラムコードに従った動作を逐次実行する。 The storage unit 22 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 22 stores various programs executed by the control unit 21 and data such as parameters necessary for execution of processing by the programs or processing results. For example, the storage unit 22 stores a program for executing the shooting control process shown in FIG. The storage unit 22 stores the radiation irradiation condition and the image reading condition in association with the examination target part (here, the chest). Various programs are stored in the form of readable program code, and the control unit 21 sequentially executes operations according to the program code.
操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部21に出力する。また、操作部23は、表示部24の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部21に出力する。 The operation unit 23 includes a keyboard having a cursor key, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The control unit 23 controls an instruction signal input by key operation or mouse operation on the keyboard. To 21. In addition, the operation unit 23 may include a touch panel on the display screen of the display unit 24. In this case, the operation unit 23 outputs an instruction signal input via the touch panel to the control unit 21.
表示部24は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。 The display unit 24 is configured by a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays an input instruction, data, or the like from the operation unit 23 in accordance with an instruction of a display signal input from the control unit 21. To do.
通信部25は、LANアダプターやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。 The communication unit 25 includes a LAN adapter, a modem, a TA (Terminal Adapter), and the like, and controls data transmission / reception with each device connected to the communication network NT.
〔診断用コンソール3の構成〕
診断用コンソール3は、撮影用コンソール2から動態画像を取得し、取得した動態画像に画像処理を施して表示する動態画像処理装置である。
診断用コンソール3は、図1に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35を備えて構成され、各部はバス36により接続されている。
[Configuration of diagnostic console 3]
The diagnostic console 3 is a dynamic image processing device that acquires a dynamic image from the imaging console 2 and displays the acquired dynamic image by performing image processing.
As shown in FIG. 1, the diagnostic console 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35, and each unit is connected by a bus 36.
制御部31は、CPU、RAM等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って、構造物減弱処理を始めとする各種処理を実行し、診断用コンソール3の各部の動作を集中制御する。制御部31は、抽出手段、推定手段、決定手段、補正手段、減弱手段として機能する。 The control unit 31 includes a CPU, a RAM, and the like. The CPU of the control unit 31 reads the system program and various processing programs stored in the storage unit 32 in accordance with the operation of the operation unit 33 and develops them in the RAM, and the structure attenuation process according to the developed programs. Various processes including the above are executed, and the operation of each part of the diagnostic console 3 is centrally controlled. The control unit 31 functions as an extraction unit, an estimation unit, a determination unit, a correction unit, and an attenuation unit.
記憶部32は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部32は、制御部31で解析処理を実行するためのプログラムを始めとする各種プログラムやプログラムによる処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。 The storage unit 32 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 32 stores various programs including a program for executing an analysis process in the control unit 31, parameters necessary for executing the process by the program, or data such as a process result. These various programs are stored in the form of readable program codes, and the control unit 31 sequentially executes operations according to the program codes.
また、記憶部32には、過去に撮影された動態画像が識別ID、患者情報(例えば、患者ID、患者(被検者)の氏名、身長、体重、年齢、性別、疾患等)、検査情報(例えば、検査ID、検査日、検査対象部位(ここでは、胸部)、撮影する呼吸状態等)に対応付けて記憶されている。 Further, in the storage unit 32, a dynamic image taken in the past includes an identification ID, patient information (eg, patient ID, patient (subject) name, height, weight, age, sex, disease, etc.), examination information. (For example, examination ID, examination date, examination target part (here, chest), respiratory state to be photographed, etc.) are stored in association with each other.
操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、ユーザーによるキーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。 The operation unit 33 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The operation unit 33 receives an instruction signal input by a key operation or a mouse operation on the keyboard by the user. Output to the control unit 31. The operation unit 33 may include a touch panel on the display screen of the display unit 34, and in this case, an instruction signal input via the touch panel is output to the control unit 31.
表示部34は、LCDやCRT等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、各種表示を行う。 The display unit 34 is configured by a monitor such as an LCD or a CRT, and performs various displays according to instructions of a display signal input from the control unit 31.
通信部35は、LANアダプターやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。 The communication unit 35 includes a LAN adapter, a modem, a TA, and the like, and controls data transmission / reception with each device connected to the communication network NT.
〔動態画像処理システム100の動作〕
次に、本実施形態における上記動態画像処理システム100の動作について説明する。
[Operation of Dynamic Image Processing System 100]
Next, the operation of the dynamic image processing system 100 in the present embodiment will be described.
(撮影装置1、撮影用コンソール2の動作)
まず、撮影装置1、撮影用コンソール2による撮影動作について説明する。
図2に、撮影用コンソール2の制御部21において実行される撮影制御処理を示す。撮影制御処理は、制御部21と記憶部22に記憶されているプログラムとの協働により実行される。
(Operation of the photographing apparatus 1 and the photographing console 2)
First, the photographing operation by the photographing apparatus 1 and the photographing console 2 will be described.
FIG. 2 shows photographing control processing executed in the control unit 21 of the photographing console 2. The photographing control process is executed in cooperation with the control unit 21 and a program stored in the storage unit 22.
まず、撮影実施者により撮影用コンソール2の操作部23が操作され、患者情報、検査情報の入力が行われる(ステップS1)。 First, the operation part 23 of the imaging console 2 is operated by the imaging operator, and patient information and examination information are input (step S1).
次いで、放射線照射条件が記憶部22から読み出されて放射線照射制御装置12に設定されるとともに、画像読取条件が記憶部22から読み出されて読取制御装置14に設定される(ステップS2)。 Next, the radiation irradiation conditions are read from the storage unit 22 and set in the radiation irradiation control device 12, and the image reading conditions are read from the storage unit 22 and set in the reading control device 14 (step S2).
次いで、操作部23の操作による放射線照射の指示が待機される(ステップS3)。ここで、撮影実施者は、被写体Mを放射線源11と放射線検出部13の間に配置してポジショニングを行う。また、被検者(被写体M)に対し、呼吸状態(深呼吸、安静呼吸、息止め等)を指示する。撮影準備が整った時点で、操作部23を操作して放射線照射指示を入力する。 Next, a radiation irradiation instruction by the operation of the operation unit 23 is waited (step S3). Here, the imaging operator places the subject M between the radiation source 11 and the radiation detection unit 13 to perform positioning. Further, the subject (subject M) is instructed to breathe (deep breathing, rest breathing, breath holding, etc.). When preparation for imaging is completed, the operation unit 23 is operated to input a radiation irradiation instruction.
操作部23により放射線照射指示が入力されると(ステップS3;YES)、放射線照射制御装置12及び読取制御装置14に撮影開始指示が出力され、動態撮影が開始される(ステップS4)。即ち、放射線照射制御装置12に設定されたパルス間隔で放射線源11により放射線が照射され、放射線検出部13によりフレーム画像が取得される。 When a radiation irradiation instruction is input by the operation unit 23 (step S3; YES), a photographing start instruction is output to the radiation irradiation control device 12 and the reading control device 14, and dynamic photographing is started (step S4). That is, radiation is emitted from the radiation source 11 at a pulse interval set in the radiation irradiation control device 12, and a frame image is acquired by the radiation detection unit 13.
予め定められたフレーム数の撮影が終了すると、制御部21により放射線照射制御装置12及び読取制御装置14に撮影終了の指示が出力され、撮影動作が停止される。撮影されるフレーム数は、少なくとも1呼吸サイクルが撮影できる枚数である。 When photographing of a predetermined number of frames is completed, the control unit 21 outputs a photographing end instruction to the radiation irradiation control device 12 and the reading control device 14, and the photographing operation is stopped. The number of frames to be captured is the number of frames that can be captured for at least one respiratory cycle.
撮影により取得されたフレーム画像は順次撮影用コンソール2に入力され、撮影順を示す番号(フレーム番号)と対応付けて記憶部22に記憶されるとともに(ステップS5)、表示部24に表示される(ステップS6)。撮影実施者は、表示された動態画像によりポジショニング等を確認し、撮影により診断に適した画像が取得された(撮影OK)か、再撮影が必要(撮影NG)か、を判断する。そして、操作部23を操作して、判断結果を入力する。 The frame images acquired by shooting are sequentially input to the shooting console 2, stored in the storage unit 22 in association with a number (frame number) indicating the shooting order (step S5), and displayed on the display unit 24. (Step S6). The imaging operator confirms the positioning and the like from the displayed dynamic image, and determines whether an image suitable for diagnosis is acquired by imaging (imaging OK) or re-imaging is necessary (imaging NG). Then, the operation unit 23 is operated to input a determination result.
操作部23の所定の操作により撮影OKを示す判断結果が入力されると(ステップS7;YES)、動態撮影で取得された一連のフレーム画像のそれぞれに、動態画像を識別するための識別IDや、患者情報、検査情報、放射線照射条件、画像読取条件、撮影順を示す番号(フレーム番号)等の情報が付帯され(例えば、DICOM形式で画像データのヘッダ領域に書き込まれ)、通信部25を介して診断用コンソール3に送信される(ステップS8)。そして、本処理は終了する。一方、操作部23の所定の操作により撮影NGを示す判断結果が入力されると(ステップS7;NO)、記憶部22に記憶された一連のフレーム画像が削除され(ステップS9)、本処理は終了する。この場合、再撮影が必要となる。 When a determination result indicating photographing OK is input by a predetermined operation of the operation unit 23 (step S7; YES), an identification ID for identifying a dynamic image or each of a series of frame images acquired by dynamic photographing is displayed. Information such as patient information, examination information, radiation irradiation conditions, image reading conditions, imaging order number (frame number) is attached (for example, written in the header area of the image data in DICOM format), and the communication unit 25 is To the diagnostic console 3 (step S8). Then, this process ends. On the other hand, when a determination result indicating photographing NG is input by a predetermined operation of the operation unit 23 (step S7; NO), a series of frame images stored in the storage unit 22 is deleted (step S9), and this processing is performed. finish. In this case, re-shooting is necessary.
(診断用コンソール3の動作)
次に、診断用コンソール3における動作について説明する。
診断用コンソール3においては、通信部35を介して撮影用コンソール2から動態画像の一連のフレーム画像が受信されると、構造物減弱処理が実行される。
図3に、構造物減弱処理のフローチャートを示す。構造物減弱処理は、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。
(Operation of diagnostic console 3)
Next, the operation in the diagnostic console 3 will be described.
When the diagnostic console 3 receives a series of frame images of the dynamic image from the imaging console 2 via the communication unit 35, the structure attenuation process is executed.
FIG. 3 shows a flowchart of the structure attenuation process. The structure attenuation process is executed in cooperation with the control unit 31 and the program stored in the storage unit 32.
構造物減弱処理においては、まず、動態画像の各フレーム画像について、肺野領域の抽出が行われる(ステップS21)。 In the structure attenuation process, first, a lung field region is extracted for each frame image of the dynamic image (step S21).
ステップS21における肺野領域の抽出方法は何れの方法を用いてもよい。例えば、特許第2987633号に開示されているように、X線画像では肺野領域は左右の肺部分の画像濃度が周辺より高濃度となる。よって、任意のフレーム画像の濃度ヒストグラムを作成し、その濃度ヒストグラムの形状や面積から肺野領域に該当する高濃度領域の画像部分を判断し、当該画像部分の輪郭を肺野の輪郭として抽出すればよい。或いは、特開2003−6661号公報に開示されているように、標準的な肺野領域の輪郭を定めたテンプレートを用いて任意のフレーム画像にテンプレートマッチングを行うことにより肺野領域の輪郭を抽出することもできる。 Any method may be used as the lung field extraction method in step S21. For example, as disclosed in Japanese Patent No. 2998733, in the X-ray image, in the lung field region, the image density of the left and right lung portions is higher than the surrounding density. Therefore, a density histogram of an arbitrary frame image is created, an image portion of a high density region corresponding to the lung field region is determined from the shape and area of the density histogram, and the contour of the image portion is extracted as the lung field contour. That's fine. Alternatively, as disclosed in Japanese Patent Application Laid-Open No. 2003-6661, the outline of a lung field region is extracted by performing template matching on an arbitrary frame image using a template that defines the outline of a standard lung field region. You can also
次いで、抽出された肺野領域から減弱対象の構造物の領域の抽出が行われる(ステップS22)。減弱対象の構造物としては、例えば、骨部、心臓、血管等が挙げられる。 Next, the region of the structure to be attenuated is extracted from the extracted lung field region (step S22). Examples of the structure to be attenuated include a bone part, a heart, and a blood vessel.
骨部の抽出手法は、特に限定せず、公知の方法を適用することができる。例えば、米国特許出願公開第2014/0079309号明細書に記載のように、予め用意した肋骨テンプレート、鎖骨テンプレートとのテンプレートマッチングや、エッジ検出後にカーブフィッティング関数を当てはめる等の手法により行うことができる。また、肋骨や鎖骨等の骨の構造の前知識に基づき、位置、形状、サイズ、濃度勾配、方向、等の特徴をもとに、認識した骨部領域に誤りがないか精査を行い、過剰抽出されている部分を判別して骨部領域から取り除くこととしてもよい。 The extraction method of the bone part is not particularly limited, and a known method can be applied. For example, as described in US Patent Application Publication No. 2014/0079309, it can be performed by a technique such as template matching with a rib template or clavicle template prepared in advance, or applying a curve fitting function after edge detection. Also, based on prior knowledge of bone structures such as ribs and clavicles, based on features such as position, shape, size, concentration gradient, direction, etc., we will investigate whether there is an error in the recognized bone region, The extracted part may be identified and removed from the bone region.
心臓領域の抽出手法は、特に限定せず、公知の方法を適用することができる。例えば、特許第2796381号公報に記載のように、フレーム画像から心臓の輪郭の左右両側の境界ポイントを検出し、この検出した境界ポイントに移動分散三角関数等のモデル関数をフィッティングさせ、フィッティングしたモデル関数に基づいて心臓の輪郭を決定する方法等を用いることができる。 The heart region extraction method is not particularly limited, and a known method can be applied. For example, as described in Japanese Patent No. 2796381, a boundary point on both the left and right sides of the contour of the heart is detected from the frame image, and a model function such as a moving dispersion trigonometric function is fitted to the detected boundary point, and the fitted model A method of determining the outline of the heart based on the function can be used.
また、血管領域の抽出手法は、特に限定せず、公知の方法を適用することができる。例えば、特開2017−18339号公報に記載のKasvandフィルターやヘシアン行列を使ってフレーム画像から線構造を抽出することにより、血管領域を抽出することができる。 Moreover, the extraction method of the blood vessel region is not particularly limited, and a known method can be applied. For example, a blood vessel region can be extracted by extracting a line structure from a frame image using a Kasvand filter or Hessian matrix described in Japanese Patent Application Laid-Open No. 2017-18339.
次いで、各フレーム画像から抽出された構造物領域において、その構造物に起因する信号成分(信号値)が推定される(ステップS23)。 Next, in the structure region extracted from each frame image, a signal component (signal value) due to the structure is estimated (step S23).
例えば、骨の信号値は、例えば、WO 2015157067 A1に記載のように、肺野領域にローパスフィルタを施す等により背景トレンド(肺野内中央から胸郭への滑らかな信号変化)を除去した画像において、抽出された骨領域に沿って平滑化フィルターを施すことで推定することができる。または、参考文献1(Seitaro Oda et al.,Performance of Radiologists in Detection of Small Pulmonary Nodules on Chest Radiographs: Effect of Rib Suppression With a Massive-Training Artificial Neural Network,AJR193,Number5,November2009)に記載のように、予め正解データ(Dual Energy Subtraction画像など)により学習されたCNN、D-NNなどの識別器により骨信号を推定しても良い。 For example, the bone signal value is, for example, as described in WO 2015157067 A1, in an image in which a background trend (smooth signal change from the center of the lung field to the thorax) is removed by applying a low-pass filter to the lung field region, etc. It can be estimated by applying a smoothing filter along the extracted bone region. Or as described in Reference 1 (Seitaro Oda et al., Performance of Radiologists in Detection of Small Pulmonary Nodules on Chest Radiographs: Effect of Rib Suppression With a Massive-Training Artificial Neural Network, AJR193, Number5, November 2009) The bone signal may be estimated by a discriminator such as CNN or D-NN previously learned from correct answer data (Dual Energy Subtraction image or the like).
血管の信号値についても同様に、例えば、背景トレンドを除去した画像において、抽出された血管領域に沿って平滑化フィルターを施すことで推定することができる。心臓の信号値については、例えば、背景トレンドを除去した画像において、抽出された心臓領域の中心から放射線状に平滑化フィルターを施すことで推定することができる。また、骨と同様に正解データ(Dual Energy Subtraction画像や前述の手法により信号減弱された画像)により学習された識別器により信号値を推定しても良い。 Similarly, the signal value of the blood vessel can be estimated by applying a smoothing filter along the extracted blood vessel region in the image from which the background trend is removed, for example. The signal value of the heart can be estimated, for example, by applying a smoothing filter radially from the center of the extracted heart region in the image from which the background trend is removed. Further, the signal value may be estimated by a discriminator learned from correct answer data (Dual Energy Subtraction image or image attenuated by the above-described method) as in the case of bone.
次いで、各フレーム画像について、推定された信号値の補正に用いる他のフレーム画像が決定される(ステップS24)。 Next, for each frame image, another frame image used for correcting the estimated signal value is determined (step S24).
ステップS24においては、例えば、動態画像から横隔膜の移動周期(周波数)を算出し、算出した横隔膜の移動周期(周波数)に基づいて、推定された信号値の補正に用いるフレーム画像数を決定する。例えば、横隔膜の移動周期(周波数)と補正に用いるフレーム画像数とを予め対応付けたテーブルを記憶部32に記憶しておき、算出した移動周期(周波数)と記憶部32に記憶されたテーブルに基づいて、補正に用いるフレーム画像数を決定する。例えば、算出した横隔膜の移動周期(周波数)が一般的な健常者における横隔膜の移動周期(約3.3秒〜5秒(0.2Hz〜0.3Hz))の場合、補正対象のフレーム画像の前後各2つのフレーム画像を補正に用いるフレーム画像として決定する。算出した周波数が一般的な健常者における横隔膜の移動周期より短い(周波数が高い)場合、補正対象のフレーム画像の前後各1つのフレーム画像を補正に用いるフレーム画像として決定する。 In step S24, for example, the moving period (frequency) of the diaphragm is calculated from the dynamic image, and the number of frame images used for correcting the estimated signal value is determined based on the calculated moving period (frequency) of the diaphragm. For example, a table in which the moving period (frequency) of the diaphragm and the number of frame images used for correction are associated in advance is stored in the storage unit 32, and the calculated moving period (frequency) and the table stored in the storage unit 32 are stored. Based on this, the number of frame images used for correction is determined. For example, when the calculated moving period (frequency) of the diaphragm is a moving period of the diaphragm (about 3.3 to 5 seconds (0.2 Hz to 0.3 Hz)) in a normal healthy person, the frame image to be corrected Two frame images before and after are determined as frame images used for correction. When the calculated frequency is shorter than the moving period of the diaphragm in a normal healthy person (frequency is high), one frame image before and after the frame image to be corrected is determined as a frame image used for correction.
ここで、胸部正面を撮影したX線画像では肺野下部の輪郭は横隔膜との境界となるため、各フレーム画像における横隔膜の領域は、肺野領域下部の輪郭を抽出することにより抽出することができる。また、横隔膜の移動周期は、例えば、抽出した左右の横隔膜のうちいずれか一方の横隔膜の水平方向における所定の座標位置の位置が最も低いところから最も高いところに移動して再びもとの位置に戻るまでの時間を横隔膜の移動周期として算出することができる。横隔膜の移動の周波数は、移動周期の逆数を算出することにより求めることができる。 Here, in the X-ray image obtained by photographing the front of the chest, the contour of the lower lung field becomes the boundary with the diaphragm, and therefore the diaphragm region in each frame image can be extracted by extracting the lower contour of the lung field region. it can. In addition, the moving period of the diaphragm is, for example, moved from the lowest coordinate position to the highest position in the horizontal direction of either one of the extracted left and right diaphragms and then returned to the original position. The time until return can be calculated as the movement period of the diaphragm. The frequency of diaphragm movement can be obtained by calculating the reciprocal of the movement period.
あるいは、フレーム画像毎に、隣接するフレーム画像との横隔膜の移動速度(移動量)を算出し、算出された移動速度に基づいて、各フレーム画像の推定された信号値の補正に用いるフレーム画像数を決定してもよい。例えば、横隔膜の移動速度と補正に用いるフレーム画像数とを予め対応付けたテーブルを記憶部32に記憶しておき、算出した移動速度と記憶部32に記憶されたテーブルに基づいて、補正に用いるフレーム画像数を決定する。例えば、横隔膜の移動速度が速いフレーム画像については、補正に用いるフレーム画像数を少なくし、横隔膜の移動速度が遅いフレーム画像については、補正に用いるフレーム画像数を大きくする。そして、決定したフレーム画像数に基づいて、補正対象のフレーム画像の前後の決定された数のフレーム画像を補正に用いるフレーム画像として決定する。 Alternatively, for each frame image, the moving speed (movement amount) of the diaphragm with the adjacent frame image is calculated, and the number of frame images used for correcting the estimated signal value of each frame image based on the calculated moving speed May be determined. For example, a table in which the moving speed of the diaphragm and the number of frame images used for correction are associated in advance is stored in the storage unit 32 and used for correction based on the calculated moving speed and the table stored in the storage unit 32. Determine the number of frame images. For example, the number of frame images used for correction is reduced for frame images with a fast diaphragm moving speed, and the number of frame images used for correction is increased for frame images with a slow diaphragm moving speed. Based on the determined number of frame images, the determined number of frame images before and after the frame image to be corrected are determined as frame images to be used for correction.
このように、横隔膜の移動速度が遅い場合、より多くの前後のフレーム画像が影響するようにフレーム画像数を決定し、逆に、横隔膜の移動速度が速い場合、時間的に近接した前後のフレーム画像しか影響しないようにすることで、前後のフレーム画像による補正が逆に悪影響を及ぼすことを防ぎ、信号値の補正精度を向上させることができる。 In this way, when the moving speed of the diaphragm is slow, the number of frame images is determined so that more frame images before and after the influence, and conversely, when the moving speed of the diaphragm is fast, the frames before and after that are close in time By only affecting the image, it is possible to prevent the correction by the previous and next frame images from adversely affecting the signal value and to improve the correction accuracy of the signal value.
なお、上記説明では、横隔膜の移動周期(周波数)や移動速度に基づいて、推定された信号値の補正に用いるフレーム画像数を決定することとしたが、これらの代わりに、肺野領域の濃度変化(濃度値の時間変化)の周期(周波数)や濃度変化の速度を用いることとしてもよい。例えば、横隔膜は、疾患のある患者はあまり動かないため、濃度変化を用いて推定された信号値の補正に用いるフレーム画像数を決定することが好ましい。 In the above description, the number of frame images used for correcting the estimated signal value is determined based on the moving period (frequency) and moving speed of the diaphragm, but instead of these, the density of the lung field region is determined. The period (frequency) of change (time change of density value) and the speed of density change may be used. For example, since the diaphragm does not move much for a patient with a disease, it is preferable to determine the number of frame images used for correcting the signal value estimated using the density change.
また、例えば、呼吸状態(安静呼吸、深呼吸、息止め)又は疾患と、推定された信号値の補正に用いるフレーム画像数とを予め対応付けたテーブルを記憶部32に記憶しておき、記憶部32に記憶されたテーブルに基づいて、推定された信号値の補正に用いるフレーム画像数を決定することとしてもよい。 Further, for example, a table in which a respiratory state (rest breathing, deep breathing, breath holding) or a disease is associated with the number of frame images used for correcting the estimated signal value in advance is stored in the storage unit 32, and the storage unit The number of frame images used for correcting the estimated signal value may be determined based on the table stored in 32.
次いで、補正対象のフレーム画像と補正に用いる他のフレーム画像の構造物領域の形状が同一化される(ステップS25)。 Next, the shape of the structure area of the frame image to be corrected and the other frame image used for correction are made identical (step S25).
ステップS25においては、例えば、補正対象のフレーム画像から抽出された構造物領域を小領域に分割し、パターンマッチング(ローカルマッチング)により各小領域が他のフレーム画像のどの位置に対応するかを求めて各小領域の特徴点の移動量及び移動方向を算出し、求めた移動量及び移動方向に基づいてワーピング処理を行うことにより、他のフレーム画像における構造物領域の形状を補正対象におけるフレーム画像における構造物領域の形状に合わせる(位置合わせする)。 In step S25, for example, the structure area extracted from the correction target frame image is divided into small areas, and the position of each of the other frame images corresponding to each small area is obtained by pattern matching (local matching). By calculating the movement amount and movement direction of the feature points of each small area and performing warping processing based on the obtained movement amount and movement direction, the shape of the structure area in the other frame image is the frame image in the correction target. Align (align) with the shape of the structure area at.
また、減弱対象の構造物が骨部である場合、予め取得された過去の動態画像から、年齢、性別、疾患、呼吸状態(安静呼吸、深呼吸、息止め等)に応じた骨部の移動量情報(1フレーム当たりの平行移動量、回転移動量等)を作成して記憶部32に記憶しておき、記憶部32に記憶されている移動量情報と、補正対象の動態画像の年齢、性別、疾患、呼吸状態に基づいて、補正に用いる他のフレーム画像の各骨部領域の形状を平行移動及び/又は回転移動させて補正対象のフレーム画像の骨部領域の形状に合わせることとしてもよい。 In addition, when the structure to be attenuated is a bone part, the movement amount of the bone part according to the age, sex, disease, and respiratory state (rest breathing, deep breathing, breath holding, etc.) from previously acquired dynamic images Information (parallel movement amount per frame, rotational movement amount, etc.) is created and stored in the storage unit 32, and the movement amount information stored in the storage unit 32 and the age and sex of the dynamic image to be corrected Based on the disease and respiratory state, the shape of each bone region of another frame image used for correction may be translated and / or rotated to match the shape of the bone region of the correction target frame image. .
次いで、補正に用いるフレーム画像(ステップS25において形状が同一化された各フレーム画像)における推定された信号値に基づいて、各フレーム画像の推定された信号値が補正される(ステップS26)。 Next, the estimated signal value of each frame image is corrected based on the estimated signal value in the frame image used for correction (each frame image whose shape is identical in step S25) (step S26).
ステップS26においては、例えば、補正対象のフレーム画像から抽出された構造物領域の各画素について、当該画素及び補正に用いる他のフレーム画像における同じ座標の画素(対応する位置の画素)について推定された信号値の代表値(例えば、平均値、中央値、又は補正に用いるフレーム画像に重みづけを行った重みづけ平均値等)が算出され、補正対象のフレーム画像の構造物領域における推定された信号値が算出された代表値に置き換えられる。
あるいは、補正対象のフレーム画像から抽出された構造物領域の各画素について、当該画素の推定された信号値が、補正に用いる他のフレーム画像における同じ座標の画素の推定された信号値と大きくはずれている外れ値であるか否かを判断し、外れ値である場合に、その画素の推定された信号値を、補正に用いる他のフレーム画像における同じ座標の画素の推定された信号値の代表値に置き換えてもよい。なお、外れ値であるか否かは、例えば、補正に用いる他のフレーム画像における同じ座標の画素の推定された信号値の上限値や下限値から補正対象の画素の推定された信号値が所定値以上離れた値である場合に、外れ値であると判断することができる。
In step S26, for example, for each pixel in the structure region extracted from the frame image to be corrected, the pixel and the pixel at the same coordinate in the other frame image used for correction (the pixel at the corresponding position) are estimated. A representative value of the signal value (for example, an average value, a median value, or a weighted average value obtained by weighting a frame image used for correction) is calculated, and an estimated signal in the structure area of the frame image to be corrected The value is replaced with the calculated representative value.
Alternatively, for each pixel in the structure area extracted from the frame image to be corrected, the estimated signal value of the pixel is significantly different from the estimated signal value of the pixel at the same coordinate in another frame image used for correction. If it is an outlier, the estimated signal value of the pixel is used as a representative of the estimated signal value of the pixel at the same coordinate in another frame image used for correction. It may be replaced with a value. Whether the value is an outlier or not is determined based on, for example, an estimated signal value of a pixel to be corrected based on an upper limit value or a lower limit value of an estimated signal value of a pixel having the same coordinate in another frame image used for correction. When the value is more than the value, it can be determined that the value is an outlier.
そして、各フレーム画像から補正された推定信号値が減算されることにより、構造物に起因する信号成分が減弱され(ステップS27)、構造物減弱処理は終了する。具体的には、各フレーム画像の抽出された構造物領域の各画素の信号値から補正された信号値が減算され、各フレーム画像から構造物に起因する信号成分が減弱される。 Then, by subtracting the corrected estimated signal value from each frame image, the signal component due to the structure is attenuated (step S27), and the structure attenuation process ends. Specifically, the corrected signal value is subtracted from the signal value of each pixel of the structure region extracted from each frame image, and the signal component due to the structure is attenuated from each frame image.
構造物減弱処理により構造物が減弱された胸部動態画像は、制御部31により表示部34に動画表示される。或いは、隣接するフレーム画像間でフレーム間差分を行う等の解析処理を行って、解析結果を表示部34に表示することとしてもよい。 The chest dynamic image in which the structure is attenuated by the structure attenuation process is displayed as a moving image on the display unit 34 by the control unit 31. Alternatively, an analysis process such as performing an inter-frame difference between adjacent frame images may be performed, and the analysis result may be displayed on the display unit 34.
図4は、構造物減弱処理の処理内容を模式的に示す図である。図4に示すように、構造物減弱処理では、補正に用いるフレーム画像における構造物領域の形状を補正対象のフレーム画像における構造物領域の形状に一致させてから補正対象のフレーム画像の推定された信号値を補正に用いるフレーム画像における推定された信号値に基づいて補正する。したがって、フレーム画像間の構造物に起因する信号成分の推定誤差を高精度に抑制することができ、構造物を減弱した胸部動態画像における構造物の信号推定誤差によるちらつきノイズを抑制することができる。 FIG. 4 is a diagram schematically showing the processing contents of the structure attenuation processing. As shown in FIG. 4, in the structure attenuation process, the shape of the structure area in the frame image used for correction is matched with the shape of the structure area in the frame image to be corrected, and then the frame image to be corrected is estimated. The signal value is corrected based on the estimated signal value in the frame image used for correction. Therefore, the estimation error of the signal component caused by the structure between the frame images can be suppressed with high accuracy, and the flicker noise due to the signal estimation error of the structure in the chest dynamic image with the structure attenuated can be suppressed. .
以上説明したように、診断用コンソール3の制御部31によれば、胸部を動態撮影することにより得られた複数のフレーム画像のそれぞれから所定の構造物の領域を抽出し、抽出された領域における所定の構造物に起因する信号値を推定する。次いで、複数のフレーム画像のそれぞれにおける推定された信号値の補正に用いるフレーム画像を補正対象のフレーム画像とは別のフレーム画像の中から決定し、決定された補正に用いるフレーム画像における所定の構造物の領域の形状を補正対象のフレーム画像における所定の構造物の領域の形状と同一化し、形状を同一化したフレーム画像における推定された信号値を用いて補正対象のフレーム画像における推定された信号値を補正する。そして、補正済みの推定された信号値に基づいて、複数のフレーム画像のそれぞれにおける所定の構造物に起因する信号成分を減弱する。
したがって、フレーム画像間の構造物に起因する信号成分の推定誤差を高精度に抑制することができ、構造物を減弱した胸部動態画像における構造物の信号推定誤差によるちらつきノイズを抑制することができる。
As described above, according to the control unit 31 of the diagnostic console 3, a region of a predetermined structure is extracted from each of a plurality of frame images obtained by dynamic imaging of the chest, and in the extracted region A signal value caused by a predetermined structure is estimated. Next, a frame image used for correcting the estimated signal value in each of the plurality of frame images is determined from frame images different from the frame image to be corrected, and a predetermined structure in the frame image used for the determined correction The shape of the region of the object is made the same as the shape of the region of the predetermined structure in the frame image to be corrected, and the estimated signal value in the frame image to be corrected using the estimated signal value in the frame image having the same shape Correct the value. Then, based on the corrected estimated signal value, a signal component caused by a predetermined structure in each of the plurality of frame images is attenuated.
Therefore, the estimation error of the signal component caused by the structure between the frame images can be suppressed with high accuracy, and the flicker noise due to the signal estimation error of the structure in the chest dynamic image with the structure attenuated can be suppressed. .
例えば、制御部31は、複数のフレーム画像における横隔膜の移動の速度、周期もしくは周波数、複数のフレーム画像における肺野の濃度変化の速度、周期もしくは周波数、被写体の動態撮影時の呼吸状態、又は被写体の疾患に基づいて、補正に用いるフレーム画像数を決定し、決定したフレーム画像数に基づいて、補正に用いるフレーム画像を決定する。したがって、撮影時の呼吸の速さや呼吸状態、疾患に基づいて、最適な数のフレーム画像を補正に用いるフレーム画像とすることができる。 For example, the control unit 31 may control the speed, period or frequency of the movement of the diaphragm in the plurality of frame images, the speed, period or frequency of the concentration change in the lung field in the plurality of frame images, the breathing state during dynamic imaging of the subject, or the subject. The number of frame images used for correction is determined based on the disease, and the frame image used for correction is determined based on the determined number of frame images. Therefore, an optimal number of frame images can be used for correction based on the speed of breathing, the breathing state, and the disease at the time of photographing.
また、制御部31は、補正対象のフレーム画像における推定結果を当該推定結果と補正に用いるフレーム画像の対応する位置における推定結果の代表値に置き換えることにより補正対象のフレーム画像における推定結果を補正する。したがって、補正に用いるフレーム画像の推定結果を用いて容易に補正対象のフレーム画像における推定結果を補正することが可能となる。 The control unit 31 corrects the estimation result in the correction target frame image by replacing the estimation result in the correction target frame image with a representative value of the estimation result and the estimation result at the corresponding position of the frame image used for correction. . Therefore, it is possible to easily correct the estimation result in the correction target frame image using the estimation result of the frame image used for correction.
また、制御部31は、補正に用いるフレーム画像における推定結果に基づいて、補正対象のフレーム画像における推定結果に外れ値が含まれているか否かを判断し、外れ値が含まれている場合に、その外れ値について補正を行うことで、処理時間を短縮することができる。 Further, the control unit 31 determines whether or not an outlier is included in the estimation result in the correction target frame image based on the estimation result in the frame image used for correction, and when the outlier is included. By correcting the outlier, the processing time can be shortened.
なお、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 In addition, the description content in the said embodiment is a suitable example of this invention, and is not limited to this.
例えば、上記実施形態においては、胸部動態画像の各フレーム画像の所定の構造物の領域における構造物に起因する信号値を推定してから、補正に用いるフレーム画像における所定の構造物の領域の形状を補正対象のフレーム画像における所定の構造物の領域の形状を補正対象のフレーム画像に同一化することとして説明したが、形状を同一化してから各フレーム画像から構造物に起因する信号値の推定を行うこととしてもよい。 For example, in the above embodiment, after estimating a signal value due to a structure in a region of a predetermined structure of each frame image of the chest dynamic image, the shape of the region of the predetermined structure in the frame image used for correction In the above description, the shape of the region of the predetermined structure in the correction target frame image is made identical to the correction target frame image. However, after the shape is made identical, the signal value caused by the structure is estimated from each frame image. It is good also as performing.
また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 For example, in the above description, an example in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium of the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also applied as a medium for providing program data according to the present invention via a communication line.
その他、動態画像処理システムを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the dynamic image processing system can be changed as appropriate without departing from the spirit of the present invention.
100 動態画像処理システム
1 撮影装置
11 放射線源
12 放射線照射制御装置
13 放射線検出部
14 読取制御装置
2 撮影用コンソール
21 制御部
22 記憶部
23 操作部
24 表示部
25 通信部
26 バス
3 診断用コンソール
31 制御部
32 記憶部
33 操作部
34 表示部
35 通信部
36 バス
DESCRIPTION OF SYMBOLS 100 Dynamic image processing system 1 Imaging device 11 Radiation source 12 Radiation irradiation control device 13 Radiation detection part 14 Reading control device 2 Imaging console 21 Control part 22 Storage part 23 Operation part 24 Display part 25 Communication part 26 Bus 3 Diagnosis console 31 Control unit 32 Storage unit 33 Operation unit 34 Display unit 35 Communication unit 36 Bus
Claims (5)
前記抽出手段により抽出された前記所定の構造物の領域における前記所定の構造物に起因する信号値を推定する推定手段と、
前記複数のフレーム画像のそれぞれにおける前記推定手段による推定結果の補正に用いるフレーム画像を前記複数のフレーム画像における補正対象のフレーム画像とは別のフレーム画像の中から決定する決定手段と、
前記決定手段により決定された前記補正に用いるフレーム画像における前記所定の構造物の領域の形状を前記補正対象のフレーム画像における前記所定の構造物の領域の形状と同一化し、前記形状を同一化したフレーム画像における前記推定結果を用いて前記補正対象のフレーム画像における前記推定結果を補正する補正手段と、
前記補正手段により補正された推定結果に基づいて、前記複数のフレーム画像のそれぞれにおける前記所定の構造物に起因する信号成分を減弱する減弱手段と、
を備える動態画像処理装置。 Extraction means for extracting a region of a predetermined structure from each of a plurality of frame images acquired by dynamic imaging of the chest of the subject;
Estimating means for estimating a signal value caused by the predetermined structure in the region of the predetermined structure extracted by the extracting means;
Determining means for determining a frame image to be used for correcting the estimation result by the estimating means in each of the plurality of frame images from a frame image different from the frame image to be corrected in the plurality of frame images;
The shape of the region of the predetermined structure in the frame image used for the correction determined by the determination unit is made the same as the shape of the region of the predetermined structure in the frame image to be corrected, and the shape is made the same Correction means for correcting the estimation result in the frame image to be corrected using the estimation result in a frame image;
Attenuating means for attenuating a signal component caused by the predetermined structure in each of the plurality of frame images based on the estimation result corrected by the correcting means;
A dynamic image processing apparatus comprising:
前記撮影手段により取得された複数のフレーム画像のそれぞれから所定の構造物の領域を抽出する抽出手段と、
前記抽出手段により抽出された前記所定の構造物の領域における前記所定の構造物に起因する信号値を推定する推定手段と、
前記複数のフレーム画像のそれぞれにおける前記推定手段による推定結果の補正に用いるフレーム画像を前記複数のフレーム画像における補正対象のフレーム画像とは別のフレーム画像の中から決定する決定手段と、
前記決定手段により決定された前記補正に用いるフレーム画像における前記所定の構造物の領域の形状を前記補正対象のフレーム画像における前記所定の構造物の領域の形状と同一化し、前記形状を同一化したフレーム画像における前記推定結果を用いて前記補正対象のフレーム画像における前記推定結果を補正する補正手段と、
前記補正手段により補正された推定結果に基づいて、前記複数のフレーム画像のそれぞれにおける前記所定の構造物に起因する信号成分を減弱する減弱手段と、
を備える動態画像処理システム。 Photographing means for performing dynamic photographing on the chest of the subject;
Extracting means for extracting a region of a predetermined structure from each of a plurality of frame images acquired by the photographing means;
Estimating means for estimating a signal value caused by the predetermined structure in the region of the predetermined structure extracted by the extracting means;
Determining means for determining a frame image to be used for correcting the estimation result by the estimating means in each of the plurality of frame images from a frame image different from the frame image to be corrected in the plurality of frame images;
The shape of the region of the predetermined structure in the frame image used for the correction determined by the determination unit is made the same as the shape of the region of the predetermined structure in the frame image to be corrected, and the shape is made the same Correction means for correcting the estimation result in the frame image to be corrected using the estimation result in a frame image;
Attenuating means for attenuating a signal component caused by the predetermined structure in each of the plurality of frame images based on the estimation result corrected by the correcting means;
A dynamic image processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017125736A JP2019005417A (en) | 2017-06-28 | 2017-06-28 | Dynamic image processing device and dynamic image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017125736A JP2019005417A (en) | 2017-06-28 | 2017-06-28 | Dynamic image processing device and dynamic image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019005417A true JP2019005417A (en) | 2019-01-17 |
Family
ID=65026216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017125736A Pending JP2019005417A (en) | 2017-06-28 | 2017-06-28 | Dynamic image processing device and dynamic image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019005417A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111627036A (en) * | 2020-05-22 | 2020-09-04 | 深圳前海微众银行股份有限公司 | Image area correction method, device, equipment and storage medium |
JP2020171475A (en) * | 2019-04-10 | 2020-10-22 | コニカミノルタ株式会社 | Dynamic image analysis apparatus, dynamic image analysis method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016073466A (en) * | 2014-10-07 | 2016-05-12 | コニカミノルタ株式会社 | Image processing apparatus and program |
-
2017
- 2017-06-28 JP JP2017125736A patent/JP2019005417A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016073466A (en) * | 2014-10-07 | 2016-05-12 | コニカミノルタ株式会社 | Image processing apparatus and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020171475A (en) * | 2019-04-10 | 2020-10-22 | コニカミノルタ株式会社 | Dynamic image analysis apparatus, dynamic image analysis method, and program |
CN111627036A (en) * | 2020-05-22 | 2020-09-04 | 深圳前海微众银行股份有限公司 | Image area correction method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6413927B2 (en) | Dynamic analysis apparatus and dynamic analysis system | |
JP5874636B2 (en) | Diagnosis support system and program | |
JP6772908B2 (en) | Dynamic analysis system and program | |
JP5556413B2 (en) | Dynamic image processing apparatus and program | |
JP6958202B2 (en) | Dynamic image processing equipment and programs | |
JP6217241B2 (en) | Chest diagnosis support system | |
JP6743662B2 (en) | Dynamic image processing system | |
JP6812685B2 (en) | Dynamic analyzer | |
JP6361435B2 (en) | Image processing apparatus and program | |
JP2020044445A (en) | Dynamic analysis system, program, and dynamic analysis apparatus | |
JP2019051322A (en) | Kinetics analysis system | |
JP7099086B2 (en) | Dynamic image processing equipment and programs | |
JP5617577B2 (en) | Chest diagnosis support information generation method | |
JP2017169830A (en) | Dynamic analysis apparatus | |
JP2019005417A (en) | Dynamic image processing device and dynamic image processing system | |
JP2018187310A (en) | Dynamic image processing system | |
JP2018083010A (en) | Dynamic image processing apparatus | |
JP6950507B2 (en) | Dynamic image processing device | |
JP2018175320A (en) | Radiography system | |
JP7047806B2 (en) | Dynamic analysis device, dynamic analysis system, dynamic analysis program and dynamic analysis method | |
JP2012115582A (en) | Thoracic part diagnosis aiding system | |
US10687772B2 (en) | Dynamic analysis apparatus | |
JP6962030B2 (en) | Dynamic analysis device, dynamic analysis system, dynamic analysis program and dynamic analysis method | |
JP7452078B2 (en) | Image processing device, radiation imaging system and program | |
JP7310239B2 (en) | Image processing device, radiation imaging system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211012 |