JP5556413B2 - Dynamic image processing apparatus and program - Google Patents

Dynamic image processing apparatus and program Download PDF

Info

Publication number
JP5556413B2
JP5556413B2 JP2010138825A JP2010138825A JP5556413B2 JP 5556413 B2 JP5556413 B2 JP 5556413B2 JP 2010138825 A JP2010138825 A JP 2010138825A JP 2010138825 A JP2010138825 A JP 2010138825A JP 5556413 B2 JP5556413 B2 JP 5556413B2
Authority
JP
Japan
Prior art keywords
region
image
lung field
frame
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010138825A
Other languages
Japanese (ja)
Other versions
JP2012000297A (en
Inventor
慎太郎 村岡
哲雄 島田
翔 野地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2010138825A priority Critical patent/JP5556413B2/en
Publication of JP2012000297A publication Critical patent/JP2012000297A/en
Application granted granted Critical
Publication of JP5556413B2 publication Critical patent/JP5556413B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像処理装置及びプログラムに関する。 The present invention relates to a dynamic state image processing apparatus and a program.

従来のフィルム/スクリーンや輝尽性蛍光体プレートを用いた放射線の静止画撮影及び診断に対し、FPD(flat panel detector)等の半導体イメージセンサを利用して検査対象部位の動態画像を撮影し、診断に応用する試みがなされるようになってきている。具体的には、半導体イメージセンサの画像データの読取・消去の応答性の早さを利用し、半導体イメージセンサの読取・消去のタイミングと合わせて放射源からパルス状の放射線を連続照射し、1秒間に複数回の撮影を行って、検査対象部位の動態を撮影する。撮影により取得された一連の複数枚の画像を順次表示することにより、医師は検査対象部位の一連の動きを認識することが可能となる。   In contrast to the conventional still image and diagnosis of radiation using a film / screen or photostimulable phosphor plate, a dynamic image of the region to be examined is taken using a semiconductor image sensor such as an FPD (flat panel detector), Attempts have been made to apply it to diagnosis. Specifically, by utilizing the responsiveness of reading / erasing of image data of the semiconductor image sensor, pulsed radiation is continuously irradiated from the radiation source in accordance with the reading / erasing timing of the semiconductor image sensor. Take multiple shots per second to capture the dynamics of the area to be examined. By sequentially displaying a series of a plurality of images acquired by imaging, a doctor can recognize a series of movements of a region to be examined.

また、動態画像を見やすく表示するための各種技術も提案されている。例えば、特許文献1には、動態画像を構成する複数のフレーム画像間で画素値の差を示す差分画像を生成し、生成された差分画像を順次切り替えて表示する技術が記載されている。   Various techniques for displaying dynamic images in an easy-to-view manner have also been proposed. For example, Patent Document 1 describes a technique for generating a difference image indicating a difference in pixel values between a plurality of frame images constituting a dynamic image and sequentially switching and displaying the generated difference images.

また、特許文献2には、肺野部動態画像に写りこんだ骨部の画像成分を低減させるため、複数の異なるエネルギーの放射線を用いて撮影を行う技術が記載されている。   Patent Document 2 describes a technique for performing imaging using radiation of a plurality of different energies in order to reduce the image component of the bone portion reflected in the lung field dynamic image.

特開2004−312434号公報JP 2004-31434 A 特開2003−298939号公報JP 2003-298939 A

特許文献1に記載の技術によれば、呼吸時の各タイミングにおける肺野内の信号変化を抽出することができる。しかしながら、信号変化には、肺野の膨張、収縮による肺胞等の密度変化が引き起こす信号変化と、肺野内の構造物の移動による信号変化とが混ざっており、前者の信号変化で表される肺野内の局所的な換気状態を検出することは困難であった。   According to the technique described in Patent Literature 1, it is possible to extract a signal change in the lung field at each timing during breathing. However, the signal change is a mixture of the signal change caused by the density change of the alveoli due to the expansion and contraction of the lung field and the signal change due to the movement of the structure in the lung field, and is represented by the former signal change. It was difficult to detect the local ventilation status in the lung field.

例えば、吸気時は肺野が膨張し、肺胞等の肺野内組織の密度が小さくなるため、放射線(X線)透過量が増大し、胸部動態画像の肺野領域内信号値は高くなる。一方、呼気時は肺野が縮小し、肺胞等の肺野内組織の密度が大きくなるため、放射線透過量が減少し、胸部動態画像の肺野領域内信号値は低くなる。また、通常、肋骨・鎖骨は吸気時に上方に移動し、呼気時に下方に移動する。これらの挙動から、フレーム間の差分画像では肺野内組織の密度変化に肋骨・鎖骨の移動による信号変化が重畳し、肺野内組織の密度変化による信号変化に対して肋骨・鎖骨の下縁では信号変化が強調され、肋骨・鎖骨の上縁では信号変化が逆転する状態が生じる。これらの構造物の移動による信号変化は、肺野内組織の密度変化が表す局所的な換気状態の検出及び診断の妨げとなる。   For example, during inspiration, the lung field expands and the density of tissue in the lung field such as the alveoli decreases, so that the amount of radiation (X-ray) transmission increases and the signal value in the lung field in the chest dynamic image increases. On the other hand, during exhalation, the lung field shrinks and the density of tissue in the lung field such as the alveoli increases, so that the amount of radiation transmission decreases and the signal value in the lung field of the chest dynamic image decreases. Usually, the ribs and clavicles move upward during inspiration and move downward during expiration. From these behaviors, in the difference image between frames, the signal change due to the movement of the ribs and clavicles is superimposed on the density change of the lung field tissue, and the signal at the lower edge of the ribs and clavicles against the signal change due to the density change of the lung field tissue The change is emphasized, and the signal change is reversed at the upper edge of the rib / clavicle. The signal change due to the movement of these structures hinders the detection and diagnosis of the local ventilation state represented by the density change of the lung tissue.

また、特許文献2に記載の技術では、管電圧を交互に切り替える等の複雑な機構が必要となり、撮影装置のコストが増大する。   Further, the technique described in Patent Document 2 requires a complicated mechanism such as switching the tube voltage alternately, which increases the cost of the photographing apparatus.

本発明の課題は、複雑な装置構成とすることなく、骨部等の構造物の移動による信号変化が除去された、肺野組織の密度変化を観察しやすい胸部動態画像を提供できるようにすることである。   SUMMARY OF THE INVENTION It is an object of the present invention to provide a chest dynamic image that allows easy observation of changes in density of lung tissue without removing signal changes due to movement of structures such as bones without using a complicated apparatus configuration. That is.

上記課題を解決するため、請求項1に記載の発明の動態画像処理装置は、
胸部の動態を示す複数のフレーム画像のそれぞれから所定の構造物を示す構造物領域を抽出する構造物抽出手段と、
前記複数のフレーム画像のそれぞれから肺野領域を抽出し、前記抽出された肺野領域における前記構造物領域以外の領域を用いて、前記複数のフレーム画像間における肺野領域の位置合わせを行う肺野位置合わせ手段と、
前記肺野領域の位置合わせ後の画像において、隣接するフレーム画像間での前記構造物の移動量を算出する構造物移動量算出手段と、
前記肺野位置合わせ後の時間的に隣接するフレーム画像間で対応する画素の信号値の差分をとることによりフレーム間差分画像を生成するフレーム間差分画像生成手段と、
前記構造物領域を前記構造物の移動量だけ移動させた画像と、元の前記構造物領域との差分画像を生成することにより、前記構造物の移動による信号変化量を推定する信号変化量推定手段と、
前記推定された信号変化量が予め定められた閾値を越えた場合に、前記フレーム間差分画像における前記抽出された構造物領域に対応する領域の信号値を、周囲画素の信号値で置き換えるか、もしくは、前記構造物の移動による信号変化量の推定値を差し引くことにより補正する補正手段と、
を備える。
In order to solve the above-described problem, a dynamic image processing apparatus according to claim 1 is provided.
A structure extraction means for extracting a structure region indicating a predetermined structure from each of a plurality of frame images indicating the dynamics of the chest;
A lung that extracts a lung field region from each of the plurality of frame images and uses the region other than the structure region in the extracted lung field region to perform alignment of the lung field region between the plurality of frame images. Field alignment means;
In the image after alignment of the lung field region, a structure movement amount calculation means for calculating the movement amount of the structure between adjacent frame images;
An inter-frame difference image generating means for generating an inter-frame difference image by taking a difference of signal values of corresponding pixels between temporally adjacent frame images after the lung field alignment;
Signal change amount estimation for estimating a signal change amount due to movement of the structure by generating a difference image between the image obtained by moving the structure region by the movement amount of the structure and the original structure region Means,
When the estimated signal change amount exceeds a predetermined threshold, the signal value of the region corresponding to the extracted structure region in the inter-frame difference image is replaced with the signal value of surrounding pixels, Alternatively, correction means for correcting by subtracting the estimated value of the signal change amount due to the movement of the structure ,
Is provided.

請求項2に記載の発明は、請求項1に記載の発明において、
前記複数のフレーム画像における前記抽出された構造物領域の空間的な信号変化を低減する手段を更に備える。
The invention according to claim 2 is the invention according to claim 1,
The apparatus further comprises means for reducing a spatial signal change of the extracted structure region in the plurality of frame images.

請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記補正された前記フレーム間差分画像を動画表示または静止画表示する表示手段を備える。
The invention according to claim 3 is the invention according to claim 1 or 2,
Display means for displaying the corrected inter-frame difference image as a moving image or a still image.

請求項4に記載の発明は、請求項3に記載の発明において、
前記補正されたフレーム間差分画像から周囲との信号値の符号が逆転している領域を抽出し、当該抽出された領域の前記肺野領域に占める割合に基づいて前記肺野領域の呼吸機能が正常であるか否かを判定する判定手段を備え、
前記表示手段は、前記判定手段による判定結果を併せて表示する。
The invention according to claim 4 is the invention according to claim 3,
A region where the sign of the signal value of the surroundings is reversed is extracted from the corrected inter-frame difference image, and the respiratory function of the lung field region is based on the ratio of the extracted region to the lung field region. A determination means for determining whether or not it is normal;
The display means also displays the determination result by the determination means.

請求項5に記載の発明のプログラムは、
コンピュータを、
胸部の動態を示す複数のフレーム画像のそれぞれから所定の構造物を示す構造物領域を抽出する構造物抽出手段、
前記複数のフレーム画像のそれぞれから肺野領域を抽出し、前記抽出された肺野領域における前記構造物領域以外の領域を用いて、前記複数のフレーム画像間における肺野領域の位置合わせを行う肺野位置合わせ手段、
前記肺野領域の位置合わせ後の画像において、隣接するフレーム画像間での前記構造物の移動量を算出する構造物移動量算出手段、
前記肺野位置合わせ後の時間的に隣接するフレーム画像間で対応する画素の信号値の差分をとることによりフレーム間差分画像を生成するフレーム間差分画像生成手段、
前記構造物領域を前記構造物の移動量だけ移動させた画像と、元の前記構造物領域との差分画像を生成することにより、前記構造物の移動による信号変化量を推定する信号変化量推定手段、
前記推定された信号変化量が予め定められた閾値を越えた場合に、前記フレーム間差分画像における前記抽出された構造物領域に対応する領域の信号値を、周囲画素の信号値で置き換えるか、もしくは、前記構造物の移動による信号変化量の推定値を差し引くことにより補正する補正手段、
として機能させる。
The program of the invention described in claim 5 is:
Computer
A structure extraction means for extracting a structure region indicating a predetermined structure from each of a plurality of frame images indicating the dynamics of the chest;
A lung that extracts a lung field region from each of the plurality of frame images and uses the region other than the structure region in the extracted lung field region to perform alignment of the lung field region between the plurality of frame images. Field alignment means,
A structure movement amount calculating means for calculating a movement amount of the structure between adjacent frame images in the image after alignment of the lung field region;
An inter-frame difference image generating means for generating an inter-frame difference image by taking a difference between signal values of corresponding pixels between temporally adjacent frame images after the lung field alignment;
Signal change amount estimation for estimating a signal change amount due to movement of the structure by generating a difference image between the image obtained by moving the structure region by the movement amount of the structure and the original structure region means,
When the estimated signal change amount exceeds a predetermined threshold, the signal value of the region corresponding to the extracted structure region in the inter-frame difference image is replaced with the signal value of surrounding pixels, Or correction means for correcting by subtracting the estimated value of the signal change amount due to the movement of the structure ,
To function as.

本発明によれば、複雑な装置構成とすることなく、骨部等の構造物の移動による信号変化が除去された、肺野組織の密度変化を観察しやすい胸部動態画像を提供することができる。   According to the present invention, it is possible to provide a chest dynamic image that makes it easy to observe changes in the density of lung field tissue, from which signal changes due to movement of structures such as bones have been removed, without using a complicated device configuration. .

本発明の実施の形態における動態画像診断支援システムの全体構成を示す図である。It is a figure which shows the whole structure of the dynamic image diagnosis assistance system in embodiment of this invention. 図1の撮影用コンソールの制御部により実行される撮影制御処理を示すフローチャートである。3 is a flowchart illustrating a shooting control process executed by a control unit of the shooting console of FIG. 1. 図1の診断用コンソールの制御部により実行される画像解析処理を示すフローチャートである。It is a flowchart which shows the image analysis process performed by the control part of the diagnostic console of FIG. 図3のステップS15における構造物の移動による信号変化量の推定の処理を説明するための図である。It is a figure for demonstrating the process of estimation of the signal variation | change_quantity by the movement of the structure in step S15 of FIG. 構造物移動領域の信号値補正を行うか否かの判定方法を説明するための図である。It is a figure for demonstrating the determination method of whether the signal value correction | amendment of a structure moving area | region is performed. (a)は構造物移動領域の信号値補正前のフレーム間差分画像を示す図、(b)は構造物移動領域の信号値補正後のフレーム間差分画像を示す図である。(A) is a figure which shows the inter-frame difference image before signal value correction | amendment of a structure movement area | region, (b) is a figure which shows the inter-frame difference image after signal value correction | amendment of a structure movement area | region. 第2の実施の形態において図1の診断用コンソールの制御部により実行される画像解析処理Bを示すフローチャートである。It is a flowchart which shows the image analysis process B performed by the control part of the diagnostic console of FIG. 1 in 2nd Embodiment.

[第1の実施の形態]
以下、図面を参照して本発明に係る第1の実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

〔動態画像診断支援システム100の構成 〕
まず、構成を説明する。
図1に、本実施の形態における動態画像診断支援システム100の全体構成を示す。
図1に示すように、動態画像診断支援システム100は、撮影装置1と、撮影用コンソール2とが通信ケーブル等により接続され、撮影用コンソール2と、診断用コンソール3とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。動態画像診断支援システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
[Configuration of Dynamic Image Diagnosis Support System 100]
First, the configuration will be described.
FIG. 1 shows the overall configuration of a dynamic image diagnosis support system 100 in the present embodiment.
As shown in FIG. 1, in the dynamic image diagnosis support system 100, an imaging device 1 and an imaging console 2 are connected by a communication cable or the like, and the imaging console 2 and the diagnostic console 3 are connected to a LAN (Local Area Network). ) Or the like via a communication network NT. Each device constituting the dynamic image diagnosis support system 100 conforms to the DICOM (Digital Image and Communications in Medicine) standard, and communication between the devices is performed according to DICOM.

〔撮影装置1の構成〕
撮影装置1は、例えば、呼吸運動に伴う肺の膨張及び収縮の形態変化、心臓の拍動等の、周期性(サイクル)を持つ胸部の動態を撮影する装置である。動態撮影は、人体の胸部に対し、X線等の放射線を連続照射して複数の画像を取得(即ち、連続撮影)することにより行う。この連続撮影により得られた一連の画像を動態画像と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。
撮影装置1は、図1に示すように、放射線源11、放射線照射制御装置12、放射線検出部13、読取制御装置14等を備えて構成されている。
[Configuration of the photographing apparatus 1]
The imaging apparatus 1 is an apparatus that images the dynamics of the chest with periodicity (cycle), such as pulmonary expansion and contraction morphological changes, heart pulsation, and the like accompanying respiratory motion. Dynamic imaging is performed by continuously irradiating a human chest with radiation such as X-rays to acquire a plurality of images (that is, continuous imaging). A series of images obtained by this continuous shooting is called a dynamic image. Each of the plurality of images constituting the dynamic image is called a frame image.
As shown in FIG. 1, the imaging apparatus 1 includes a radiation source 11, a radiation irradiation control device 12, a radiation detection unit 13, a reading control device 14, and the like.

放射線源11は、被写体Mを挟んで放射線検出部13と対向する位置に配置され、放射線照射制御装置12の制御に従って、被写体Mに対し放射線(X線)を照射する。
放射線照射制御装置12は、撮影用コンソール2に接続されており、撮影用コンソール2から入力された放射線照射条件に基づいて放射線源11を制御して放射線撮影を行う。撮影用コンソール2から入力される放射線照射条件は、例えば、連続照射時のパルスレート、パルス幅、パルス間隔、撮影開始/終了タイミング、X線管電流の値、X線管電圧の値、フィルタ種等である。パルスレートは、1秒あたりの放射線照射回数であり、後述するフレームレートと一致している。パルス幅は、放射線照射1回当たりの放射線照射時間である。パルス間隔は、連続撮影において、1回の放射線照射開始から次の放射線照射開始までの時間であり、後述するフレーム間隔と一致している。
The radiation source 11 is disposed at a position facing the radiation detection unit 13 across the subject M, and irradiates the subject M with radiation (X-rays) according to the control of the radiation irradiation control device 12.
The radiation irradiation control device 12 is connected to the imaging console 2 and controls the radiation source 11 based on the radiation irradiation conditions input from the imaging console 2 to perform radiation imaging. The radiation irradiation conditions input from the imaging console 2 are, for example, pulse rate, pulse width, pulse interval, imaging start / end timing, X-ray tube current value, X-ray tube voltage value, filter type during continuous irradiation. Etc. The pulse rate is the number of times of radiation irradiation per second, and matches the frame rate described later. The pulse width is a radiation irradiation time per one irradiation. The pulse interval is the time from the start of one radiation irradiation to the start of the next radiation irradiation in continuous imaging, and coincides with a frame interval described later.

放射線検出部13は、FPD等の半導体イメージセンサにより構成される。FPDは、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線源11から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の画素がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部により構成されている。   The radiation detection unit 13 is configured by a semiconductor image sensor such as an FPD. The FPD has, for example, a glass substrate or the like, detects radiation that has been irradiated from the radiation source 11 and transmitted through at least the subject M at a predetermined position on the substrate according to its intensity, and detects the detected radiation as an electrical signal. A plurality of pixels to be converted and stored are arranged in a matrix. Each pixel includes a switching unit such as a TFT (Thin Film Transistor).

読取制御装置14は、撮影用コンソール2に接続されている。読取制御装置14は、撮影用コンソール2から入力された画像読取条件に基づいて放射線検出部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出部13に蓄積された電気信号を読み取ることにより、画像データを取得する。この画像データがフレーム画像である。そして、読取制御装置14は、取得したフレーム画像を撮影用コンソール2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、連続撮影において、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。   The reading control device 14 is connected to the imaging console 2. The reading control device 14 controls the switching unit of each pixel of the radiation detection unit 13 based on the image reading condition input from the imaging console 2 to switch the reading of the electrical signal accumulated in each pixel. Then, the image data is acquired by reading the electrical signal accumulated in the radiation detection unit 13. This image data is a frame image. Then, the reading control device 14 outputs the acquired frame image to the photographing console 2. The image reading conditions are, for example, a frame rate, a frame interval, a pixel size, an image size (matrix size), and the like. The frame rate is the number of frame images acquired per second and matches the pulse rate. The frame interval is the time from the start of one frame image acquisition operation to the start of the next frame image acquisition operation in continuous shooting, and coincides with the pulse interval.

ここで、放射線照射制御装置12と読取制御装置14は互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。   Here, the radiation irradiation control device 12 and the reading control device 14 are connected to each other, and exchange synchronization signals to synchronize the radiation irradiation operation and the image reading operation.

〔撮影用コンソール2の構成〕
撮影用コンソール2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
撮影用コンソール2は、図1に示すように、制御部21、記憶部22、操作部23、表示部24、通信部25を備えて構成され、各部はバス26により接続されている。
[Configuration of the shooting console 2]
The imaging console 2 outputs radiation irradiation conditions and image reading conditions to the imaging apparatus 1 to control radiation imaging and radiographic image reading operations by the imaging apparatus 1, and also captures dynamic images acquired by the imaging apparatus 1. Displayed for confirmation of whether the image is suitable for confirmation of positioning or diagnosis.
As shown in FIG. 1, the imaging console 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25, and each unit is connected by a bus 26.

制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影用コンソール2各部の動作や、撮影装置1の放射線照射動作及び読み取り動作を集中制御する。
The control unit 21 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).
) Etc. The CPU of the control unit 21 reads the system program and various processing programs stored in the storage unit 22 in accordance with the operation of the operation unit 23, expands them in the RAM, and performs shooting control processing described later according to the expanded programs. Various processes including the beginning are executed to centrally control the operation of each part of the imaging console 2 and the radiation irradiation operation and the reading operation of the imaging apparatus 1.

記憶部22は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムにより処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。例えば、記憶部22は、図2に示す撮影制御処理を実行するための撮影制御処理プログラムを記憶している。また、記憶部22は、検査対象部位に対応付けて放射線照射条件及び画像読取条件を記憶している。各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部21は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 22 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 22 stores various programs executed by the control unit 21 and data such as parameters necessary for execution of processing by the programs or processing results. For example, the storage unit 22 stores a shooting control processing program for executing the shooting control process shown in FIG. In addition, the storage unit 22 stores radiation irradiation conditions and image reading conditions in association with the examination target region. Various programs are stored in the form of readable program code, and the control unit 21 sequentially executes operations according to the program code.

操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部21に出力する。また、操作部23は、表示部24の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部21に出力する。   The operation unit 23 includes a keyboard having a cursor key, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The control unit 23 controls an instruction signal input by key operation or mouse operation on the keyboard. To 21. In addition, the operation unit 23 may include a touch panel on the display screen of the display unit 24. In this case, the operation unit 23 outputs an instruction signal input via the touch panel to the control unit 21.

表示部24は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニタにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。   The display unit 24 is configured by a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays an input instruction, data, or the like from the operation unit 23 in accordance with an instruction of a display signal input from the control unit 21. To do.

通信部25は、LANアダプタやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 25 includes a LAN adapter, a modem, a TA (Terminal Adapter), and the like, and controls data transmission / reception with each device connected to the communication network NT.

〔診断用コンソール3の構成〕
診断用コンソール3は、撮影用コンソール2から動態画像を取得し、取得した動態画像を表示して医師が読影診断するための動画像処理装置である。
診断用コンソール3は、図1に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35を備えて構成され、各部はバス36により接続されている。
[Configuration of diagnostic console 3]
Diagnostic console 3 obtains the dynamic image from the imaging console 2, a dynamic state image processing device for the physician to image diagnosis by displaying the acquired dynamic image.
As shown in FIG. 1, the diagnostic console 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35, and each unit is connected by a bus 36.

制御部31は、CPU、RAM等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って、後述する画像解析処理を始めとする各種処理を実行し、診断用コンソール3各部の動作を集中制御する。制御部31は、画像解析処理を実行することにより、構造物抽出手段、肺野位置合わせ手段、フレーム間差分画像生成手段、信号変化量推定手段、補正手段、判定手段として機能する。   The control unit 31 includes a CPU, a RAM, and the like. The CPU of the control unit 31 reads out the system program and various processing programs stored in the storage unit 32 in accordance with the operation of the operation unit 33 and expands them in the RAM, and performs image analysis described later according to the expanded programs. Various processes including the process are executed to centrally control the operation of each part of the diagnostic console 3. The control unit 31 functions as a structure extraction unit, a lung field alignment unit, an inter-frame difference image generation unit, a signal change amount estimation unit, a correction unit, and a determination unit by executing image analysis processing.

記憶部32は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部32は、制御部31で画像解析処理を実行するための画像解析処理プログラムを始めとする各種プログラムやプログラムにより処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 32 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 32 stores data such as parameters necessary for execution of processing or data such as processing results by various programs and programs including an image analysis processing program for executing image analysis processing by the control unit 31. These various programs are stored in the form of readable program codes, and the control unit 31 sequentially executes operations according to the program codes.

操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。   The operation unit 33 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The control unit 33 controls an instruction signal input by key operation or mouse operation on the keyboard. To 31. The operation unit 33 may include a touch panel on the display screen of the display unit 34, and in this case, an instruction signal input via the touch panel is output to the control unit 31.

表示手段としての表示部34は、LCDやCRT等のモニタにより構成され、制御部31から入力される表示信号の指示に従って、操作部33からの入力指示やデータ等を表示する。   The display unit 34 as a display unit is configured by a monitor such as an LCD or a CRT, and displays an input instruction, data, or the like from the operation unit 33 in accordance with an instruction of a display signal input from the control unit 31.

通信部35は、LANアダプタやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 35 includes a LAN adapter, a modem, a TA, and the like, and controls data transmission / reception with each device connected to the communication network NT.

〔動態画像診断支援システム100の動作〕
次に、上記動態画像診断支援システム100における動作について説明する。
[Operation of Dynamic Image Diagnosis Support System 100]
Next, the operation in the dynamic image diagnosis support system 100 will be described.

(撮影装置1、撮影用コンソール2の動作)
まず、撮影装置1、撮影用コンソール2による撮影動作について説明する。
図2に、撮影用コンソール2の制御部21において実行される撮影制御処理を示す。撮影制御処理は、制御部21と記憶部22に記憶されている撮影制御処理プログラムとの協働により実行される。
(Operation of the photographing apparatus 1 and the photographing console 2)
First, the photographing operation by the photographing apparatus 1 and the photographing console 2 will be described.
FIG. 2 shows photographing control processing executed in the control unit 21 of the photographing console 2. The photographing control process is executed in cooperation with the photographing control processing program stored in the control unit 21 and the storage unit 22.

まず、撮影技師により撮影用コンソール2の操作部23が操作され、撮影対象(被写体M)の患者情報(患者の氏名、身長、体重、年齢、性別等)の入力が行われる(ステップS1)。   First, the operation unit 23 of the imaging console 2 is operated by the imaging engineer, and patient information (patient name, height, weight, age, sex, etc.) of the imaging target (subject M) is input (step S1).

次いで、放射線照射条件が記憶部22から読み出されて放射線照射制御装置12に設定されるとともに、画像読取条件が記憶部22から読み出されて読取制御装置14に設定される(ステップS2)。   Next, the radiation irradiation conditions are read from the storage unit 22 and set in the radiation irradiation control device 12, and the image reading conditions are read from the storage unit 22 and set in the reading control device 14 (step S2).

次いで、操作部23の操作による放射線照射の指示が待機される(ステップS3)。この間、撮影技師は患者のポジショニングを行う。具体的には、被写体Mの胸部正面(又は背面)が放射線源11に対向するように被写体Mを配置する。ポジショニングが終了すると、撮影技師は操作部23を操作して放射線照射を指示する。   Next, a radiation irradiation instruction by the operation of the operation unit 23 is waited (step S3). During this time, the radiographer positions the patient. Specifically, the subject M is arranged so that the chest front (or back) of the subject M faces the radiation source 11. When the positioning is completed, the imaging technician operates the operation unit 23 to instruct radiation irradiation.

操作部23により放射線照射指示が入力されると(ステップS3;YES)、放射線照射制御装置12及び読取制御装置14に撮影開始指示が出力され、動態撮影が開始される(ステップS4)。即ち、放射線照射制御装置12に設定されたパルス間隔で放射線源11により放射線が照射され、放射線検出部13によりフレーム画像が取得される。動態撮影開始から予め定められた時間が経過すると、制御部21により放射線照射制御装置12及び読取制御装置14に撮影終了の指示が出力され、撮影動作が停止される。   When a radiation irradiation instruction is input by the operation unit 23 (step S3; YES), a photographing start instruction is output to the radiation irradiation control device 12 and the reading control device 14, and dynamic photographing is started (step S4). That is, radiation is emitted from the radiation source 11 at a pulse interval set in the radiation irradiation control device 12, and a frame image is acquired by the radiation detection unit 13. When a predetermined time has elapsed from the start of dynamic imaging, the control unit 21 outputs an instruction to end imaging to the radiation irradiation control device 12 and the reading control device 14, and the imaging operation is stopped.

撮影により取得されたフレーム画像は順次撮影用コンソール2に入力され、撮影順を示す番号と対応付けて記憶部22に記憶されるとともに(ステップS5)、表示部24に表示される(ステップS6)。撮影技師は、表示された動態画像によりポジショニング等を確認し、撮影により診断に適した画像が取得された(撮影OK)か、再撮影が必要(撮影NG)か、を判断する。そして、操作部23を操作して、判断結果を入力する。   Frame images acquired by shooting are sequentially input to the shooting console 2, stored in the storage unit 22 in association with numbers indicating the shooting order (step S5), and displayed on the display unit 24 (step S6). . The imaging engineer confirms the positioning and the like based on the displayed dynamic image, and determines whether an image suitable for diagnosis is acquired by imaging (imaging OK) or re-imaging is necessary (imaging NG). Then, the operation unit 23 is operated to input a determination result.

操作部23の所定の操作により撮影OKを示す判断結果が入力されると(ステップS7;YES)、動態撮影で取得された一連のフレーム画像のそれぞれに、動態画像を識別するための識別IDや、患者情報、検査対象部位、放射線照射条件、画像読取条件、撮影順を示す番号等の情報が付帯され(例えば、DICOM形式で画像データのヘッダ領域に書き込まれ)、通信部25を介して診断用コンソール3に送信される(ステップS8)。そして、本処理は終了する。一方、操作部23の所定の操作により撮影NGを示す判断結果が入力されると(ステップS7;NO)、記憶部22に記憶された一連のフレーム画像が削除され(ステップS9)、本処理は終了する。   When a determination result indicating photographing OK is input by a predetermined operation of the operation unit 23 (step S7; YES), an identification ID for identifying a dynamic image or each of a series of frame images acquired by dynamic photographing is displayed. Information such as patient information, examination target region, radiation irradiation condition, image reading condition, number indicating the imaging order is attached (for example, written in the header area of the image data in DICOM format) and diagnosed via the communication unit 25 Is transmitted to the console 3 (step S8). Then, this process ends. On the other hand, when a determination result indicating photographing NG is input by a predetermined operation of the operation unit 23 (step S7; NO), a series of frame images stored in the storage unit 22 is deleted (step S9), and this processing is performed. finish.

(診断用コンソール3の動作)
次に、診断用コンソール3における動作について説明する。
診断用コンソール3においては、通信部35を介して撮影用コンソール2から動態画像の一連のフレーム画像が受信されると、制御部31と記憶部32に記憶されている画像解析処理プログラムとの協働により図3に示す画像解析処理が実行される。
(Operation of diagnostic console 3)
Next, the operation in the diagnostic console 3 will be described.
When the diagnostic console 3 receives a series of frame images of the dynamic image from the imaging console 2 via the communication unit 35, it cooperates with the control unit 31 and the image analysis processing program stored in the storage unit 32. As a result, the image analysis processing shown in FIG. 3 is executed.

ここで、胸部正面を撮影した動態画像内には、肺野だけでなく、骨部(鎖骨、肋骨、肩甲骨等)、心壁、横隔膜等の構造物が写りこむ。これらの構造物が呼吸運動等により移動すると、その移動により画像の信号値が変化する。しかし、これらの構造物の移動による信号値の変化(信号変化)は、肺野内組織の密度変化が表す換気状態の検出及び診断の妨げとなる。そこで、画像解析処理においては、構造物の移動による信号変化を動態画像から推定し、その影響を除去して表示や呼吸機能の良否の判定を行う。   Here, not only the lung field but also structures such as bones (clavicle, ribs, scapula, etc.), heart wall, diaphragm, etc. are reflected in the dynamic image obtained by photographing the front of the chest. When these structures move due to breathing motion or the like, the signal value of the image changes due to the movement. However, changes in signal values (signal changes) due to the movement of these structures hinder the detection and diagnosis of ventilation states represented by changes in the density of lung tissue. Therefore, in the image analysis process, a signal change due to the movement of the structure is estimated from the dynamic image, the influence is removed, and the quality of the display and the respiratory function is determined.

画像解析処理においては、まず、構造物抽出処理が実行され、各フレーム画像から構造物領域の抽出が行われる(ステップS11)。
以下の説明では、構造物を鎖骨及び肋骨(鎖骨/肋骨と記す)とした例について説明する。構造物としての鎖骨/肋骨の抽出は、例えば、エッジ抽出による手法、多重解像度分解及びエッジ強調による手法、エネルギーサブトラクション画像で学習したニューラルネットワークを用いる手法等により行うことができる。
In the image analysis process, first, a structure extraction process is executed, and a structure area is extracted from each frame image (step S11).
In the following description, an example in which the structure is a clavicle and a rib (referred to as clavicle / rib) will be described. Extraction of the clavicle / rib as a structure can be performed by, for example, a method using edge extraction, a method using multiresolution decomposition and edge enhancement, a method using a neural network learned from an energy subtraction image, or the like.

エッジ抽出による手法では、公知文献1に記載のように、まず、各フレーム画像に対して、Robinsonオペレータ等のエッジ抽出フィルタを用いてエッジ画像を生成し、エッジ画像から円弧形状を検出するハフ変換などを用いて肋骨らしい円弧形状線をみつけて肋骨形状を検出する。また、直線を検出するハフ変換などを用いて鎖骨らしい直線部分を見つけて鎖骨形状を検出する。この検出した鎖骨/肋骨形状をもとに鎖骨/肋骨領域を特定する(公知文献1:「ハフ変換および線形状性を利用した胸部X線像の主要陰影の辺縁抽出」電子情報通信学会論文誌D-II Vol.J77-D-II No.7 pp1375-1381参照)。   In the method based on edge extraction, as described in publicly known document 1, first, an edge image is generated for each frame image by using an edge extraction filter such as a Robinson operator, and an arc shape is detected from the edge image. The rib shape is detected by finding an arc-shaped line that seems to be a rib using, for example. Also, a clavicle shape is detected by finding a straight portion that seems to be a clavicle using a Hough transform that detects a straight line. Based on the detected clavicle / rib shape, the clavicle / rib region is identified (Publication 1: “Edge extraction of main shadow of chest X-ray image using Hough transform and line shape”) Journal D-II Vol.J77-D-II No.7 pp1375-1381).

多重解像度分解及びエッジ強調による手法では、公知文献2に記載のように、まず、各フレーム画像を多重解像度分解により各解像度レベルに分解し、各解像度レベル毎に水平/垂直/斜め方向のエッジ成分画像を生成する。そして、所定の解像度レベルの水平方向成分画像において所定閾値を越える部分を鎖骨/肋骨形状として検出し、検出した鎖骨/肋骨形状をもとに鎖骨/肋骨領域を特定する。なお、各解像度レベル毎に、ヘッセ行列の最大固有値を算出することで円形・線状パターンを選択的に強調する画像を作成し、所定の解像度レベルの円形・線状パターン強調画像を鎖骨/肋骨形状として検出することも可能である。(公知文献2:「医用画像における円形・線状パターン検出のためのフィルタバンク構築」電子情報通信学会論文誌D-II Vol.J87-D-II No.1 pp175-185参照)。   In the technique based on multi-resolution decomposition and edge enhancement, as described in the known document 2, first, each frame image is decomposed into resolution levels by multi-resolution decomposition, and edge components in horizontal / vertical / diagonal directions are obtained for each resolution level. Generate an image. Then, a portion exceeding a predetermined threshold in the horizontal component image of a predetermined resolution level is detected as a clavicle / rib shape, and a clavicle / rib region is specified based on the detected clavicle / rib shape. For each resolution level, an image that selectively enhances the circular / linear pattern is created by calculating the maximum eigenvalue of the Hessian matrix, and the circular / linear pattern-enhanced image having a predetermined resolution level is generated as a clavicle / rib. It can also be detected as a shape. (Refer to publicly known document 2: “Construction of a filter bank for detecting circular and linear patterns in medical images”, IEICE Transactions D-II Vol. J87-D-II No. 1 pp175-185).

エネルギーサブトラクション画像で学習したニューラルネットワークを用いる手法では、公知文献3に記載のように、予め取得された胸部画像と、この胸部画像に対応しエネルギーサブトラクションによって抽出した骨部画像(鎖骨/肋骨のみを抽出した画像)との複数ペアのデータベースを教師データとしてニューラルネットワークを用いて予め学習させておく。学習したニューラルネットワークに、各フレームの胸部画像を入力し、得られた出力の骨部画像をもとに、鎖骨/肋骨領域を特定する(公知文献3:特開2005−20338参照)。   In the method using the neural network learned from the energy subtraction image, as described in the known document 3, the chest image acquired in advance and the bone image extracted by energy subtraction corresponding to this chest image (only the clavicle / rib) A database of a plurality of pairs with extracted images) is learned in advance using a neural network as teacher data. The chest image of each frame is input to the learned neural network, and the clavicle / rib region is specified based on the obtained bone image of the output (refer to Japanese Unexamined Patent Application Publication No. 2005-20338).

次いで、フレーム画像間の肺野領域内の位置合わせが行われる(ステップS12)。
ステップS12では、ローカルマッチング処理、ワーピング処理により肺野領域内の位置合わせが行われる。
Next, alignment in the lung field region between the frame images is performed (step S12).
In step S12, alignment in the lung field region is performed by local matching processing and warping processing.

ローカルマッチング処理では、まず、一連のフレーム画像中の任意のフレーム画像(ここでは、撮影順が一番のフレーム画像とする。基準画像と呼ぶ。)から肺野領域を抽出し、抽出した領域における構造物抽出処理で抽出した鎖骨/肋骨領域以外の領域を、縦方向に0.4〜0.6cm、横方向に0.4〜2cmの小領域に分割する。なお、肺野領域の抽出方法は何れの方法であってもよい。例えば、基準画像の各画素の信号値のヒストグラムから判別分析によって閾値を求め、この閾値より高信号の領域を肺野領域候補として1次抽出する。次いで、1次抽出された肺野領域候補の境界付近でエッジ検出を行い、境界付近の小領域でエッジが最大となる点を境界に沿って抽出すれば肺野領域の境界を抽出することができる。
次いで、撮影順が1番のフレーム画像をP1、これと隣接するフレーム画像(撮影順が隣接するフレーム画像(即ち、時間的に隣接するフレーム画像。以下同様。))をP2とし、P2に、P1の各小領域の探索領域を設定する。ここで、P2の探索領域は、各小領域における中心点の座標を(x,y)とすると、同一の中心点(x,y)をもち、P1の小領域よりも縦横の幅が大きくなるように設定する(例えば、1.5倍)。そして、P1の各領域毎に、P2の探索範囲で最もマッチング度合いが高くなる位置を求めることで、P1の各小領域に対するP2上での対応位置を算出する。マッチング度合いとしては、最小二乗法や相互相関係数を指標に用いる。
次いで、P2を、新たにP1とみなし、撮影順がP2の次のフレーム画像を新たなP2とみなして、P1の各小領域におけるP2の対応位置を算出する。以上の処理を繰り返すことで、各フレーム画像の各小領域が隣接するフレーム画像のどの位置に対応するかが求まる。求めた処理結果は、制御部31のRAMに記憶される。
In the local matching process, first, a lung field region is extracted from an arbitrary frame image in a series of frame images (here, the imaging order is the first frame image, referred to as a reference image). A region other than the clavicle / rib region extracted by the structure extraction process is divided into small regions of 0.4 to 0.6 cm in the vertical direction and 0.4 to 2 cm in the horizontal direction. Note that the lung field region extraction method may be any method. For example, a threshold value is obtained by discriminant analysis from a histogram of signal values of each pixel of the reference image, and a region having a signal higher than this threshold value is first extracted as a lung field region candidate. Next, edge detection is performed in the vicinity of the boundary of the first extracted lung field region candidate, and the boundary of the lung field region can be extracted by extracting along the boundary the point where the edge is maximum in a small region near the boundary. it can.
Next, P1 is a frame image having the first shooting order, and P2 is a frame image adjacent to the frame image (a frame image having a shooting order is adjacent (that is, a temporally adjacent frame image; the same applies hereinafter)). A search area for each small area of P1 is set. Here, the search area of P2 has the same center point (x, y) and the horizontal and vertical widths are larger than those of the small area of P1, where the coordinates of the center point in each small area are (x, y). (For example, 1.5 times). Then, for each area of P1, a position having the highest matching degree in the search range of P2 is obtained, thereby calculating a corresponding position on P2 for each of the small areas of P1. As the matching degree, the least square method or the cross correlation coefficient is used as an index.
Next, P2 is newly regarded as P1, and the next frame image whose shooting order is P2 is regarded as new P2, and the corresponding position of P2 in each small region of P1 is calculated. By repeating the above processing, it is possible to determine which position in each adjacent frame image each small region of each frame image corresponds to. The obtained processing result is stored in the RAM of the control unit 31.

なお、ローカルマッチング処理は、フレーム画像そのもので行ってもよいし、グラディエントフィルタ等によりエッジ抽出(強調)した画像に対して行ってもよい。
更には、肺血管影を強調もしくは抽出した画像にてローカルマッチング処理を行ってもよい。肺血管影を強調する手法としては、上述の公知文献2に記載のように、多重解像度分解後、各解像度レベル毎に円形・線状パターンを選択的に強調した画像から肺血管に相当する解像度レベルの画像を抽出することで、肺血管影が強調された画像を得ることができる。また、例えば、公知文献4に記載のように、血管構造のモデルとして、血管影の形状を配慮した伸長や併合、分割といった変形が可能な樹状図形モデルを用い、評価関数が最大化する樹状構造を抽出する方法を用いることで、肺血管影の抽出が可能となる(公知文献4:「Deformable Modelを用いた胸部X線像からの血管影の自動抽出手順」MEDICAL IMAGING TECHNOLOGY Vol.17 No.5,September1999参照)。このとき、小領域の分割は、基準画像を等間隔に分割しても、抽出した肺血管の分岐点等、構造的に特徴のある点を中心点とした矩形領域に分割してもよい。
Note that the local matching process may be performed on the frame image itself, or may be performed on an image extracted (emphasized) by a gradient filter or the like.
Furthermore, local matching processing may be performed on an image in which lung blood vessel shadows are emphasized or extracted. As a technique for emphasizing pulmonary blood vessel shadows, as described in the above-mentioned well-known document 2, resolution corresponding to pulmonary blood vessels from an image obtained by selectively emphasizing a circular / linear pattern for each resolution level after multi-resolution decomposition. By extracting the level image, an image in which the lung blood vessel shadow is enhanced can be obtained. Further, as described in, for example, publicly known document 4, a tree-like figure model that can be deformed such as stretching, merging, and dividing in consideration of the shape of the blood vessel shadow is used as a model of the blood vessel structure. Pulmonary blood vessel shadows can be extracted by using a method for extracting a morphological structure (Prior Art 4: “Automatic extraction procedure of blood vessel shadows from chest X-ray images using Deformable Model” MEDICAL IMAGING TECHNOLOGY Vol.17 No. 5, see September 1999). At this time, the division of the small region may be performed by dividing the reference image at equal intervals or by dividing the reference image into rectangular regions having a central characteristic point such as an extracted pulmonary blood vessel branch point.

次いで、ワーピング処理が行われる。具体的には、撮影順が1番のフレーム画像をP1、これと撮影順が隣接するフレーム画像をP2とし、上記ローカルマッチング処理で算出された隣接するフレーム画像間の各小領域の対応位置に基づいて、各小領域毎にP1からP2へのシフトベクトルを算出する。次いで、算出されたシフトベクトルを多項式でフィッティングして、この多項式を用いて各小領域における各画素のシフトベクトルを算出する。そして、算出された各画素のシフトベクトルに基づいて、ワーピング処理を行い、P2の各小領域内の各画素の位置をP1のフレーム画像の対応する画素の位置にシフトする。次いで、ワーピング処理されたP2を、新たにP1とみなし、撮影順がP2の次のフレーム画像を新たなP2とみなして、上記処理を行う。以上の処理を撮影順の早い隣接フレーム画像間から順次繰り返すことで、全てのフレーム画像の各小領域の位置を基準画像に略一致させることが可能となる。
なお、鎖骨/肋骨領域は肺野領域とは異なる動きをしているため、上述のようにローカルマッチング、ワーピングの対象からは除かれている。
Next, a warping process is performed. Specifically, P1 is the frame image with the first shooting order, and P2 is the frame image adjacent to the shooting order, and the corresponding position of each small region between the adjacent frame images calculated by the local matching process is set. Based on this, a shift vector from P1 to P2 is calculated for each small region. Next, the calculated shift vector is fitted with a polynomial, and the shift vector of each pixel in each small region is calculated using this polynomial. Then, warping processing is performed based on the calculated shift vector of each pixel, and the position of each pixel in each small area of P2 is shifted to the position of the corresponding pixel in the frame image of P1. Next, the warping process P2 is newly regarded as P1, and the next frame image whose shooting order is P2 is regarded as a new P2, and the above process is performed. By sequentially repeating the above processing from adjacent frame images in the early shooting order, the positions of the small areas of all the frame images can be made to substantially coincide with the reference image.
In addition, since the clavicle / rib region moves differently from the lung field region, it is excluded from the objects of local matching and warping as described above.

次いで、図3に戻り、構造物の移動量が算出される(ステップS13)。
例えば、ワーピング処理後の基準画像において、ステップS11において算出された基準画像の鎖骨/肋骨領域を1本毎若しくは一本を更に複数個に分割する等、いくつかの小領域に分割し、分割した小領域毎に、例えば、上述のローカルマッチング処理を用いて、隣接するフレーム画像間の対応位置を算出する。そして、算出された対応位置に基づいて、鎖骨/肋骨領域における各小領域毎に、フレーム画像間でどの方向にどれだけ移動したかを表すシフトベクトルを算出する。このシフトベクトルが、構造物の移動量となる。各小領域の対応位置及びシフトベクトルは、制御部31のRAMに記憶される。
Next, returning to FIG. 3, the moving amount of the structure is calculated (step S13).
For example, in the reference image after the warping process, the clavicle / rib region of the reference image calculated in step S11 is divided into several small regions, for example, one piece or one piece is further divided into a plurality of pieces. For each small region, for example, the corresponding position between adjacent frame images is calculated using the local matching process described above. Then, based on the calculated corresponding position, a shift vector representing how much and in which direction the frame images have moved is calculated for each small region in the clavicle / rib region. This shift vector is the amount of movement of the structure. The corresponding position and shift vector of each small area are stored in the RAM of the control unit 31.

次いで、ワーピング処理後の隣接するフレーム画像間において画素単位で信号値の差分をとるフレーム間差分が行われ、フレーム間差分画像が生成される(ステップS14)。フレーム間差分画像によって、フレーム画像間の信号変化(信号値の増減や変化量)を得ることができる。   Next, an inter-frame difference that takes a signal value difference in pixel units between adjacent frame images after the warping process is performed, and an inter-frame difference image is generated (step S14). A signal change (increase / decrease or change in signal value) between frame images can be obtained by the inter-frame difference image.

次いで、構造物の移動による信号変化量の推定が行われる(ステップS15)。
例えば、ワーピング処理後の隣接する前後のフレーム画像をフレームN、フレームN+1とした場合、図4に示すように、フレームNの鎖骨/肋骨領域を分割した各小領域をステップS13で算出したシフトベクトル分シフトしたフレームN+1´を生成し、フレームN+1´の各画素の信号値からフレームNの対応する画素の信号値を差し引く。この差分値は構造物の移動による信号変化量の推定値とみなすことができる。例えば、差分値が0の領域は構造物の移動がない領域と推定することができ、差分値が予め定められた閾値より大きい領域は、構造物の移動のあった領域と推定することができる。差分値が0より大きく閾値より小さい場合は、構造物の移動があったがそれによる信号変化量が小さく、その影響が無視できるほど小さいか、もしくはノイズの可能性が大きい。ここで、閾値は、実験的経験的に求められた値である。
Next, the signal change amount due to the movement of the structure is estimated (step S15).
For example, when the frame images adjacent to each other after the warping processing are the frame N and the frame N + 1, as shown in FIG. 4, each small region obtained by dividing the clavicle / rib region of the frame N is calculated in step S13. A frame N + 1 ′ shifted by the shift vector is generated, and the signal value of the corresponding pixel in frame N is subtracted from the signal value of each pixel in frame N + 1 ′. This difference value can be regarded as an estimated value of the signal change amount due to the movement of the structure. For example, an area with a difference value of 0 can be estimated as an area where there is no movement of a structure, and an area where the difference value is greater than a predetermined threshold can be estimated as an area where the structure has moved. . When the difference value is larger than 0 and smaller than the threshold value, there is a movement of the structure, but the signal change amount is small, and the influence is small enough to be ignored, or the possibility of noise is large. Here, the threshold value is a value obtained experimentally and empirically.

次いで、構造物移動領域の信号値補正が行われる(ステップS16)。ここでは、まず、鎖骨/肋骨領域を分割した小領域内の各画素において、ステップS15で算出された信号変化量が予め定められた閾値と比較される。図5に示すように算出された信号変化量が予め定められた閾値を越えている場合、フレーム間差分画像の対応する領域の画素の信号値を、周囲画素の信号値で置き換える。例えば、置き換えの対象となる画素を中心としたN画素×N画素(Nは奇数。例えば、5、11等)のブロックに対して、その中で置き換えの対象となる画素を除いた画素で平均値を求め、求めた平均値で中心画素の信号値を置き換える。置き換え対象の画素を中心としたブロック内で置き換え対象の画素が合計で所定個数以下となる画素から置き換えを行っていき、その後、置き換え対象の画素が全て置き換えられるまで順次置き換えを繰り返していく。
または、フレーム間差分画像から構造物の移動による信号変化量の推定値を差し引く(差分をとる)ことで、構造物の移動による信号変化を補正する。
補正後のフレーム間差分画像は、ノイズの影響を除去するためにS画素×S画素(Sは1〜20の何れか)の小ブロックに分割し、各小ブロック毎に平均値を求め、小ブロック内の画素の信号値を平均値に置き換えることとしてもよい。
Next, signal value correction of the structure moving area is performed (step S16). Here, first, in each pixel in the small region obtained by dividing the clavicle / rib region, the signal change amount calculated in step S15 is compared with a predetermined threshold value. As shown in FIG. 5, when the calculated signal change amount exceeds a predetermined threshold value, the signal value of the pixel in the corresponding region of the inter-frame difference image is replaced with the signal value of the surrounding pixels. For example, with respect to a block of N pixels × N pixels (N is an odd number, for example, 5, 11, etc.) centered on the pixel to be replaced, the average of the pixels excluding the pixels to be replaced therein A value is obtained, and the signal value of the central pixel is replaced with the obtained average value. Replacement is performed from the pixel whose replacement target pixel is a total of a predetermined number or less in the block centering on the replacement target pixel, and then the replacement is sequentially repeated until all the replacement target pixels are replaced.
Alternatively, the signal change due to the movement of the structure is corrected by subtracting the estimated value of the signal change amount due to the movement of the structure (taking the difference) from the inter-frame difference image.
The inter-frame difference image after correction is divided into small blocks of S pixels × S pixels (S is any one of 1 to 20) in order to remove the influence of noise, and an average value is obtained for each small block. The signal values of the pixels in the block may be replaced with average values.

図6(a)に、信号値補正前のフレーム間画像の一例を示す。図6(a)において濃い網掛けで示す領域は、信号変化(差分値の符号)が周囲と反転している領域を示している。この信号変化が周囲と反転している領域のうち、領域R1、R2は、鎖骨の移動による信号変化が重畳した領域である。このように、肺野組織内の密度変化によるものでない信号変化がフレーム間差分画像に混じっていると、肺野組織内の密度変化が表す局所的な換気異常状態の検出及び診断の妨げとなる。そこで、ステップS11〜S16の処理によって、R1、R2等の、構造物の移動による信号変化の領域を特定して、その領域内の信号値を周囲と略同等となるように補正する。これにより、図6(b)に示すように、医師に対し、肺野組織内の密度変化が表す局所的な換気異常状態を容易に把握できる画像を提供することが可能となる。   FIG. 6A shows an example of an inter-frame image before signal value correction. In FIG. 6A, a region indicated by dark shading indicates a region where the signal change (the sign of the difference value) is reversed from the surroundings. Of the regions where the signal changes are reversed from the surroundings, the regions R1 and R2 are regions where the signal changes due to the movement of the clavicle are superimposed. Thus, when signal changes that are not caused by density changes in the lung field tissue are mixed in the inter-frame difference image, it becomes an obstacle to detection and diagnosis of the local abnormal ventilation state represented by the density change in the lung field tissue. . Therefore, by the processing in steps S11 to S16, the signal change region such as R1, R2 due to the movement of the structure is specified, and the signal value in the region is corrected so as to be substantially equal to the surroundings. As a result, as shown in FIG. 6B, it is possible to provide the doctor with an image that can easily grasp the local abnormal ventilation state represented by the density change in the lung tissue.

信号値の補正が終了すると、構造物の移動による信号変化が補正されたフレーム間差分画像に基づいて表示部34に診断支援情報が表示される(ステップS17)。
ステップS17においては、診断支援情報として、例えば、構造物の移動による信号変化の補正後のフレーム間差分画像で信号値が負となる領域(フレーム間で信号値が減少している領域)を所定の色(例えば、オレンジ)で表示し、信号値が正となる領域(フレーム間で信号値が増加している領域)をそれとは異なる色(例えば、緑)で表示した動画像を表示する。また信号値の絶対値が大きい程彩度が大きくなるように、表示色を調整する。
When the correction of the signal value is completed, the diagnosis support information is displayed on the display unit 34 based on the inter-frame difference image in which the signal change due to the movement of the structure is corrected (step S17).
In step S17, as diagnosis support information, for example, a region where the signal value is negative (region where the signal value decreases between frames) in the inter-frame difference image after correction of the signal change due to the movement of the structure is predetermined. A moving image is displayed in which the region where the signal value is positive (the region where the signal value increases between frames) is displayed in a different color (for example, green). Further, the display color is adjusted so that the saturation increases as the absolute value of the signal value increases.

疾患のない健常者では、呼気中は肺野内の組織の密度が上がるため、X線透過量が減少して信号値は減少する。従って、肺野内はオレンジ色で表示される。また、吸気中は肺野内の密度が下がるため、X線透過量が増加して信号値が増加する。従って、肺野内は緑色で表示される。
一方、肺気腫等の疾患患者では、のう胞がある部分や気腫化が強い部分において、周囲との信号変化(差分値の符号)が反転する。そのため、上記表示を行うと、呼気中に緑色の領域が表示されたり、吸気中にオレンジの領域が表示されたりする。即ち、図6(b)に示すような表示となる。
In a healthy person without a disease, the tissue density in the lung field increases during exhalation, so that the amount of X-ray transmission decreases and the signal value decreases. Therefore, the lung field is displayed in orange. Further, during inspiration, the density in the lung field decreases, so the amount of X-ray transmission increases and the signal value increases. Therefore, the lung field is displayed in green.
On the other hand, in a patient with a disease such as emphysema, the signal change (sign of difference value) with the surroundings is reversed in a portion where a cyst is present or a portion where emphysema is strong. Therefore, when the above display is performed, a green region is displayed during expiration, and an orange region is displayed during inspiration. That is, the display is as shown in FIG.

このように、フレーム間差分画像をもとに色づけした動画像を観察することで、医師は信号変化(差分値の符号)が周囲の肺野領域と反転している領域の大きさから疾患、例えば、肺気腫の進行度を把握することができるとともに、呼吸の速さ、呼気の時間と吸気の時間の割合、上肺野と下肺野での信号変化の切り替わりタイミングのずれ等の情報を同時に動画の中から見出すことができ、より診断の精度を向上させることができる。特に、このステップS17で表示される画像は、上述のように構造物の移動による信号変化が除去されているため、医師は、肺野組織内の密度変化が表す局所的な換気異常状態を容易に把握することができる。
なお、横隔膜等の動きが容易に把握できるように、色づけしていない原画像の動画を再生タイミングを同期させて並列表示してもよい。
In this way, by observing a moving image colored based on the inter-frame difference image, the doctor can detect the disease from the size of the region where the signal change (the sign of the difference value) is reversed from the surrounding lung field region, For example, the progress of pulmonary emphysema can be grasped, and information such as the speed of breathing, the ratio of expiration time to inspiration time, and the timing of signal change switching between upper and lower lung fields can be simultaneously displayed. It can be found from the moving image, and the accuracy of diagnosis can be further improved. In particular, since the signal displayed by the movement of the structure is removed from the image displayed in step S17 as described above, the doctor can easily recognize the local abnormal ventilation state represented by the density change in the lung field tissue. Can grasp.
Note that the moving images of the original images that are not colored may be displayed in parallel with the reproduction timing synchronized so that the movement of the diaphragm or the like can be easily grasped.

また、前述のワーピング処理において、全フレーム画像を基準画像には一致させずに、それぞれ隣接フレーム間のみでワーピングを行い、ワーピングした隣接フレーム画像間で、上記のとおり、構造物移動量算出、フレーム間差分画像作成、構造物移動による信号変化量推定、構造物移動領域の信号値補正を行い、この補正後のフレーム間差分画像の各画素の信号値(差分信号値)に基づいて色づけした画像を、ワーピング前の原画像の各フレーム画像上にオーバーレイして動画表示してもよい。   Further, in the above-described warping process, the entire frame image is not matched with the reference image, and warping is performed only between adjacent frames. Between the warped adjacent frame images, the structure movement amount calculation, the frame is performed as described above. Image created by performing difference image creation, signal change estimation due to structure movement, signal value correction of structure movement region, and coloring based on signal value (difference signal value) of each pixel of inter-frame difference image after this correction May be overlaid on each frame image of the original image before warping and displayed as a moving image.

また、上記動画表示に代えて、又は上記動画表示とともに、所定タイミングのフレーム画像を上記基準で色付けした静止画像を表示してもよい。若しくは、全フレーム画像に対して信号変化反転領域のAND、ORをとった画像を生成して、静止画表示してもよい。このように静止画表示することで、医師は、動画表示時のように再生中に絶えず画像を凝視するような束縛を受けることなく、短時間で病状を把握できるようになり、診断効率を向上させることができる。   Moreover, it may replace with the said moving image display, and may display the still image which colored the frame image of the predetermined timing on the said reference with the said moving image display. Alternatively, an image obtained by taking the AND and OR of the signal change inversion region for all frame images may be generated and displayed as a still image. By displaying still images in this way, doctors can grasp the medical condition in a short time without being constrained to stare at the images continuously during playback as in the case of moving images, improving diagnostic efficiency. Can be made.

また、ステップS17においては、静止画像を表示するだけでなく、更に以下の解析及び判定を行って、結果を静止画像と並べて表示してもよい。即ち、表示する静止画像において、信号変化反転領域を抽出し、肺野領域に対する信号変化反転領域の割合(=信号変化反転領域/肺野領域[%])を計算し、計算結果を静止画に並列して表示してもよい。更に、信号変化反転領域の割合を所定閾値と比較し、所定の閾値を越えているか否かに基づいて、肺野領域における呼吸機能が正常であるか異常であるかを判定し、判定結果を併せて表示するようにしてもよい。また、異常である場合は、閾値からの乖離の程度や異常個所(位置、分布、形状)等によって、例えば、肺気腫重症度I〜IVの5段階に分類、評価し、評価の結果等を静止画と並べて表示することとしてもよい。また、動画表示する場合においても、所定タイミングのフレーム画像や、全フレーム画像に対して信号変化反転領域のAND、ORをとった画像を用いて、上記の解析及び判定を行って、判定結果を動画と併せて表示することとしてもよい。   Further, in step S17, not only the still image but also the following analysis and determination may be performed, and the result may be displayed side by side with the still image. That is, in the still image to be displayed, the signal change inversion region is extracted, the ratio of the signal change inversion region to the lung field region (= signal change inversion region / lung field region [%]) is calculated, and the calculation result is converted into a still image. You may display in parallel. Further, the ratio of the signal change inversion region is compared with a predetermined threshold, and based on whether or not the predetermined threshold is exceeded, it is determined whether the respiratory function in the lung field region is normal or abnormal, and the determination result is It may be displayed together. In the case of abnormalities, for example, classification and evaluation are performed in five stages of pulmonary emphysema severity I to IV according to the degree of deviation from the threshold and abnormal location (position, distribution, shape), etc., and the results of the evaluation are stationary. The image may be displayed side by side with the image. In addition, when displaying a moving image, the above analysis and determination are performed using a frame image at a predetermined timing or an image obtained by ANDing or ORing a signal change inversion region with respect to all frame images, and the determination result is obtained. It is good also as displaying together with a moving image.

[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。
第2の実施の形態における構成は、第1の実施の形態において図1を用いて説明したものと同様であるので説明を援用する。第2の実施の形態では、診断用コンソール3における画像解析処理の内容が第1の実施の形態と異なるので、以下画像解析処理について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
Since the configuration of the second embodiment is the same as that described with reference to FIG. 1 in the first embodiment, the description is incorporated herein. In the second embodiment, since the contents of the image analysis process in the diagnostic console 3 are different from those in the first embodiment, the image analysis process will be described below.

診断用コンソール3においては、通信部35を介して撮影用コンソール2から動態画像の一連のフレーム画像が受信されると、制御部31と記憶部32に記憶されている画像解析処理プログラムとの協働により図7に示す画像解析処理(画像解析処理Bとする)が実行される。   When the diagnostic console 3 receives a series of frame images of the dynamic image from the imaging console 2 via the communication unit 35, it cooperates with the control unit 31 and the image analysis processing program stored in the storage unit 32. Accordingly, the image analysis process (referred to as image analysis process B) shown in FIG. 7 is executed.

画像解析処理Bは、図7に示すように、第1の実施の形態で説明した画像解析処理に対し、抽出された構造物領域の空間的な信号変化を低減する手段としてのステップS24の構造物減弱処理が追加されたものである。   In the image analysis process B, as shown in FIG. 7, the structure of step S24 as means for reducing the spatial signal change of the extracted structure region is compared with the image analysis process described in the first embodiment. Material attenuation processing is added.

画像解析処理Bにおいては、まず、図7のステップS21〜ステップS23の処理が実行される。ステップS21〜ステップS23の処理は図3のステップS11〜ステップS13で説明したものと同様であるので説明を援用する。   In the image analysis process B, first, the processes of steps S21 to S23 in FIG. 7 are executed. Since the process of step S21-step S23 is the same as that of what was demonstrated by step S11-step S13 of FIG. 3, description is used.

次いで、ワーピング後の各フレーム画像から、ステップS21で抽出された構造物による空間的な信号変化を減弱する構造物減弱処理が実行される(ステップS24)。
構造物減弱処理は、例えば、上述の公知文献2に記載のように、鎖骨/肋骨に相当する水平方向のエッジ成分を減弱(低減)することで、骨部の信号変化が低減された画像を生成する。具体的には、多重解像度分解で抽出した水平方向のエッジ成分の値をゼロにして再構成することで鎖骨/肋骨による陰影を除去した画像を生成することができる。
また、上述の公知文献3に記載のように、ニューラルネットワークで得られた骨部(鎖骨/肋骨)のみを抽出した画像を原画像から減算することで、骨部の陰影を除去した画像を生成することができる。このとき、肺野内位置合わせ、ワーピングは、このニューラルネットワークを用いた構造物減弱処理の後に行ってもよい。
Next, a structure attenuation process for attenuating a spatial signal change caused by the structure extracted in step S21 is executed from each frame image after warping (step S24).
In the structure attenuation process, for example, as described in the above-mentioned publicly known document 2, an image in which the signal change of the bone part is reduced by attenuating (reducing) the horizontal edge component corresponding to the clavicle / rib. Generate. Specifically, it is possible to generate an image from which shadows due to the clavicle / rib are removed by reconstructing the horizontal edge component value extracted by multi-resolution decomposition as zero.
In addition, as described in the above-mentioned known document 3, an image obtained by removing only the bone portion (clavicle / rib) obtained by the neural network is subtracted from the original image to generate an image in which the shadow of the bone portion is removed. can do. At this time, alignment and warping in the lung field may be performed after the structure attenuation processing using this neural network.

次いで、構造物減弱処理後の隣接フレーム間でフレーム間差分処理が行われる(ステップS25)。次いで構造物の移動による信号変化量が推定される(ステップS26)。ステップS26の処理は、図3のステップS15と同様の処理である。   Next, interframe difference processing is performed between adjacent frames after the structure attenuation processing (step S25). Next, a signal change amount due to the movement of the structure is estimated (step S26). The process of step S26 is the same process as step S15 of FIG.

次いで、構造物の移動領域の補正が行われる(ステップS27)。ここでは、ステップS26で推定された信号変化量が所定の閾値を越えた場合であって、更に、フレーム間差分画像の信号値(の絶対値)が所定閾値を越える領域の画素の信号値を、周辺画素の信号値で置き換える。信号値を置き換える具体的な手法は、図3のステップS16で説明したものと同様であるので説明を援用する。   Next, the moving region of the structure is corrected (step S27). Here, the signal change amount estimated in step S26 exceeds the predetermined threshold, and the signal value of the pixel in the region where the signal value (absolute value) of the inter-frame difference image exceeds the predetermined threshold is further calculated. Replace with signal values of peripheral pixels. The specific method for replacing the signal value is the same as that described in step S16 in FIG.

そして、構造物の移動による信号変化量が補正されたフレーム間差分画像に基づいて表示部34に診断支援情報が表示される(ステップS28)。診断支援情報の表示態様は、図3のステップS17で説明したものと同様であるので説明を援用する。   Then, the diagnosis support information is displayed on the display unit 34 based on the inter-frame difference image in which the signal change amount due to the movement of the structure is corrected (step S28). The display mode of the diagnosis support information is the same as that described in step S17 in FIG.

第2の実施の形態においては、構造物による空間的な信号変化を予め低減させておくものであるが、第1の実施の形態及び第2の実施の形態の何れにおいても、構造物の移動による信号変化が除去された、医師が肺野組織内の密度変化が表す局所的な換気異常状態を容易に把握することができる診断支援情報を提供することができる。   In the second embodiment, the spatial signal change due to the structure is reduced in advance, but in both the first embodiment and the second embodiment, the movement of the structure is performed. Thus, it is possible to provide diagnosis support information that allows the doctor to easily grasp the local abnormal ventilation state represented by the density change in the lung tissue, from which the signal change due to the above has been removed.

以上説明したように、診断用コンソール3によれば、制御部31は、胸部の動態を示す複数のフレーム画像のそれぞれから所定の構造物を示す構造物領域を抽出し、隣接するフレーム画像の上記抽出された構造物領域内の信号値に基づいて、各フレーム間における構造物の移動による信号変化量を推定する。また、複数のフレーム画像のそれぞれから肺野領域を抽出し、複数のフレーム画像間における肺野領域の位置合わせを行い、時間的に隣接するフレーム画像間で対応する画素の信号値の差分をとることによりフレーム間差分画像を生成する。そして、推定されたフレーム間の信号変化量が予め定められた閾値を越えている場合に、フレーム間差分画像における抽出された構造物領域に対応する領域の信号値を補正し、補正後のフレーム間差分画像を表示部34に動画表示または静止画表示する。   As described above, according to the diagnostic console 3, the control unit 31 extracts a structure region indicating a predetermined structure from each of a plurality of frame images indicating the dynamics of the chest, and the above-described adjacent frame images are described above. Based on the extracted signal value in the structure area, the signal change amount due to the movement of the structure between the frames is estimated. In addition, a lung field region is extracted from each of the plurality of frame images, the lung field region is aligned between the plurality of frame images, and the difference between the signal values of the corresponding pixels between temporally adjacent frame images is obtained. Thus, an inter-frame difference image is generated. When the estimated signal change amount between frames exceeds a predetermined threshold value, the signal value of the region corresponding to the extracted structure region in the inter-frame difference image is corrected, and the corrected frame The difference image is displayed on the display unit 34 as a moving image or a still image.

従って、複雑な装置構成とすることなく、画像処理により骨部等の構造物の移動による信号変化が除去された、肺野組織の密度変化を観察しやすい胸部動態画像を医師に提供することができる。その結果、診断効率の向上、診断精度の向上を図ることが可能となる。   Accordingly, it is possible to provide a doctor with a chest dynamic image that allows easy observation of changes in the density of lung field tissue in which signal changes due to movement of structures such as bones are removed by image processing without using a complicated apparatus configuration. it can. As a result, it is possible to improve diagnostic efficiency and diagnostic accuracy.

また、補正されたフレーム間差分画像から周囲との信号値の符号が逆転している領域を抽出し、当該抽出された領域の前記肺野領域に占める割合に基づいて前記肺野領域の呼吸機能が正常であるか否かを判定し、判定結果を表示部34に表示することで、医師に対して、更に診断に有用な情報を提供することが可能となる。   Further, a region where the sign of the signal value with the surroundings is reversed from the corrected inter-frame difference image, and the respiratory function of the lung field region based on the ratio of the extracted region to the lung field region By determining whether or not is normal and displaying the determination result on the display unit 34, it is possible to provide the doctor with more useful information for diagnosis.

なお、上記実施の形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態においては、鎖骨/肋骨を構造物とした場合を例にとり説明したが、これに限定されない。
また、例えば、上述の形態においては、隣接フレーム間でフレーム間差分画像を生成する例としたが、隣接フレーム間に限らず、複数フレーム離れた2フレーム間に対するフレーム間差分画像を生成するものとして、複数フレーム離れた2フレーム間に対して上記の構造物移動量算出以降の処理を行ってもよい。
In addition, the description content in the said embodiment is a suitable example of this invention, and is not limited to this.
For example, in the above embodiment, the case where the clavicle / rib is a structure has been described as an example, but the present invention is not limited to this.
In addition, for example, in the above-described form, an example is described in which an inter-frame difference image is generated between adjacent frames. However, the inter-frame difference image is generated not only between adjacent frames but also between two frames separated by a plurality of frames. The above-described processing after the structure movement amount calculation may be performed between two frames separated by a plurality of frames.

また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD-ROM等
の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。
For example, in the above description, an example in which a hard disk, a semiconductor non-volatile memory, or the like is used as a computer-readable medium of the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. Further, a carrier wave is also applied as a medium for providing program data according to the present invention via a communication line.

その他、動態画像診断支援システム100を構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the dynamic image diagnosis support system 100 can be changed as appropriate without departing from the spirit of the present invention.

100 動態画像診断支援システム
1 撮影装置
11 放射線源
12 放射線照射制御装置
13 放射線検出部
14 読取制御装置
2 撮影用コンソール
21 制御部
22 記憶部
23 操作部
24 表示部
25 通信部
26 バス
3 診断用コンソール
31 制御部
32 記憶部
33 操作部
34 表示部
35 通信部
36 バス
DESCRIPTION OF SYMBOLS 100 Dynamic image diagnosis support system 1 Imaging device 11 Radiation source 12 Radiation irradiation control device 13 Radiation detection part 14 Reading control device 2 Imaging console 21 Control part 22 Storage part 23 Operation part 24 Display part 25 Communication part 26 Bus 3 Diagnosis console 31 Control Unit 32 Storage Unit 33 Operation Unit 34 Display Unit 35 Communication Unit 36 Bus

Claims (5)

胸部の動態を示す複数のフレーム画像のそれぞれから所定の構造物を示す構造物領域を抽出する構造物抽出手段と、
前記複数のフレーム画像のそれぞれから肺野領域を抽出し、前記抽出された肺野領域における前記構造物領域以外の領域を用いて、前記複数のフレーム画像間における肺野領域の位置合わせを行う肺野位置合わせ手段と、
前記肺野領域の位置合わせ後の画像において、隣接するフレーム画像間での前記構造物の移動量を算出する構造物移動量算出手段と、
前記肺野位置合わせ後の時間的に隣接するフレーム画像間で対応する画素の信号値の差分をとることによりフレーム間差分画像を生成するフレーム間差分画像生成手段と、
前記構造物領域を前記構造物の移動量だけ移動させた画像と、元の前記構造物領域との差分画像を生成することにより、前記構造物の移動による信号変化量を推定する信号変化量推定手段と、
前記推定された信号変化量が予め定められた閾値を越えた場合に、前記フレーム間差分画像における前記抽出された構造物領域に対応する領域の信号値を、周囲画素の信号値で置き換えるか、もしくは、前記構造物の移動による信号変化量の推定値を差し引くことにより補正する補正手段と、
を備える動態画像処理装置。
A structure extraction means for extracting a structure region indicating a predetermined structure from each of a plurality of frame images indicating the dynamics of the chest;
A lung that extracts a lung field region from each of the plurality of frame images and uses the region other than the structure region in the extracted lung field region to perform alignment of the lung field region between the plurality of frame images. Field alignment means;
In the image after alignment of the lung field region, a structure movement amount calculation means for calculating the movement amount of the structure between adjacent frame images;
An inter-frame difference image generating means for generating an inter-frame difference image by taking a difference of signal values of corresponding pixels between temporally adjacent frame images after the lung field alignment;
Signal change amount estimation for estimating a signal change amount due to movement of the structure by generating a difference image between the image obtained by moving the structure region by the movement amount of the structure and the original structure region Means,
When the estimated signal change amount exceeds a predetermined threshold, the signal value of the region corresponding to the extracted structure region in the inter-frame difference image is replaced with the signal value of surrounding pixels, Alternatively, correction means for correcting by subtracting the estimated value of the signal change amount due to the movement of the structure ,
A dynamic image processing apparatus comprising:
前記複数のフレーム画像における前記抽出された構造物領域の空間的な信号変化を低減する手段を更に備える請求項1に記載の動態画像処理装置。   The dynamic image processing apparatus according to claim 1, further comprising means for reducing a spatial signal change of the extracted structure region in the plurality of frame images. 前記補正された前記フレーム間差分画像を動画表示または静止画表示する表示手段を備える請求項1又は2に記載の動態画像処理装置。   The dynamic image processing apparatus according to claim 1, further comprising display means for displaying the corrected inter-frame difference image as a moving image or a still image. 前記補正されたフレーム間差分画像から周囲との信号値の符号が逆転している領域を抽出し、当該抽出された領域の前記肺野領域に占める割合に基づいて前記肺野領域の呼吸機能が正常であるか否かを判定する判定手段を備え、
前記表示手段は、前記判定手段による判定結果を併せて表示する請求項3に記載の動態画像処理装置。
A region where the sign of the signal value of the surroundings is reversed is extracted from the corrected inter-frame difference image, and the respiratory function of the lung field region is based on the ratio of the extracted region to the lung field region. A determination means for determining whether or not it is normal;
The dynamic image processing apparatus according to claim 3, wherein the display unit also displays a determination result by the determination unit.
コンピュータを、
胸部の動態を示す複数のフレーム画像のそれぞれから所定の構造物を示す構造物領域を抽出する構造物抽出手段、
前記複数のフレーム画像のそれぞれから肺野領域を抽出し、前記抽出された肺野領域における前記構造物領域以外の領域を用いて、前記複数のフレーム画像間における肺野領域の位置合わせを行う肺野位置合わせ手段、
前記肺野領域の位置合わせ後の画像において、隣接するフレーム画像間での前記構造物の移動量を算出する構造物移動量算出手段、
前記肺野位置合わせ後の時間的に隣接するフレーム画像間で対応する画素の信号値の差分をとることによりフレーム間差分画像を生成するフレーム間差分画像生成手段、
前記構造物領域を前記構造物の移動量だけ移動させた画像と、元の前記構造物領域との差分画像を生成することにより、前記構造物の移動による信号変化量を推定する信号変化量推定手段、
前記推定された信号変化量が予め定められた閾値を越えた場合に、前記フレーム間差分画像における前記抽出された構造物領域に対応する領域の信号値を、周囲画素の信号値で置き換えるか、もしくは、前記構造物の移動による信号変化量の推定値を差し引くことにより補正する補正手段、
として機能させるためのプログラム。
Computer
A structure extraction means for extracting a structure region indicating a predetermined structure from each of a plurality of frame images indicating the dynamics of the chest;
A lung that extracts a lung field region from each of the plurality of frame images and uses the region other than the structure region in the extracted lung field region to perform alignment of the lung field region between the plurality of frame images. Field alignment means,
A structure movement amount calculating means for calculating a movement amount of the structure between adjacent frame images in the image after alignment of the lung field region;
An inter-frame difference image generating means for generating an inter-frame difference image by taking a difference between signal values of corresponding pixels between temporally adjacent frame images after the lung field alignment;
Signal change amount estimation for estimating a signal change amount due to movement of the structure by generating a difference image between the image obtained by moving the structure region by the movement amount of the structure and the original structure region means,
When the estimated signal change amount exceeds a predetermined threshold, the signal value of the region corresponding to the extracted structure region in the inter-frame difference image is replaced with the signal value of surrounding pixels, Or correction means for correcting by subtracting the estimated value of the signal change amount due to the movement of the structure ,
Program to function as.
JP2010138825A 2010-06-18 2010-06-18 Dynamic image processing apparatus and program Active JP5556413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010138825A JP5556413B2 (en) 2010-06-18 2010-06-18 Dynamic image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010138825A JP5556413B2 (en) 2010-06-18 2010-06-18 Dynamic image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2012000297A JP2012000297A (en) 2012-01-05
JP5556413B2 true JP5556413B2 (en) 2014-07-23

Family

ID=45532978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010138825A Active JP5556413B2 (en) 2010-06-18 2010-06-18 Dynamic image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5556413B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080866B2 (en) 2017-12-22 2021-08-03 Konica Minolta, Inc. Dynamic image processing method and dynamic image processing device

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5844239B2 (en) * 2012-09-28 2016-01-13 富士フイルム株式会社 Radiographic image processing apparatus, radiographic image capturing system, program, and radiographic image processing method
JP5928296B2 (en) * 2012-10-24 2016-06-01 株式会社島津製作所 X-ray fluoroscopic imaging apparatus and X-ray fluoroscopic imaging method
JP6253085B2 (en) * 2013-08-28 2017-12-27 国立大学法人金沢大学 X-ray moving image analysis apparatus, X-ray moving image analysis program, and X-ray moving image imaging apparatus
JP6361435B2 (en) * 2014-10-07 2018-07-25 コニカミノルタ株式会社 Image processing apparatus and program
WO2016168194A1 (en) 2015-04-13 2016-10-20 Case Western Reserve University Dual energy x-ray coronary calcium grading
JP6413927B2 (en) 2015-05-25 2018-10-31 コニカミノルタ株式会社 Dynamic analysis apparatus and dynamic analysis system
JP6790537B2 (en) * 2016-07-15 2020-11-25 コニカミノルタ株式会社 Dynamic analyzer
JP2018157884A (en) * 2017-03-22 2018-10-11 コニカミノルタ株式会社 X-ray moving image processing device
US10242446B2 (en) 2017-05-10 2019-03-26 Konica Minolta, Inc. Image processing apparatus and computer-readable recording medium
AU2019205878A1 (en) * 2018-01-05 2020-08-06 Mediott Co., Ltd. Diagnostic support program
KR101981202B1 (en) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 Method and apparatus for reconstructing medical image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3816156B2 (en) * 1996-07-24 2006-08-30 株式会社日立メディコ X-ray image processing apparatus
JP4250372B2 (en) * 2002-04-03 2009-04-08 キヤノン株式会社 Radiation imaging apparatus, radiation imaging method, radiation image system, program, and computer-readable storage medium
JP4493408B2 (en) * 2003-06-06 2010-06-30 富士フイルム株式会社 Image interpretation support method, apparatus and program
JP4570383B2 (en) * 2004-03-26 2010-10-27 株式会社日立メディコ Medical image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080866B2 (en) 2017-12-22 2021-08-03 Konica Minolta, Inc. Dynamic image processing method and dynamic image processing device

Also Published As

Publication number Publication date
JP2012000297A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
JP5556413B2 (en) Dynamic image processing apparatus and program
JP6436182B2 (en) Dynamic image analyzer
JP5874636B2 (en) Diagnosis support system and program
JP5962237B2 (en) Chest diagnosis support information generation method
JP5765343B2 (en) Chest diagnosis support system and program
JP6958202B2 (en) Dynamic image processing equipment and programs
JP2017200565A (en) Dynamic analysis apparatus and dynamic analysis system
JP6361435B2 (en) Image processing apparatus and program
WO2011092982A1 (en) Dynamic image processing system and program
JP6812685B2 (en) Dynamic analyzer
JP2010268979A (en) Moving image processor and program
JP2009153677A (en) Kinetic image processing system
JP2017169830A (en) Dynamic analysis apparatus
JP2020044445A (en) Dynamic analysis system, program, and dynamic analysis apparatus
JP5315686B2 (en) Dynamic image diagnosis support system
JP2019005417A (en) Dynamic image processing device and dynamic image processing system
JP7047806B2 (en) Dynamic analysis device, dynamic analysis system, dynamic analysis program and dynamic analysis method
JP2018175320A (en) Radiography system
JP7099086B2 (en) Dynamic image processing equipment and programs
JP6962030B2 (en) Dynamic analysis device, dynamic analysis system, dynamic analysis program and dynamic analysis method
JP7452078B2 (en) Image processing device, radiation imaging system and program
JP7255319B2 (en) Kinetic analysis device, dynamic analysis system and program
JP2010114613A (en) Dynamic image processing method, and dynamic image processing system
JP2020175227A (en) Dynamic image processing system
JP2020141841A (en) Dynamic analysis device and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140404

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R150 Certificate of patent or registration of utility model

Ref document number: 5556413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150