JP2021094219A - Image processing method, image processing device, and program - Google Patents
Image processing method, image processing device, and program Download PDFInfo
- Publication number
- JP2021094219A JP2021094219A JP2019227648A JP2019227648A JP2021094219A JP 2021094219 A JP2021094219 A JP 2021094219A JP 2019227648 A JP2019227648 A JP 2019227648A JP 2019227648 A JP2019227648 A JP 2019227648A JP 2021094219 A JP2021094219 A JP 2021094219A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- radiation detection
- predetermined structure
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 105
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 230000005855 radiation Effects 0.000 claims abstract description 201
- 238000012937 correction Methods 0.000 claims abstract description 169
- 238000010801 machine learning Methods 0.000 claims abstract description 52
- 238000001514 detection method Methods 0.000 claims description 141
- 238000000034 method Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 46
- 239000002131 composite material Substances 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 38
- 230000009467 reduction Effects 0.000 description 19
- 238000002156 mixing Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 9
- 239000000203 mixture Substances 0.000 description 8
- 238000003702 image correction Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000002601 radiography Methods 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000001066 destructive effect Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、画像処理方法、画像処理装置及びプログラムに関するものである。 The present invention relates to an image processing method, an image processing apparatus and a program.
近年、放射線検出装置(Flat Panel Detector)を用いて患者の全脊柱や全下肢等、単体の放射線検出装置の撮影可能範囲を超える比較的広い範囲を放射線撮影する撮影装置が知られている。
例えば、特許文献1及び特許文献2には、3つの放射線検出装置を体軸方向に並べた状態で装填することのできるホルダーを有する撮影台を用いて撮影を行う放射線画像撮影システムが開示されている。
In recent years, there have been known imaging devices that use a radiation detector (Flat Panel Detector) to radiograph a relatively wide range, such as the entire spinal column and all lower limbs of a patient, that exceeds the imaging range of a single radiation detector.
For example, Patent Document 1 and Patent Document 2 disclose a radiation imaging system that performs imaging using an imaging table having a holder capable of loading three radiation detecting devices in a state of being arranged in the body axis direction. There is.
また、このような撮影台を用いる場合、放射線を1回だけ照射して広範囲の撮影を行う1ショット撮影を行うことも可能である。
1ショット撮影では、放射線の照射回数が少ないことで被写体となる患者の負担を軽減することができるとともに、複数回に分けて撮影を繰り返す場合と比較して、広範囲を撮影する間に患者が動いてしまう体動の問題を回避することができるというメリットもある。
Further, when such an imaging table is used, it is also possible to perform one-shot imaging in which a wide range of imaging is performed by irradiating radiation only once.
In one-shot photography, the burden on the patient who is the subject can be reduced by reducing the number of irradiations, and the patient moves while taking a wide range of images compared to the case where the image is repeated in multiple times. There is also the merit of being able to avoid the problem of physical movement.
しかし、上記のような複数の放射線検出装置を使用する場合、放射線の検出領域に抜けを生じないように放射線検出装置の一部(例えば上下の端部)を重ね合わせてホルダー内に配置するようになっている。
このため、この重畳部分において放射線照射装置に近い手前側に配置された放射線検出装置の構造物等が放射線照射装置から遠い奥側に配置された放射線検出装置で得られる画像に写り込んでしまうという問題がある。
However, when using a plurality of radiation detection devices as described above, a part of the radiation detection devices (for example, upper and lower ends) should be overlapped and arranged in the holder so as not to cause omission in the radiation detection area. It has become.
Therefore, in this superposed portion, the structure of the radiation detection device arranged on the front side close to the radiation irradiation device is reflected in the image obtained by the radiation detection device arranged on the back side far from the radiation irradiation device. There's a problem.
この点、上記特許文献1及び特許文献2には、キャリブレーション用画像を用いたキャリブレーション補正を行うことで、画像に写り込んだ構造物の構造物成分を撮影された画像から除去することが提案されている。 In this regard, in Patent Document 1 and Patent Document 2, it is possible to remove the structural component of the structure reflected in the image from the photographed image by performing the calibration correction using the image for calibration. Proposed.
しかしながら、放射線検出装置に含まれる構造物等には、高コントラストを示すものがある。
このような特にコントラストの高い構造物については、キャリブレーション補正等の従来の補正処理を行っても構造物成分を画像から低減させ、又は除去することができない場合がある。
However, some structures and the like included in the radiation detection device show high contrast.
For such a structure having a particularly high contrast, it may not be possible to reduce or remove the structure component from the image even if a conventional correction process such as calibration correction is performed.
本発明は以上のような事情に鑑みてなされたものであり、撮影によって得られた画像に対して、特にコントラストの高い構造物についても構造物成分を適切に低減又は除去する補正処理を行うことができる画像処理方法、画像処理装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is necessary to perform a correction process on an image obtained by photographing to appropriately reduce or remove structural components even for a structure having a particularly high contrast. It is an object of the present invention to provide an image processing method, an image processing apparatus, and a program capable of performing the above.
請求項1記載の発明は、画像処理方法において、
放射線を検出する放射線検出装置を、その一部が重畳された状態で複数配置し被写体について撮影を行う場合に、
補正が必要な補正領域である前記放射線検出装置の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む前記補正領域について機械学習を用いて前記所定の構造物の構造物成分を低減させる補正処理を前記画像情報に対して行うことを特徴とする。
The invention according to claim 1 is an image processing method.
When multiple radiation detection devices that detect radiation are arranged in a state where some of them are superimposed and a subject is photographed.
The position of the pixel indicating the predetermined structure is specified from the image information of the image area of the superimposed portion of the radiation detection device, which is the correction area requiring correction, and the correction area including the pixel indicating the predetermined structure is provided. It is characterized in that a correction process for reducing a structural component of the predetermined structure is performed on the image information by using machine learning.
請求項7記載の発明は、画像処理装置であって、
請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を行う制御部を備えることを特徴とする。
The invention according to claim 7 is an image processing apparatus.
A control unit that performs image processing by the image processing method according to any one of claims 1 to 6 is provided.
請求項8記載の発明は、プログラムであって、
画像処理装置のコンピューターに、請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を実行させることを特徴とする。
The invention according to claim 8 is a program.
It is characterized in that a computer of an image processing apparatus is made to execute image processing by the image processing method according to any one of claims 1 to 6.
本発明のような画像処理を行うことで、撮影によって得られた画像に対して、特にコントラストの高い構造物についても構造物成分を適切に低減又は除去する補正処理を行うことが可能となる。 By performing image processing as in the present invention, it is possible to perform correction processing for appropriately reducing or removing structural components even for a structure having a particularly high contrast with respect to the image obtained by photographing.
以下、本発明に係る画像処理方法及び画像処理装置の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of the image processing method and the image processing apparatus according to the present invention will be described with reference to the drawings.
〔放射線画像撮影システムの全体構成〕
図1は、本実施形態に係る画像処理装置としてのコンソールが適用された放射線画像撮影システムの全体構成を示す図である。
図1に示すように、放射線画像撮影システム100は、撮影室R内に配置された撮影装置1と、図示しない前室等の撮影室R外に配置されたコンソール3とが通信ケーブル等により接続され、コンソール3と、画像解析装置5とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。放射線画像撮影システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
なお、以下の本実施形態では放射線画像撮影システム100が、図1に示すように1つの撮影室R内の撮影装置1とコンソール3とが1:1に対応付けられている場合について説明するが、放射線画像撮影システムの構成は図示例に限定されない。例えば、複数の撮影室Rを備え、それぞれに単数又は複数の撮影装置が配置され、これらと単数又は複数のコンソール3とがネットワークNT等を介して対応付けられている構成とすることも可能である。
[Overall configuration of radiation imaging system]
FIG. 1 is a diagram showing an overall configuration of a radiation imaging system to which a console as an image processing device according to the present embodiment is applied.
As shown in FIG. 1, in the radiation
In the following embodiment, the case where the radiographic image capturing
〔撮影装置の構成〕
撮影装置1は、ホルダー11Aを備える撮影台11と、放射線照射装置12とを備えている。
ホルダー11Aは内部に放射線検出装置10を装填するものであり、撮影台11はホルダー11A内の放射線検出装置10が被写体Mである患者を挟んで放射線照射装置12と対向するように配置される。
本実施形態において、撮影台11は、被写体Mである患者を撮影台11の前に立たせて撮影を行う立位撮影用であり、患者の頸椎から大腿骨辺りまでを1ショットで撮影を行うことができる1ショット長尺撮影用の撮影台となっている。
ここで1ショット撮影とは、放射線を1回照射することで撮影を行うことをいい、1ショット長尺撮影とは、複数の放射線検出装置10を組み合わせて、単体の放射線検出装置10では撮影することのできない広い範囲について、1回の放射線照射で撮影を行うことをいう。これによれば、広範囲を1回の放射線照射で撮影することができるため、被写体Mである患者への負担を最小限に抑えることができる。また、複数回に分けて撮影を繰り返す場合と比較して、広範囲を撮影する間に患者が動いて画像にずれやブレを生じてしまう体動の問題を回避することも可能である。
[Configuration of imaging device]
The photographing device 1 includes a photographing table 11 including the
The
In the present embodiment, the photographing table 11 is for standing photography in which the patient who is the subject M is made to stand in front of the photographing table 11 and photographed, and the patient's cervical spine to the femur area is photographed in one shot. It is a shooting stand for one-shot long shooting.
Here, one-shot photography means taking a picture by irradiating radiation once, and one-shot long-length photography means taking a picture with a single
本実施形態では、このような1ショット長尺撮影を行うために、撮影台11のホルダー11Aは複数の放射線検出装置10を装填可能に構成されている。
図1に示す例では、3つの放射線検出装置10(10a,10b,10c)が、その一部が重畳された状態で被写体Mである患者の体軸方向に並ぶようにしてホルダー11Aに装填されている。
具体的には、ホルダー11A内に、体軸方向のより下側に配置される放射線検出装置10(10b,10c)の方がより上側の放射線検出装置10(10a)よりも放射線照射装置12に近くなるように複数の放射線検出装置10の上下方向(図1の上下方向)の端部を重ね合わせた状態で装填される。
In the present embodiment, in order to perform such one-shot long imaging, the
In the example shown in FIG. 1, three radiation detection devices 10 (10a, 10b, 10c) are loaded into the
Specifically, the radiation detection device 10 (10b, 10c) arranged in the
図2は、図1において一点鎖線で囲んだ部分IIの拡大図であり、ホルダー11A内に配置された放射線検出装置10(図2では10aと10bの一部を図示)の要部を示す模式的な断面図である。
放射線検出装置10は、図2に示すように、筐体101内に検出部10sが収容されたFPD(Flat Panel Detector)等のパネル状の検出装置である。検出部10sは、半導体イメージセンサーにより構成され、例えばガラス基板等を有し、基板上の所定位置に、放射線照射装置12から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。FPDにはX線をシンチレーターを介して光電変換素子により電気信号に変換する間接変換型、X線を直接的に電気信号に変換する直接変換型があるが、いずれを用いてもよい。
FIG. 2 is an enlarged view of the portion II surrounded by the alternate long and short dash line in FIG. 1, and is a schematic showing a main part of the radiation detection device 10 (a part of 10a and 10b is shown in FIG. 2) arranged in the
As shown in FIG. 2, the
各放射線検出装置10(図2では10aと10b)は、放射線検出装置10aの下端部と放射線検出装置10bの上端部とが重なり合っている。このため、放射線検出装置10aの検出部10sによって検出される画像には、放射線検出装置10bの筐体101と検出部10sが幅Laの領域の分だけ写り込む。
1ショット長尺撮影で得られた画像を1枚の画像に合成する際には、この重なり合い部分(当該部分が、後述するように、重畳領域であり補正が必要とされる補正領域である。)に写り込んだ成分を補正によって低減・除去し、放射線検出装置10同士の繋ぎ目を目立たなくし、あたかも1枚の画像として撮影されたような仕上がりとすることが望まれる。
なお、この補正処理(画像処理)については後述する。
In each radiation detection device 10 (10a and 10b in FIG. 2), the lower end portion of the
When synthesizing an image obtained by one-shot long shooting into one image, this overlapping portion (the portion is a superimposition region and a correction region that needs to be corrected, as will be described later). ) Is reduced or removed by correction to make the joints between the
This correction process (image processing) will be described later.
なお、撮影台11のホルダー11Aは、3つの放射線検出装置10を装填可能なものに限定されない。例えば、2つや4つ以上の放射線検出装置10を装填可能に構成されていてもよい。
また、複数の放射線検出装置10の配置の仕方は図1や図2に示した例に限定されない。例えば、ホルダー11A内に、複数の放射線検出装置10(10a,10b,10c)が、放射線照射装置12に近い側と遠い側に交互に配置されるように装填する構成とすることも可能である。
さらに、図1では、1ショット長尺撮影用の撮影台11が、被写体Mである患者を撮影台11の前に立たせて撮影を行う立位撮影用である場合を図示しているが、撮影台11はこれに限定されない。例えば、1ショット長尺撮影用の撮影台11は、複数の放射線検出装置10(10a,10b,10c)が装填されたホルダー11Aが床面とほぼ平行に配置され、ホルダー11Aの上側となる板上に患者が横臥したり着座したりして撮影を行う臥位撮影用であってもよい。
The
Further, the method of arranging the plurality of
Further, FIG. 1 illustrates a case where the shooting table 11 for one-shot long shooting is for standing shooting in which the patient who is the subject M stands in front of the shooting table 11 for shooting. The
また、撮影台11には、読取制御装置15が設けられている。
読取制御装置15は、コンソール3から入力された各種の画像読取条件に基づいて放射線検出装置10の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出装置10に蓄積された電気信号を読み取ることで、画像データを取得する。
ここで、読取制御装置15は後述する放射線照射制御装置13と接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。
読取制御装置15は、コンソール3と接続されており、取得した画像をコンソール3に出力する。
Further, the photographing table 11 is provided with a
The
Here, the
The
放射線照射装置12は、被写体Mを挟んで放射線検出装置10(10a,10b,10c)がセットされた撮影台11と対向する位置に配置され、放射線照射制御装置13の制御に従って、図示しない放射線源から被写体Mの対象部位に対し放射線(X線)を照射する。
具体的には、放射線技師等の操作者が操作して放射線照射装置12に対して放射線の照射開始等を指示するための図示しない曝射スイッチが押下されると、この押下に応じてコンソール3が放射線照射制御装置13を制御し、放射線撮影を行わせる。
放射線照射制御装置13は、コンソール3と接続されており、コンソール3から入力された各種の放射線照射条件に基づいて放射線源を制御して放射線撮影を行う。コンソール3から入力される放射線照射条件は、例えば、X線管電流の値、X線管電圧の値、付加フィルター種等である。
本実施形態では長尺撮影を行うため、放射線照射装置12は、被写体Mである患者を介して、撮影台11のホルダー11Aに装填された複数の放射線検出装置10(10a,10b,10c)に同時に放射線を1回照射(すなわち1ショット)することができるようにいわゆる広角照射タイプのものが適用される。
The
Specifically, when an operator such as a radiologist operates an exposure switch (not shown) for instructing the
The radiation
In order to perform long-length imaging in the present embodiment, the
〔コンソールの構成〕
コンソール3は、放射線照射条件や画像読取条件を撮影装置1に出力し、撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御する撮影用のコンソールとして機能する。
また、本実施形態のコンソール3は、撮影装置1により取得された画像に各種の補正等を行う画像処理装置としても機能する。
コンソール3は、必要な補正等を行ったのち画像データを画像解析装置5に送信する。
[Console configuration]
The
In addition, the
The
コンソール3は、図3に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35等を備えて構成され、各部はバス36により接続されている。
As shown in FIG. 3, the
制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等により構成されるコンピューターである。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAMの作業領域内に展開し、展開されたプログラムに従って、後述する画像処理を始めとする各種処理を実行し、コンソール3各部の動作を集中制御する。
制御部31は、撮影装置1の撮影条件や読取条件等を設定する各種条件設定手段、表示部34を制御する表示制御手段、通信部35を制御する通信制御手段等として機能する。
また、特に本実施形態では、制御部31は、撮影装置1によって取得された画像データのうち、補正が必要な補正領域ArR(図4参照)である放射線検出装置10の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む補正領域について機械学習を用いて所定の構造物の構造物成分を画像情報から低減・除去する補正処理を行う補正手段として機能する。
なお、この補正処理(画像処理)については後述する。
The
The
Further, particularly in the present embodiment, the
This correction process (image processing) will be described later.
記憶部32は、不揮発性の半導体メモリーやハードディスク(HDD:Hard Disk Drive)等により構成される。記憶部32は、制御部31で画像処理(補正処理等)を実行するためのプログラムを始めとする各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。
The
操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えてもよく、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。
The operation unit 33 is configured to include a keyboard equipped with cursor keys, number input keys, various function keys, and a pointing device such as a mouse, and controls an instruction signal input by key operation on the keyboard or mouse operation. Output to 31. Further, the operation unit 33 may include a touch panel on the display screen of the
表示部34は、例えばLCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、各種表示を行う。
The
通信部35は、LANアダプターやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
図示を省略するが、コンソール3には、通信ネットワークNT等を介してHIS(Hospital Information System;病院情報システム)やRIS(Radiology Information System;放射線科情報システム)、PACS(Picture Archiving and Communication System)等が接続されている。
The
Although not shown, the
〔画像解析装置の構成〕
画像解析装置5は、例えば、画像による診断等を行う医師等が用いるコンピューター装置である。
画像解析装置5は、図示しない制御部、記憶部、操作部、表示部、通信部等を備え、コンソール3から送信された画像について各種解析等を行うことにより、被写体M(患者)の各部位(撮影対象部位)に病変等があるか否かを医師が判断する際にこれを支援したり、診断結果を患者に示し、説明等を行うための表示等を行う。
[Configuration of image analyzer]
The
The
なお、本実施形態では、コンソール3が撮影に関する各種指示等を撮影装置1に対して行うとともに、撮影装置1によって取得された画像データに各種の補正を行い、複数の放射線検出装置10(10a,10b,10c)により取得された画像データを1つの画像に合成する等の画像処理を行う画像処理装置としても機能する場合を例として説明するが、放射線画像撮影システムはこのような構成に限定されない。
例えば、コンソール3が撮影用のコンソールとして、撮影に関する各種指示等を撮影装置1に対して行うにとどまるものとしてもよい。
この場合には、撮影装置1の複数の放射線検出装置10(10a,10b,10c)によって取得された画像データをコンソールが受け取って、コンソールとは別体の画像処理装置に送信し、画像処理装置側において画像データに各種の補正等を行う。
なお、画像解析を行う画像解析装置が画像処理装置として機能してもよい。この場合には、画像解析装置が、画像データに各種の補正を行い、補正後の画像データを1つの画像に合成する等の画像処理を行った上で各種の画像解析を行うようにしてもよい。
In the present embodiment, the
For example, the
In this case, the console receives the image data acquired by the plurality of radiation detection devices 10 (10a, 10b, 10c) of the photographing device 1 and transmits the image data to an image processing device separate from the console, and the image processing device. Various corrections are made to the image data on the side.
An image analysis device that performs image analysis may function as an image processing device. In this case, the image analysis device may perform various corrections on the image data, perform image processing such as synthesizing the corrected image data into one image, and then perform various image analysis. Good.
[1ショット長尺撮影の際に放射線画像撮影システムで行われる各処理について]
1ショット長尺撮影の際に、コンソール3や、撮影台11のホルダー11Aに装填された各放射線検出装置10(10a,10b,10c)等における撮影時の各処理(すなわち放射線照射装置12からの放射線の照射前後に行われる処理やその後の画像データの読み出し処理等の各処理)は、基本的に単純撮影の場合と同様であり、公知の処理であるから説明を省略する。
[About each process performed by the radiation imaging system when taking a long shot of one shot]
At the time of one-shot long shooting, each process at the time of shooting (that is, from the radiation irradiation device 12) in each of the radiation detection devices 10 (10a, 10b, 10c) loaded in the
そして、コンソール3は、放射線検出装置10(10a,10b,10c)からそれぞれ画像データDや、各放射線検出素子内で発生する暗電荷(暗電流等ともいう。)に起因するオフセット分に相当するオフセットデータOが転送されてくると、それに基づいて下記の式(1)に従って放射線検出装置10(10a,10b,10c)の各放射線検出素子ごとに画像データDからオフセットデータOを減算して真の画像データD*を算出し、算出した真の画像データD*に対してゲイン補正や欠陥画素補正、撮影部位に応じた階調処理等の精密な画像処理を行って放射線検出装置10(10a,10b,10c)ごとにそれぞれ画像を生成する。
D*=D−O …(1)
The
D * = DO ... (1)
なお、以下、上記のように放射線検出装置10で得られた画像データD等に基づいて生成された画像を、放射線検出装置10で得られた画像Pという(なお、図4において、放射線検出装置10aで得られた画像を「画像P1」、放射線検出装置10bで得られた画像を「画像P2」としている)。
また、上記の時点では、図4に示すように、上記のようにして生成された放射線検出装置10a,10b等で得られた各画像P1,P2等のうち、ホルダー11A内で後方(放射線照射装置12から遠い方)の放射線検出装置10aで得られた画像P1中であって、放射線検出装置10同士の重畳領域である補正領域ArR(図4参照)には、前方(放射線照射装置12から近い方)の放射線検出装置10bの筐体101や内部構造のエッジ部分等の直線状の構造に起因する横スジ状のスジ成分、前方の放射線検出装置10bの筐体101内部の各種構造物に起因する構造物成分C等が写り込んでいる。
Hereinafter, the image generated based on the image data D or the like obtained by the
Further, at the above time point, as shown in FIG. 4, of the images P1, P2, etc. obtained by the
すなわち、本実施形態に係る撮影台11のホルダー11A内では、各放射線検出装置10は、図2に示すように、例えば前方下側の放射線検出装置10bの上端部分と後方上側の放射線検出装置10aの下端部分とが前後方向に重なり合っている。
そのため、後方上側の放射線検出装置10aで得られた画像P1の下端部分に、前方の放射線検出装置10bの筐体101の上端部分や検出部10sの上端の辺部分等に起因するスジ成分や、前方の放射線検出装置10bの検出部10sに取り付けられている図示しない回路基板上に実装されている各種電子部品等の筐体101内部の構造物に起因する構造物成分Cが写り込んでいる。
構造物成分Cとは、このように筐体101内部に実装された電子部品等の各種構造物が放射線の透過に影響を与えることによって画像Pに現れるものであり、図4等において白く写り込んでいるものをいう。
このような放射線検出装置10同士の重畳領域(図2において幅Laで示す幅の領域)は、補正処理を行う必要のある補正領域ArRとされる。
That is, in the
Therefore, in the lower end portion of the image P1 obtained by the
The structure component C appears in the image P when various structures such as electronic components mounted inside the
Such an overlapping region between the radiation detection devices 10 (a region having a width indicated by the width La in FIG. 2) is a correction region ArR that needs to be corrected.
また、この補正領域ArR内に移り込んでいる構造物には、所定値以上の高コントラストを示す「所定の構造物」が含まれている場合がある。図4等において、この所定の構造物の構造物成分を「構造物成分Cs」とする。
ここで所定の構造物とは、例えば金属製のねじ等である。
所定値以上の高コントラストという場合に、どの程度の値を所定値とするかは、適宜設定可能な事項である。所定値は、デフォルトで予め設定されていてもよいし、事後的にユーザー等が設定又は変更することができるようになっていてもよい。
このように「構造物成分Cs」とは、筐体101に設けられたねじ等、所定値以上の高コントラストを示す「所定の構造物」が放射線の透過に影響を与えることによって画像Pに現れるものであり、図4等において白く写り込んでいるものをいう。
Further, the structure that has moved into the correction region ArR may include a "predetermined structure" that exhibits a high contrast of a predetermined value or more. In FIG. 4 and the like, the structural component of this predetermined structure is referred to as “structural component Cs”.
Here, the predetermined structure is, for example, a metal screw or the like.
In the case of high contrast of a predetermined value or more, how much value should be set as a predetermined value is a matter that can be appropriately set. The predetermined value may be preset by default, or may be set or changed by the user or the like after the fact.
As described above, the "structure component Cs" appears in the image P when the "predetermined structure" showing a high contrast of a predetermined value or more, such as a screw provided in the
[本実施形態における画像処理(画像補正)方法について]
本実施形態に係る放射線画像撮影システム100では、撮影台11のホルダー11Aに装填された各放射線検出装置10(10a,10b,10c)で得られた画像Pから構造物成分C、所定の構造物の構造物成分Cs等を画像情報から低減・除去する画像補正処理が、画像処理装置として機能するコンソール3(コンソール3の制御部31)において行われる。
[About the image processing (image correction) method in this embodiment]
In the
以下、画像補正処理について、図5及び図6等を参照しつつ説明する。
図5は、本実施形態における画像補正処理の概要を示すフローチャートである。また、図6は、図5におけるステップS3「所定の構造物の構造物成分の低減・除去処理」の内容をさらに詳細に示したフローチャートである。
Hereinafter, the image correction process will be described with reference to FIGS. 5 and 6 and the like.
FIG. 5 is a flowchart showing an outline of the image correction process in the present embodiment. Further, FIG. 6 is a flowchart showing the contents of step S3 “reduction / removal processing of structural components of a predetermined structure” in FIG. 5 in more detail.
まず、画像処理装置としてのコンソール3では、各放射線検出装置10(10a,10b,10c)で得られた画像Pについてキャリブレーション補正を行う(図5のステップS1,S2参照)。
キャリブレーション補正は、予め取得されたキャリブレーション用画像Pcal(図7参照)を用いて行われる。
このキャリブレーション用画像Pcalは、各放射線検出装置10(10a,10b,10c)を撮影台11のホルダー11A内に装填し、被写体Mである患者が介在しない状態で放射線照射装置12から放射線を照射して撮影されたものである。
キャリブレーション用画像Pcalは、各放射線検出装置10(10a,10b,10c)で得られた画像データ等に基づいて、上記の画像Pの生成処理と同様の処理により生成される。
First, in the
The calibration correction is performed using a pre-acquired calibration image Pcal (see FIG. 7).
In this calibration image Pcal, each radiation detection device 10 (10a, 10b, 10c) is loaded in the
The calibration image Pcal is generated by the same process as the above-mentioned image P generation process based on the image data or the like obtained by each radiation detection device 10 (10a, 10b, 10c).
例えば、放射線検出装置10の工場出荷時や、放射線検出装置10の病院等の施設への導入時等に、当該放射線検出装置10に関するキャリブレーション用画像Pcalを予め取得しておく。なお、キャリブレーション用画像Pcalは撮影ごとに撮影前に取得したり、定期的に取得するように構成することも可能である。
キャリブレーション用画像Pcalは、これが取得された放射線検出装置10の情報等をヘッダー情報として書き込む等により当該放射線検出装置10との対応付けがなされた状態で、コンソール3の記憶部32や図示しないサーバー等の記憶手段のデータベース等に予め記憶される。
For example, when the
The calibration image Pcal is associated with the
本実施形態では、放射線検出装置10aがホルダー11A内の最も後方位置(放射線照射装置12から離れた位置)に配置され、放射線検出装置10b,10cが順次それぞれ一部が重なるようにして前方位置(放射線照射装置12に近い位置)に配置された状態(図1参照)で1ショット長尺撮影が行われるようになっており、キャリブレーション用画像Pcalを取得する際にも、同様の配置となるように各放射線検出装置10(10a,10b,10c)を撮影台11のホルダー11A内に装填して撮影を行う。
これにより、後方に配置された放射線検出装置10aで得られたキャリブレーション用画像Pcalには構造物成分C、所定の構造物の構造物成分Cs等が写り込む(図7参照)。
In the present embodiment, the
As a result, the structure component C, the structure component Cs of a predetermined structure, and the like are reflected in the calibration image Pcal obtained by the
なお、放射線検出装置10の種類・構造によって、画像P(またキャリブレーション用画像Pcal)に写り込む成分も異なる。また、複数の放射線検出装置10(10a,10b,10c)をどのような配置で撮影台11のホルダー11A内に装填するか、各放射線検出装置10の重畳位置や重畳の前後関係(放射線照射装置12からの放射線の照射方向における前後関係)によっても画像P(またキャリブレーション用画像Pcal)に写り込む成分、写り込み方が異なる。
適切にキャリブレーション補正を行うためには、実際に被写体Mを撮影した際と同様の種類の放射線検出装置10によって同様の配置(重ね合わせ方等)で撮影が行われたキャリブレーション用画像Pcalを用いることが重要となる。
The components reflected in the image P (also the calibration image Pcal) differ depending on the type and structure of the
In order to properly perform calibration correction, a calibration image Pcal shot in the same arrangement (superimposition method, etc.) by the
このため、本撮影(被写体Mを配置しての撮影)で得られた画像P(補正領域ArRの画像Pa)に対してキャリブレーション補正を行う場合には、例えば、撮影台11のホルダー11Aに装填された放射線検出装置10の種類や各放射線検出装置10の装填位置等を示す情報を、放射線技師等の操作者が、画像処理装置としてのコンソール3に入力し、本撮影の際に、当該撮影時の各種情報とキャリブレーション用画像Pcalのヘッダー情報とが合致するように調整することが好ましい。
Therefore, when performing calibration correction on the image P (image Pa of the correction area ArR) obtained in the main shooting (shooting with the subject M arranged), for example, in the
具体的には、図5に示すように、まず、コンソール3の制御部31は、補正に用いるキャリブレーション用画像Pcalを記憶部32等から読み出し、キャリブレーション用画像Pcalのヘッダー等に書き込まれているキャリブレーション撮影時の各放射線検出装置10の重なり具合(図2の幅La等)の情報等と実際に1ショット長尺撮影を行った際の各放射線検出装置10の重なり具合(図2の幅La等)の情報等に基づいて、キャリブレーション用画像Pcalの位置が画像P(例えば放射線検出装置10aによって取得された画像P1)の位置に合うように位置を調整する。
また、コンソール3の制御部31は、キャリブレーション用画像Pcalの撮影時の各種情報と実際の1ショット長尺撮影時(本撮影時)の各種情報に基づいて、キャリブレーション用画像Pcalの拡大率が画像P(画像P1)の拡大率に合うように拡大率を調整する(ステップS1)。
Specifically, as shown in FIG. 5, first, the
Further, the
キャリブレーション用画像Pcalの位置及び拡大率が調整されたら、当該調整後のキャリブレーション用画像Pcalを用いて、実際に1ショット長尺撮影を行った際に各放射線検出装置10(ここでは特に放射線検出装置10a)によって取得された画像P(例えば放射線検出装置10aによって取得された画像P1)についてキャリブレーション補正を行う(ステップS2)。
After the position and magnification of the calibration image Pcal are adjusted, each radiation detection device 10 (here, in particular, radiation) is used when the one-shot long image is actually taken using the adjusted calibration image Pcal. Calibration correction is performed on the image P (for example, the image P1 acquired by the
図7はキャリブレーション補正を模式的に示した説明図である。
なお、図7では、画像P中における、放射線検出装置10同士の重畳領域である補正領域ArR(図4における補正領域ArR。すなわち図2において幅Laの部分に相当する領域)に対応する画像Paと、キャリブレーション用画像Pcal中であって当該画像Paに対応する領域のみを図示している。キャリブレーション補正は、放射線検出装置10同士の重畳領域である補正領域ArRに限定されず、画像P全補正画像PCを生成してもよいが、特の補正が必要とされる放射線検出装置10同士の重畳領域(補正領域ArR)を特定して、この範囲について補正を行う方が効果的・効率的であり、望ましい。
FIG. 7 is an explanatory diagram schematically showing the calibration correction.
In FIG. 7, the image Pa corresponding to the correction region ArR (correction region ArR in FIG. 4, that is, the region corresponding to the portion of the width La in FIG. 2), which is a superposition region between the
キャリブレーション補正では、コンソール3の制御部31は、画像P1(補正領域ArRの画像Pa)のうち、前方に配置された放射線検出装置10bの構造物(例えば基板上のIC等)が写り込んでいるために画素値が小さくなっている画素部分(すなわち構造物成分Cが写り込んでいる部分)の画素値fを適切に嵩上げして画像補正することで、画像P1(補正領域ArRの画像Pa)中から構造物成分Cを低減・除去するようになっている。
In the calibration correction, the
具体的には、補正前の画像Pの各画素(x,y)の画素値をf(x,y)、キャリブレーション画像Pcalの画素値のコントラストの値をk(x,y)、補正係数をA(x,y)、補正後の画像Pの画素値をg(x,y)とすると、コンソール3の制御部31は、各画素(x,y)についてそれぞれ下記の式(2)に従って画素値g(x,y)を算出する。なお、補正係数Aは、所定の手法にて画素ごとに算出・推定されるものである。
g(x,y)=f(x,y)+A(x,y)×k(x,y) …(2)
これにより、画像Pに写り込んでいた構造物成分C等が画像情報から低減・除去された、キャリブレーション補正の補正結果としての補正画像PCが生成される(図7参照)。
このように、構造物成分C等を低減・除去する低減・除去処理とは、電子部品等の各種構造物が放射線の透過に影響を与えることによって画素値が小さくなっている画素部分の画素値fを適切に嵩上げして画像Pの画像情報を補正することにより、図4等において白く見えていた写り込みを画像Pから低減させることをいう。なお、「低減・除去」とした場合、及び単に「低減」とした場合にも、画像上目立たなくするレベルから完全に取り除く(除去・消去する)場合までを含むものとする。
なお、キャリブレーション補正に関する各処理は、基本的に単純撮影において行われる処理と同様であり、公知の処理であるから詳細な説明を省略する。
Specifically, the pixel value of each pixel (x, y) of the image P before correction is f (x, y), the contrast value of the pixel value of the calibration image Pcal is k (x, y), and the correction coefficient. Is A (x, y), and the pixel value of the corrected image P is g (x, y). Then, the
g (x, y) = f (x, y) + A (x, y) x k (x, y) ... (2)
As a result, a corrected image PC as a correction result of the calibration correction is generated in which the structure component C and the like reflected in the image P are reduced / removed from the image information (see FIG. 7).
In this way, the reduction / removal process of reducing / removing the structure component C or the like is the pixel value of the pixel portion where the pixel value is reduced due to the influence of various structures such as electronic components on the transmission of radiation. By appropriately raising f and correcting the image information of the image P, it means that the reflection that appears white in FIG. 4 and the like is reduced from the image P. It should be noted that the case of "reduction / removal" and the case of simply "reduction" also include the case of completely removing (removing / erasing) from the level that makes the image inconspicuous.
It should be noted that each process related to the calibration correction is basically the same as the process performed in the simple photographing, and since it is a known process, detailed description thereof will be omitted.
しかし、所定値以上の高コントラストの値を持つ所定の構造物(例えば、ねじ等)については、上記のような通常のキャリブレーション補正を行うのみでは当該構造物の構造物成分Csを効果的に低減・除去することが難しい。
すなわち、上記のように、既存のキャリブレーション補正では、補正前の画像Pの画素値fに対してキャリブレーション画像Pcalの画素値のコントラストの値kに補正係数Aを乗じたものを加算して最終的に補正後の画像PCを得る。
However, for a predetermined structure (for example, a screw or the like) having a high contrast value equal to or higher than a predetermined value, the structure component Cs of the structure can be effectively obtained only by performing the usual calibration correction as described above. Difficult to reduce / remove.
That is, as described above, in the existing calibration correction, the pixel value f of the image P before correction is added by multiplying the contrast value k of the pixel value of the calibration image Pcal by the correction coefficient A. Finally, the corrected image PC is obtained.
ここで補正箇所のコントラストの値kが小さい場合には、推定された補正係数Aに多少の誤差があっても最終的な補正後の画素値gの値にあまり差が出ない。このため、診断用の画像として気にならない程度の仕上がりの画像PC(キャリブレーション補正の結果画像)を得ることができる。
しかし、補正箇所のコントラストの値kが大きい場合(高コントラストの場合)には、補正係数Aに多少でも誤差があると最終的な補正後の画素値gの値に大きな差が生じてしまい、補正係数Aには高い精度が要求される。
このため、補正係数Aの推定精度によっては、補正後の画素値gに高コントラストを示す所定の構造物(例えばねじ等)の構造物成分Csを最終的な画像PC(画像情報)から効果的に低減・除去することができず、残ってしまう場合がある。
Here, when the contrast value k of the correction portion is small, even if there is some error in the estimated correction coefficient A, there is not much difference in the value of the final corrected pixel value g. Therefore, it is possible to obtain an image PC (image as a result of calibration correction) having a finish that is not noticeable as a diagnostic image.
However, when the contrast value k of the correction portion is large (in the case of high contrast), if there is even a slight error in the correction coefficient A, a large difference will occur in the final corrected pixel value g value. High accuracy is required for the correction coefficient A.
Therefore, depending on the estimation accuracy of the correction coefficient A, the structure component Cs of a predetermined structure (for example, a screw or the like) showing high contrast to the corrected pixel value g can be effectively obtained from the final image PC (image information). It may not be possible to reduce or remove it, and it may remain.
そこで、本実施形態における画像処理装置であるコンソール3の制御部31では、さらに所定の構造物の構造物成分Csを低減・除去する処理を行うようになっている(ステップS3)。
構造物成分Csを除去する除去処理とは、ねじ等の所定値以上の高コントラストを示す「所定の構造物」が放射線の透過に影響を与えることによって画素値が小さくなっている画素の位置を特定して画像Pの画像情報を補正することにより、図4等において白く見えていた写り込みを画像Pから低減させることをいう。なお、ここで「低減・除去」とした場合、及び単に「低減」とした場合にも、画像上目立たなくするレベルから完全に取り除く(除去・消去する)場合までを含むものとする。
具体的には以下のような処理を行う。
Therefore, the
The removal process for removing the structure component Cs is the position of a pixel whose pixel value is reduced due to the influence of a "predetermined structure" such as a screw showing a high contrast of a predetermined value or more on the transmission of radiation. By specifying and correcting the image information of the image P, it means that the reflection that appears white in FIG. 4 and the like is reduced from the image P. It should be noted that the case of "reduction / removal" and the case of simply "reduction" also include the case of completely removing (removing / erasing) from the level of making the image inconspicuous.
Specifically, the following processing is performed.
すなわち、所定の構造物の構造物成分Csの除去処理では、まず、図6及び図8に示すように、まず、画像P中、放射線検出装置10同士の重畳部分である補正領域ArRに対応する画像を画像Paとし、この補正領域ArR内の画像Paから高周波成分を抽出する(ステップS11)。
具体的には、画像Paに対して横方向にガウシアンフィルターを適用するフィルター処理を行い、低周波成分が抽出されたフィルター処理後の画像Pbを得る。
そして、元の画像Paからこのフィルター処理後の画像Pb(低周波成分を示す画像)を減算処理して差分を求めることにより、高周波成分を抽出する(図8において、高周波成分を示す画像を画像Pcとする)。
That is, in the removal process of the structural component Cs of the predetermined structure, first, as shown in FIGS. 6 and 8, first, in the image P, the correction region ArR which is the overlapping portion between the
Specifically, the image Pa is subjected to a filter process in which a Gaussian filter is applied in the horizontal direction to obtain an image Pb after the filter process from which low-frequency components are extracted.
Then, the high-frequency component is extracted by subtracting the filtered image Pb (image showing the low-frequency component) from the original image Pa to obtain the difference (in FIG. 8, the image showing the high-frequency component is imaged. Let it be Pc).
次に、画像Pcから特に高コントラストの値を示す所定の構造物(例えばねじ等)の位置を特定、検出し(ステップS12)、当該所定の構造物(例えばねじ等)及びその周辺の画像を抽出する(図8において、抽出画像を画像Pdとする)。 Next, the position of a predetermined structure (for example, a screw or the like) showing a particularly high contrast value is specified and detected from the image Pc (step S12), and an image of the predetermined structure (for example, a screw or the like) and its surroundings is obtained. Extract (in FIG. 8, the extracted image is referred to as image Pd).
所定の構造物の位置を特定、検出する手法は特に限定されないが、例えば、キャリブレーション補正を行うことで得られたキャリブレーション画像(図7の画像PC)に基づいて所定の構造物を示す画素の位置を特定してもよい。
この場合には、キャリブレーション画像(画像PC)にガウシアンフィルターを適用し、フィルター処理後の画像(低周波成分を示す画像)と元のキャリブレーション画像(画像PC)との差分を取ることにより高周波成分を抽出する。
The method for specifying and detecting the position of a predetermined structure is not particularly limited, but for example, a pixel showing a predetermined structure based on a calibration image (image PC in FIG. 7) obtained by performing calibration correction. The position of may be specified.
In this case, a Gaussian filter is applied to the calibrated image (image PC), and the difference between the filtered image (image showing low frequency components) and the original calibrated image (image PC) is taken to obtain a high frequency. Extract the ingredients.
ここで「所定の構造物の構造物成分の低減・除去処理」において低減・除去処理の対象とされるねじ等の所定の構造物は、所定値以上の高いコントラストの値を持つ構造物である。このため、制御部31は、高周波成分を抽出することで特定された構造物が予め設定された一定の閾値に照らして「所定の構造物」に該当するか否かを判断する閾値処理を行う。
これによりキャリブレーション画像(画像PC)中のどの位置に所定の構造物の構造物成分Csが写り込んでいるかを特定する。同様に実際の撮影画像(画像P)についてもガウシアンフィルターを適用し、フィルター処理後の画像(低周波成分を示す画像)と元の撮影画像(画像P)との差分を取ることにより高周波成分を抽出する。さらに実際の撮影画像(画像P)にキャリブレーション画像(画像PC)を重ね合わせることで、構造物成分Csが写り込んでいる位置のおよその位置を特定することができる。
Here, the predetermined structure such as a screw, which is the target of the reduction / removal treatment in the "reduction / removal treatment of the structural component of the predetermined structure", is a structure having a high contrast value equal to or higher than the predetermined value. .. Therefore, the
Thereby, it is specified at which position in the calibration image (image PC) the structural component Cs of the predetermined structure is reflected. Similarly, a Gaussian filter is applied to the actual captured image (image P), and the high frequency component is obtained by taking the difference between the filtered image (image showing the low frequency component) and the original captured image (image P). Extract. Further, by superimposing the calibration image (image PC) on the actual photographed image (image P), it is possible to specify the approximate position of the position where the structure component Cs is reflected.
ただ、重ね合わせの位置がずれた場合、1mm程度ずれただけでも5画素程度のずれとなる。また放射線の照射される角度等、各種条件でも撮影画像(画像P)に写り込む構造物成分Csの位置が異なってしまう可能性がある。このため、構造物成分Csが写り込んでいる位置と思われる位置の周辺領域でテンプレートマッチングを行い、キャリブレーション画像(画像PC)中で検出された構造物成分Csの位置が実際の撮影画像(画像P)のどこにあたるかを正確に特定することが好ましい。テンプレートマッチングを行う場合における疑似度は、例えば正規化相関関数により算出することができる。
なお、高周波成分を抽出する前提として低周波成分を抽出するために適用するフィルターはガウシアンフィルターに限定されない。また、実際の撮影画像(画像P)における構造物成分Csの位置を正確に特定する手法は、テンプレートマッチングに限定されない。
また、所定の構造物に該当するか否かを判断するための閾値をどの程度とするかについては、適宜設定可能な事項である。低減・除去したい構造物に応じて適宜閾値を変更してもよい。
However, when the superposition position is deviated, even if the deviating position is about 1 mm, the deviation is about 5 pixels. Further, the position of the structural component Cs reflected in the photographed image (image P) may be different depending on various conditions such as the irradiation angle of radiation. Therefore, template matching is performed in the peripheral area of the position where the structure component Cs is reflected, and the position of the structure component Cs detected in the calibration image (image PC) is the actual photographed image (image PC). It is preferable to accurately identify where in the image P). The pseudo degree in the case of template matching can be calculated by, for example, a normalization correlation function.
The filter applied to extract the low frequency component as a premise for extracting the high frequency component is not limited to the Gaussian filter. Further, the method of accurately specifying the position of the structure component Cs in the actual photographed image (image P) is not limited to template matching.
In addition, the threshold value for determining whether or not the structure corresponds to a predetermined structure is a matter that can be appropriately set. The threshold value may be appropriately changed according to the structure to be reduced / removed.
次に、画像推定フィルターF(図9参照)を適用して所定の構造物の画像を生成する(ステップS13)。本実施形態において画像推定フィルターFは、機械学習によって得られるものである。
ここで、画像推定フィルターFを得るための機械学習について図9を参照しつつ説明する。
図9では、例えば人体模型のようなファントムを用いて学習データを作成した場合を例示している。なお、学習データはファントムを用いて作成されたものに限定されず、実際に人を被写体として配置し、撮影を行って作成してもよい。
Next, an image estimation filter F (see FIG. 9) is applied to generate an image of a predetermined structure (step S13). In the present embodiment, the image estimation filter F is obtained by machine learning.
Here, machine learning for obtaining the image estimation filter F will be described with reference to FIG.
FIG. 9 illustrates a case where learning data is created using a phantom such as a human body model. The learning data is not limited to the one created by using the phantom, and may be created by actually arranging a person as a subject and taking a picture.
図9において、画像PFは、複数の放射線検出装置10を撮影台11のホルダー11A内に装填した状態でファントムを撮影した画像であり、画像PF中、放射線検出装置10同士の重畳部分である補正領域ArRに対応する画像を画像PFaとする。
また画像PFbは、画像PFaに横方向にガウシアンフィルターを適用したものであり、このフィルター処理後の画像PFb(低周波成分を示す画像)を元の画像PFaから減算して差分を求めることにより高周波成分を抽出する(高周波成分を示す画像PFc)。画像PFcから特に高コントラストの値を示す所定の構造物(例えばねじ等)及びその周辺を抽出する(抽出画像を画像PFdとする)。
In FIG. 9, the image PF is an image obtained by photographing a phantom with a plurality of
Further, the image PFb is an image PFa to which a Gaussian filter is applied in the horizontal direction, and the image PFb (an image showing a low frequency component) after the filter processing is subtracted from the original image PFa to obtain a high frequency. Extract the components (image PFc showing high frequency components). A predetermined structure (for example, a screw or the like) showing a particularly high contrast value and its surroundings are extracted from the image PFc (the extracted image is referred to as an image PFd).
なお、このような抽出画像を用いる場合、通常は入力前に抽出された画像全体の標準偏差により正規化が行われる。ただ、本実施形態の画像PFd(図8における画像Pdも同様)においては、高コントラストを示す所定の構造物(例えばねじ等)の構造物成分Csのコントラストを優先させるために、画像全体ではなく、画像PFd(画像Pdも同様)の中央部、すなわちねじ等の所定の構造物周辺の小領域から求められた標準偏差を用いて正規化を行うことが好ましい。
なお、ここではねじ等の所定の構造物周辺から標準偏差を求めて正規化を行う場合を示したが、場合によっては画像全体から求めた標準偏差で正規化を行う方が適切な結果を得られる場合もあり得る。このため、正規化の仕方はここに例示したものに限定されない。
When such an extracted image is used, normalization is usually performed by the standard deviation of the entire image extracted before input. However, in the image PFd of the present embodiment (the same applies to the image Pd in FIG. 8), in order to give priority to the contrast of the structure component Cs of a predetermined structure (for example, a screw) showing high contrast, it is not the entire image. , It is preferable to perform normalization using the standard deviation obtained from the central portion of the image PFd (the same applies to the image Pd), that is, a small region around a predetermined structure such as a screw.
In addition, although the case where the standard deviation is obtained from the periphery of a predetermined structure such as a screw and the normalization is performed is shown here, in some cases, it is more appropriate to perform the normalization with the standard deviation obtained from the entire image. It may be possible. Therefore, the normalization method is not limited to the one illustrated here.
他方で、画像NPFは、単体の放射線検出装置10を撮影台11のホルダー11A内に装填した状態でファントムを撮影した画像であり、画像NPF中、補正領域ArRに対応する画像を画像NPFaとする。
また画像NPFbは、画像NPFaに横方向にガウシアンフィルターを適用したものであり、このフィルター処理後の画像NPFb(低周波成分を示す画像)を元の画像NPFaから減算して差分を求めることにより高周波成分を抽出する(高周波成分を示す画像NPFc)。画像NPFcから画像PFdに対応する位置の画像を抽出する(抽出画像を画像NPFdとする)。
On the other hand, the image NPF is an image obtained by photographing the phantom with the single
Further, the image NPFb is an image NPFa to which a Gaussian filter is applied in the horizontal direction, and the high frequency is obtained by subtracting the image NPFb (an image showing a low frequency component) after this filter processing from the original image NPFa to obtain a difference. Extract the components (image NPFc showing high frequency components). An image at a position corresponding to the image PFd is extracted from the image NPFc (the extracted image is referred to as an image NPFd).
そして、放射線検出装置10同士の重畳部分がある画像PFから抽出された所定の構造物を示す抽出画像(画像PFd)から重畳部分がない画像NPFから抽出された抽出画像(画像NPFd)を減算した結果の画像(画像PFR)を、所定の構造物に対応する画像情報を示す正解データとする。
また、重畳部分がある画像PFから抽出された所定の構造物を示す抽出画像(画像PFd)を入力データとする。
Then, the extracted image (image NPFd) extracted from the image NPF without the overlapping portion was subtracted from the extracted image (image PFd) showing the predetermined structure extracted from the image PF having the overlapping portion between the
Further, an extracted image (image PFd) showing a predetermined structure extracted from an image PF having a superposed portion is used as input data.
本実施形態では、機械学習にあたり、このような入力データと正解データとの組を学習データとして複数用意する。学習データのセットは、例えば人体正面の撮影の場合、人体背面の撮影の場合、人体側面の撮影の場合等ポジショニングを変えたものや、胸部等ではなく脚部を撮影した場合のように撮影部位を変えたもの、各種線量の放射線を照射した場合、放射線の照射角度を変えた場合のように各種撮影条件を変えたもの等、様々なパターンで撮影を行って大量に用意されることが好ましい。学習データを各種パターンについて大量に用意することにより、より精度の高い学習が期待できる。
本実施形態では、こうして用意された学習データを与えて学習をさせることで、高いコントラスト値を示す所定の構造物(例えばねじ等)の画像を推定する画像推定フィルターFを予め設計し、コンソール3の記憶部32等に保存しておく。
In the present embodiment, in machine learning, a plurality of sets of such input data and correct answer data are prepared as learning data. The set of training data is, for example, when shooting the front of the human body, when shooting the back of the human body, when shooting the side of the human body, etc. with different positioning, or when shooting the legs instead of the chest etc. It is preferable to shoot in various patterns and prepare a large amount, such as those with different doses, those with different doses of radiation, those with different shooting conditions such as those with different radiation angles. .. By preparing a large amount of learning data for various patterns, more accurate learning can be expected.
In the present embodiment, an image estimation filter F that estimates an image of a predetermined structure (for example, a screw or the like) showing a high contrast value by giving learning data prepared in this way is designed in advance, and the
画像推定フィルターFを設計するための学習(機械学習)は、ディープラーニング(Deep Learning)により実現され、例えば、U-NETやSeg-NET等のいわゆる畳み込みネットワークに基づいて実装される。
なお、画像推定フィルターFを設計するための学習(機械学習)に適用されるネットワークはここに例示したものに限定されない。
学習結果として得られる画像推定フィルターFの精度を適宜検証し、精度が不足しているような場合には適宜ネットワークの構成を変更したり、学習データを追加する等によりさらに学習を行い、画像推定フィルターFがより精度の高いものへと更新されるようにしてもよい。
Learning (machine learning) for designing the image estimation filter F is realized by deep learning, and is implemented based on a so-called convolutional network such as U-NET or Seg-NET, for example.
The network applied to learning (machine learning) for designing the image estimation filter F is not limited to the one illustrated here.
The accuracy of the image estimation filter F obtained as a learning result is appropriately verified, and if the accuracy is insufficient, further learning is performed by appropriately changing the network configuration or adding learning data to estimate the image. The filter F may be updated to a more accurate one.
実際に撮影された画像P(例えば放射線検出装置10aによって取得された画像P1)に対して機械学習(学習結果としての画像推定フィルターF)を用いて所定の構造物の構造物成分Csを低減・除去する補正処理を行う場合、ステップS12において検出され抽出された画像Pdに、機械学習によって得た画像推定フィルターFを適用して、高いコントラスト値を示す所定の構造物(例えばねじ等)の画像Pfを得る(ステップS13、図8参照)。この際、画像Pdについて、画像推定フィルターFを適用するのに適したサイズにトリミングする等の処理を行ってもよい。
The structural component Cs of a predetermined structure is reduced by using machine learning (image estimation filter F as a learning result) for the actually captured image P (for example, the image P1 acquired by the
その後、画像Pdと画像Pfとを加算して所定の構造物の構造物成分Csを打ち消した画像Pgを取得する(ステップS14)。
一方、低周波成分を示す画像Pbから画像Pdに対応する位置の画像Peを切り出し、この低周波成分を示す画像Peに画像Pgを加算して画像Phを得る(ステップS15)。
画像Phは、所定の構造物の構造物成分Csが打ち消された画像と、当該部分に対応する低周波成分を示す画像とが加算されたものであり、本実施形態における機械学習を用いた補正処理の補正結果としての画像である。
After that, the image Pd and the image Pf are added to obtain an image Pg in which the structural component Cs of a predetermined structure is canceled (step S14).
On the other hand, the image Pe at the position corresponding to the image Pd is cut out from the image Pb showing the low frequency component, and the image Pg is added to the image Pe showing the low frequency component to obtain the image Ph (step S15).
The image Ph is an image obtained by adding an image in which the structural component Cs of a predetermined structure is canceled and an image showing a low frequency component corresponding to the portion, and is corrected by using machine learning in the present embodiment. It is an image as a correction result of processing.
本実施形態では、キャリブレーション補正による補正結果と、機械学習(画像推定フィルターF)を用いた補正処理の補正結果とが取得されると、次にコンソール3の制御部31は、両補正結果に基づいて最終的な補正結果を得る。具体的には、両補正結果をブレンドするブレンド処理を行って最終的な補正結果を得る。ブレンド処理は、各画素におけるブレンド率を算出した上で、このブレンド率にしたがって画素ごとの両補正結果の採用割合を決定し、ブレンドするものである。なお、両補正結果に基づいてどのように最終的な補正結果を得るかについては、ここに示した手法に限定されない。
In the present embodiment, when the correction result by the calibration correction and the correction result of the correction process using the machine learning (image estimation filter F) are acquired, the
具体的には、まず、キャリブレーション補正の結果画像(図7及び図10の画像PC)から機械学習(画像推定フィルターF)を用いた補正の結果画像(図9及び図10の画像Ph)に相当する領域を抽出する(ステップS16、図10において抽出画像PCa)。
そして、画像Ph(画像推定フィルターFを用いた補正結果)とこれに対応する画像PCa(キャリブレーション補正結果)との差分値からブレンド率を算出する(ステップS17)。
そして、コンソール3の制御部31は、算出されたブレンド率に基づくブレンド処理を行う(ステップS18)。これによって所定の構造物の構造物成分Csが画像情報から低減・除去された最終的な処理結果を得ることができる。
Specifically, first, from the calibration correction result image (image PC of FIGS. 7 and 10) to the correction result image (image Ph of FIGS. 9 and 10) using machine learning (image estimation filter F). The corresponding region is extracted (step S16, extracted image PCa in FIG. 10).
Then, the blend ratio is calculated from the difference value between the image Ph (correction result using the image estimation filter F) and the corresponding image PCa (calibration correction result) (step S17).
Then, the
ブレンド率は、キャリブレーション補正による処理結果(図10の画像PCa)と、機械学習(画像推定フィルターF)による処理結果(図9及び図10の画像Ph)の差分値(例えば画素値、輝度値、濃度値の差分値)に基づいて画素毎に算出する。具体的には、差分値を求めた後、所定の関数変換を行い、0〜1.0の範囲のブレンド率を決定する。
ブレンドの傾向としては、両者の結果に差がなければ既存のキャリブレーション補正による処理結果を採用し、両者の差が大きいほど機械学習による処理結果を採用する。
差の絶対値がどの程度の場合にどの程度の割合で機械学習による処理結果を採用するか、については、予め一定の閾値を定めておくことが好ましい。これにより例えば、差の絶対値が25以上であれば、機械学習による処理結果が100%採用され、差の絶対値が12程度であればキャリブレーション補正による処理結果と機械学習による処理結果とを50%ずつの割合で採用する等、画素ごとのブレンド率が求められる。
The blend ratio is the difference value (for example, pixel value, brightness value) between the processing result by calibration correction (image PCa in FIG. 10) and the processing result by machine learning (image estimation filter F) (image Ph in FIGS. 9 and 10). , The difference value of the density value) is calculated for each pixel. Specifically, after obtaining the difference value, a predetermined function conversion is performed to determine the blend ratio in the range of 0 to 1.0.
As for the tendency of blending, if there is no difference between the two results, the existing calibration correction processing result is adopted, and the larger the difference between the two, the more the processing result by machine learning is adopted.
It is preferable to set a certain threshold value in advance as to what the absolute value of the difference is and at what rate the processing result by machine learning is adopted. As a result, for example, if the absolute value of the difference is 25 or more, the processing result by machine learning is 100% adopted, and if the absolute value of the difference is about 12, the processing result by calibration correction and the processing result by machine learning are obtained. A blending ratio for each pixel is required, such as adopting a ratio of 50% each.
なお、ブレンド率を決めるための閾値はデフォルトで定められていてもよいし、適宜操作者(ユーザー)等が変更できるようにしてもよい。
また、低減・除去したい構造物成分Csが写り込んでいる場所や、補正対象となっている画像の種類、低減・除去したい構造物の種類等、各種の条件に応じて、複数種類の閾値が予め用意され、各条件に応じて自動で又は手動で選択されるようにしてもよい。
さらに、一旦ブレンド処理を行った後、構造物成分Csの消え具合(残り具合)を確認した段階で、閾値を調整する等、適宜設定を調整・変更し、ブレンド処理をやり直すことができるようにしてもよい。
The threshold value for determining the blend ratio may be set by default, or may be appropriately changed by an operator (user) or the like.
In addition, there are multiple types of threshold values depending on various conditions such as the location where the structural component Cs to be reduced / removed is reflected, the type of image to be corrected, and the type of structure to be reduced / removed. It may be prepared in advance and selected automatically or manually according to each condition.
Furthermore, after the blending process is performed once, when the disappearance condition (remaining condition) of the structural component Cs is confirmed, the setting can be adjusted / changed as appropriate, such as adjusting the threshold value, so that the blending process can be redone. You may.
なお、画像を合成した後に、所定の構造物(例えばねじ等)を含んだ矩形領域とそれ以外の補正領域ArRとの間の境界が目立たないように、ブレンド率の決定においては差分値のみを考慮するのではなく、所定の構造物の外側の領域については、外側ほど(すなわち所定の構造物から離れるほど)キャリブレーション補正による処理結果が採用され、内側ほど(すなわち所定の構造物から近いほど)機械学習による処理結果が採用されるようにすることが好ましい。 After synthesizing the images, only the difference value is used in determining the blend ratio so that the boundary between the rectangular region containing a predetermined structure (for example, a screw or the like) and the other correction region ArR is not conspicuous. Rather than considering, for the outer region of a given structure, the outer side (ie, the farther away from the given structure) the processing result of the calibration correction is adopted, and the inner side (that is, the closer it is to the given structure). ) It is preferable that the processing result by machine learning is adopted.
なお、ブレンド率は、上記のようにキャリブレーション補正による構造物成分Cや所定の構造物(例えばねじ等)の構造物成分Csの低減・除去の処理結果と、機械学習(画像推定フィルターF)による所定の構造物(例えばねじ等)の構造物成分Csの低減・除去の処理結果との差分値から算出されるため、2つの結果の平均的な濃度値が大きく異なっていると、ほとんどの領域で機械学習による処理結果が採用されてしまう。
機械学習による処理結果は、フィルターを用いた処理によるものであり、処理結果にボケを生じやすい。このため、機械学習による処理結果が必要以上に多く採用されるとボケの目立つ画像となるおそれがある。
このため、ブレンド率の算出を行う前に、機械学習による処理結果について濃度補正を行い、その平均濃度値を、キャリブレーション補正による処理結果の平均濃度値に合わせる前処理を行うことが好ましい。
The blend ratio is the processing result of reduction / removal of the structure component C and the structure component Cs of a predetermined structure (for example, a screw) by the calibration correction as described above, and the machine learning (image estimation filter F). Since it is calculated from the difference value from the processing result of reduction / removal of the structure component Cs of a predetermined structure (for example, screw) by, most of the cases where the average concentration values of the two results are significantly different. The processing result by machine learning is adopted in the area.
The processing result by machine learning is the processing using a filter, and the processing result is liable to be blurred. Therefore, if the processing result by machine learning is adopted more than necessary, the image may have a conspicuous blur.
Therefore, before calculating the blend ratio, it is preferable to perform density correction on the processing result by machine learning and perform pretreatment to match the average density value with the average density value of the processing result by calibration correction.
なお、上述のように機械学習(画像推定フィルターF)による処理結果には画像のボケを生じやすい点及び本実施形態における機械学習で得られる画像推定フィルターFは、高コントラストを示す所定の構造物(例えばねじ等)の低減・除去に特化して設計される点から、機械学習(画像推定フィルターF)による補正(構造物成分Csの低減・除去処理)を画像P全体に広く適用することは好ましくない。
このため、本実施形態では、補正領域ArRのうち所定の構造物を示す画素が含まれていない画像領域に対しては、機械学習(画像推定フィルターF)による低減・除去処理を行わず、キャリブレーション補正による低減・除去処理のみを行ってその結果(図7及び図10の画像PC)を100%採用することとし、所定の構造物を示す画素が含まれる画像領域に対してのみ、機械学習(画像推定フィルターF)による補正(低減・除去処理)とキャリブレーション補正による低減・除去処理とを行い、上記のようなブレンド処理を行う。
As described above, the processing result by machine learning (image estimation filter F) tends to cause blurring of the image, and the image estimation filter F obtained by machine learning in the present embodiment is a predetermined structure showing high contrast. Since it is designed specifically for reducing / removing (for example, screws), it is not possible to widely apply correction (reduction / removal processing of structural component Cs) by machine learning (image estimation filter F) to the entire image P. Not preferred.
Therefore, in the present embodiment, the image region of the correction region ArR that does not include the pixel indicating the predetermined structure is calibrated without performing the reduction / removal processing by machine learning (image estimation filter F). It is decided that only the reduction / removal processing by the motion correction is performed and the result (image PC of FIGS. 7 and 10) is 100% adopted, and machine learning is performed only for the image region including the pixel indicating the predetermined structure. The correction (reduction / removal processing) by (image estimation filter F) and the reduction / removal processing by calibration correction are performed, and the blend processing as described above is performed.
また、同様の理由から所定の構造物(例えばねじ等)が含まれていない放射線検出装置10が撮影に用いられた場合には、上記に示した機械学習(画像推定フィルターF)による低減・除去処理は行わず、従来通りのキャリブレーション補正による処理結果のみを採用することが好ましい。
このため、いかなる放射線検出装置10で撮影が行われたかを、撮影前又は撮影後の画像処理前に判断する処理部が設けられていることが好ましい。
この場合における処理部の構成は特に限定されないが、例えば撮影に使用される放射線検出装置10の識別標識(例えば筐体101等に設けられたバーコードや各種タグ)を読み取る読取部をホルダー11A内等に設け、コンソール3の制御部31が処理部としてこの読取部からの情報に基づいて放射線検出装置10の種別等を判断してもよい。そして、放射線検出装置10には所定の構造物(例えばねじ等)が設けられていないと処理部によって判断された場合には、機械学習(画像推定フィルターF)による補正処理を行わないようにする。
Further, for the same reason, when the
For this reason, it is preferable to provide a processing unit for determining what kind of
The configuration of the processing unit in this case is not particularly limited, but for example, a reading unit that reads an identification mark (for example, a bar code or various tags provided on the
なお、撮影に使用される放射線検出装置10は所定の構造物(例えばねじ等)を備えるものであるが、その一部が欠落している等により本来あるべき位置に所定の構造物(すなわち、一定の閾値を超える高コントラストを示す構造物)が検出されないような場合には、所定の構造物が検出された部分についてのみ機械学習(画像推定フィルターF)による補正処理を行うことが好ましい。これにより不必要な処理を行うことでかえって画像の画質等が低下することを防ぐことができる。
The
図5に戻り、上記のような所定の構造物の構造物成分Csを画像情報から低減・除去する補正処理(低減・除去処理)が完了すると、その他の各種基本処理が行われる(ステップS4)。
基本処理として具体的にどのような処理を行うかは特に限定されない。
例えば、複数の放射線検出装置10(10a,10b,10c)によってそれぞれ取得された画像P(例えば、図4におけるP1,P2等)を合成して1つの長尺な画像とする場合には、各画像の濃度が合うようにいずれかの画像P又はすべての画像Pについて濃度を補正したり、画像P同士の位置関係や拡大率を調整したり、各画像P中において、被写体Mの同じ部分が撮影されている部分を重ね合わせ、画像P同士が滑らかに接続されるように調整する。
なお、このような濃度補正や位置、拡大率の調整等は公知の処理であり、詳細な説明は省略する。
また、構造物成分Cや所定の構造物の構造物成分Csの除去処理の他にスジ状に画像に写り込むスジ成分等についても各種補正処理によって低減・除去を行ってもよい。
Returning to FIG. 5, when the correction process (reduction / removal process) for reducing / removing the structural component Cs of the predetermined structure as described above from the image information is completed, various other basic processes are performed (step S4). ..
The specific processing to be performed as the basic processing is not particularly limited.
For example, when the images P (for example, P1, P2, etc. in FIG. 4) acquired by a plurality of radiation detection devices 10 (10a, 10b, 10c) are combined into one long image, each of them is used. The density of any image P or all images P is corrected so that the image densities match, the positional relationship between the images P and the enlargement ratio are adjusted, and the same part of the subject M is displayed in each image P. The captured parts are overlapped and adjusted so that the images P are smoothly connected to each other.
It should be noted that such density correction, position, and magnification adjustment are known processes, and detailed description thereof will be omitted.
Further, in addition to the removal treatment of the structure component C and the structure component Cs of a predetermined structure, the streak component and the like appearing in the image in the form of streaks may be reduced or removed by various correction treatments.
このような各種の調整や補正等を行った上で複数の放射線検出装置10によって得られた画像Pを合成することで、あたかも当初から1枚の画像として撮影されたかのような仕上がりの合成画像を生成することができる。
なお、複数の放射線検出装置10(10a,10b,10c)によってそれぞれ取得された画像Pを合成することは必須ではなく、分割されたままで利用されてもよい。また一旦合成された後に分割されて利用されてもよい。1ショット撮影では、その後に画像Pが合成されない場合でも、1回の放射線照射によって広範囲の撮影を行うことができる点で、部位ごとに撮影を繰り返す場合と比較して被写体Mである患者への負担を軽減することができる。
コンソール3において生成された画像は、画像解析装置5に送られ、表示部に表示させて診断や患者への説明の際に用いられたり、各種の解析・分析等が行われ、適宜診断支援に用いられる。
By synthesizing the images P obtained by the plurality of
It is not essential to synthesize the images P acquired by the plurality of radiation detection devices 10 (10a, 10b, 10c), and the images P may be used as they are divided. Further, it may be used after being synthesized once and then divided. In the one-shot shooting, even if the image P is not combined after that, a wide range of shooting can be performed by one irradiation, and the patient who is the subject M is compared with the case where the shooting is repeated for each part. The burden can be reduced.
The image generated on the
〔効果〕
以上のように本実施形態によれば、放射線検出装置10を、その一部が重畳された状態で複数配置し被写体Mについて撮影を行う場合に、補正が必要な補正領域ArRである放射線検出装置10の重畳部分の画像領域(補正領域ArR)の画像情報(画像Pa)から、ねじ等の所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む補正領域ArRについて機械学習を用いて所定の構造物の構造物成分Csを低減・除去する補正処理を画像情報に対して行う。
このため、所定の構造物の構造物成分Csを画像情報から低減・除去することに特化した補正を、機械学習を用いて精度良く行うことができる。これにより、1回の撮影で広範囲を撮影した場合にも適切に補正処理(画像処理)が施された画像を得ることができる。
〔effect〕
As described above, according to the present embodiment, when a plurality of
Therefore, it is possible to perform correction specialized in reducing / removing the structural component Cs of a predetermined structure from the image information with high accuracy by using machine learning. As a result, it is possible to obtain an image that has been appropriately corrected (image processed) even when a wide area is photographed in one image.
また本実施形態において機械学習を用いた補正処理は、補正領域ArRの画像情報のうち所定の構造物に対応する画像情報を推定する画像推定フィルターFを機械学習によって予め設計し、所定の構造物を示す画素が含まれる未知の画像領域(画像Pa)に対して、当該画像推定フィルターFを適用し、推定された所定の構造物に対応する画像情報と元の画像情報とに基づいて所定の構造物の構造物成分Csの低減・除去を行うものである。
このように、機械学習によって予め用意された画像推定フィルターFを用いて所定の構造物の構造物成分Csを画像情報から低減・除去する補正を行うため、効率よく、高精度の補正を行うことができる。
また、機械学習によって学習結果を蓄積することにより、未知の画像Paが入力された際にも適切に所定の構造物の構造物成分Csを画像情報から低減・除去することができ、高品質な画像を得ることができる。
Further, in the correction process using machine learning in the present embodiment, the image estimation filter F for estimating the image information corresponding to the predetermined structure among the image information in the correction region ArR is designed in advance by machine learning, and the predetermined structure is used. The image estimation filter F is applied to an unknown image region (image Pa) including pixels indicating the above, and a predetermined image is determined based on the image information corresponding to the estimated predetermined structure and the original image information. It reduces / removes the structural component Cs of the structure.
In this way, in order to reduce / remove the structural component Cs of a predetermined structure from the image information by using the image estimation filter F prepared in advance by machine learning, the correction is performed efficiently and with high accuracy. Can be done.
In addition, by accumulating learning results by machine learning, even when an unknown image Pa is input, the structural component Cs of a predetermined structure can be appropriately reduced / removed from the image information, resulting in high quality. You can get an image.
また本実施形態では、被写体Mが介在しない状態で撮影したキャリブレーション画像に基づいて補正領域ArRについて既存のキャリブレーション補正を行い、補正領域ArRのうち所定の構造物を示す画素が含まれていない画像領域に対しては、キャリブレーション補正による補正結果を採用し、一方で所定の構造物を示す画素が含まれる画像領域に対しては、キャリブレーション補正による補正結果と、機械学習を用いた補正処理の補正結果の両方を取得した後、両補正結果をブレンドするブレンド処理を行って最終的な補正結果を得るようになっている。
このように既存のキャリブレーション補正と機械学習を用いた補正処理とを組み合わせることで、キャリブレーション補正によっては低減・除去しきれない構造物成分Csを画像情報から適切に低減・除去することができる。
また、機械学習を用いた補正処理が画像推定フィルターFを用いたものである場合、高コントラストの構造物成分Csを効果的に低減・除去できる反面、画像にボケを生じやすいが、キャリブレーション補正と組み合わせ、高コントラストの構造物成分Csの低減・除去以外ではキャリブレーション補正の結果を優先させることによって適切な補正結果を得ることができる。
Further, in the present embodiment, the existing calibration correction is performed on the correction area ArR based on the calibration image taken without the subject M intervening, and the correction area ArR does not include a pixel indicating a predetermined structure. For the image area, the correction result by calibration correction is adopted, while for the image area including pixels showing a predetermined structure, the correction result by calibration correction and the correction using machine learning are adopted. After acquiring both the correction results of the processing, a blending process for blending both correction results is performed to obtain the final correction result.
By combining the existing calibration correction and the correction process using machine learning in this way, it is possible to appropriately reduce / remove the structural component Cs that cannot be completely reduced / removed by the calibration correction from the image information. ..
Further, when the correction process using machine learning uses the image estimation filter F, the high-contrast structural component Cs can be effectively reduced / removed, but the image tends to be blurred, but the calibration correction In combination with, an appropriate correction result can be obtained by giving priority to the result of the calibration correction other than the reduction / removal of the high-contrast structural component Cs.
また本実施形態では、機械学習を用いた補正処理における所定の構造物を示す画素の位置を、キャリブレーション画像に基づいて特定する。
機械学習を用いた補正処理を行う対象をキャリブレーション補正の結果から特定することで、補正対象の正確・精密な特定を効率よく行うことができる。
Further, in the present embodiment, the positions of pixels indicating a predetermined structure in the correction process using machine learning are specified based on the calibration image.
By identifying the target to be corrected using machine learning from the result of the calibration correction, it is possible to efficiently identify the correction target accurately and precisely.
また、撮影に使用された放射線検出装置10が所定の構造物を含むか否かによって所定の構造物の構造物成分Csを画像情報から低減・除去する補正処理を行うか否かを切り替える(放射線検出装置10の種類を判断する処理部を備える)構成とした場合には、機械学習を用いた補正処理を行っても良好な結果が得られないような場合に無駄な処理を行う手間を省くことができる。これにより、放射線検出装置10に応じた適切な画像処理(補正処理)を行うことができる。
Further, depending on whether or not the
また本実施形態では、1ショット撮影によって複数の放射線検出装置10から取得される複数の画像P(放射線画像)を合成して合成画像を生成するようになっている。
これにより、例えば撮影されるものが医用画像の場合に、1回の放射線照射によって被写体Mである患者の全身を撮影することも可能となり、患者の負担を軽減することができる。
また、複数の放射線検出装置10によって撮影された画像を合成することで、医師や患者にとって見やすく、正確な診断に資する画像を得ることができる。
Further, in the present embodiment, a plurality of images P (radiation images) acquired from a plurality of
As a result, for example, when the image to be imaged is a medical image, it is possible to photograph the whole body of the patient who is the subject M by one irradiation, and the burden on the patient can be reduced.
Further, by synthesizing the images taken by the plurality of
〔変形例〕
なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
[Modification example]
Although the embodiments of the present invention have been described above, it goes without saying that the present invention is not limited to such embodiments and can be variously modified without departing from the gist thereof.
例えば、上記実施形態では、被写体Mとして患者を撮影し医用画像を得る場合について説明したが、本発明の画像処理方法は、医用画像の画像処理(補正処理)に適用される場合に限定されない。
本発明は、単体の放射線検出装置10では撮影できない広範囲な対象を、複数の放射線検出装置10を用いて撮影する場合であれば適用可能である。
例えば、縦方向、横方向、又は縦横両方向に単体の放射線検出装置10の撮影可能範囲を超えるような対象を被写体Mとして撮影する非破壊検査等においても、その撮影画像に本発明の画像処理方法を適用することができる。
For example, in the above embodiment, the case where the patient is photographed as the subject M to obtain a medical image has been described, but the image processing method of the present invention is not limited to the case where it is applied to the image processing (correction processing) of the medical image.
The present invention is applicable when a wide range of objects that cannot be photographed by a single
For example, even in a non-destructive inspection in which an object that exceeds the imageable range of a single
また、上記実施形態では、複数の放射線検出装置10(10a,10b,10c)を、被写体Mである患者の体軸方向に並べて配置し、1ショットで長尺な画像を撮影する場合を例示したが、複数の放射線検出装置10を並べる方向は特に限定されない。
例えば上記の非破壊検査等における撮影であれば、被写体全体をカバーできるように縦方向、横方向、又は縦横両方向に複数の放射線検出装置10を並べて配置してもよい。
この場合にも放射線検出装置10同士の重畳部分の画像を補正するために本発明の画像処理方法を適用することができる。
Further, in the above embodiment, a case where a plurality of radiation detection devices 10 (10a, 10b, 10c) are arranged side by side in the body axis direction of the patient who is the subject M and a long image is taken in one shot is illustrated. However, the direction in which the plurality of
For example, in the case of photographing in the above non-destructive inspection or the like, a plurality of
Also in this case, the image processing method of the present invention can be applied to correct the image of the overlapping portion between the
また、上記実施形態では、1ショット撮影を行う場合を例示したが、複数の放射線検出装置10(10a,10b,10c等)を、その一部が重畳された状態で配置して被写体を撮影する場合であれば撮影画像に本発明の画像処理方法を適用することができる。
例えば、患者の全身等、被写体の全体を複数回に分けて撮影する場合でも放射線検出装置10同士の重畳部分の画像を補正するために本発明の画像処理方法を適用可能である。
Further, in the above embodiment, the case of performing one-shot photography is illustrated, but a plurality of radiation detection devices 10 (10a, 10b, 10c, etc.) are arranged in a state in which some of them are superimposed to photograph the subject. In some cases, the image processing method of the present invention can be applied to the captured image.
For example, the image processing method of the present invention can be applied to correct the image of the overlapping portion of the
また、上記実施形態では、機械学習によって1つの画像推定フィルターFを生成する場合を例示したが、画像処理(画像補正)のために予め用意しておく画像推定フィルターFは複数あってもよい。
例えば、画像推定フィルターFは、高コントラストを示す所定の構造物の種類に応じて、複数用意されてもよい。この場合、撮影に用いられた放射線検出装置10の種類やこれに含まれる所定の構造物の種類を特定し、特定結果に応じて適用する画像推定フィルターFを切り替えるように構成してもよい。
例えば所定の構造物が「ねじ」である場合でも、その種類が変更されると、同じ画像推定フィルターFでは適切に構造物成分Csを低減・除去できない場合がある。このため、例えば、ねじの種類ごとに画像推定フィルターFの学習係数を用意しておいてもよい。
そして実際に画像処理(補正処理)を行う際には、まず撮影に用いられる放射線検出装置10に含まれているねじの種類を判別する前処理を行い、その後に当該ねじの種類に応じた学習係数を有する画像生成フィルターFを適用してねじの構造物成分Csを画像情報から低減・除去する画像処理を行うようにする。
Further, in the above embodiment, the case where one image estimation filter F is generated by machine learning is illustrated, but there may be a plurality of image estimation filters F prepared in advance for image processing (image correction).
For example, a plurality of image estimation filters F may be prepared depending on the type of a predetermined structure showing high contrast. In this case, the type of the
For example, even if a predetermined structure is a “screw”, if the type is changed, the same image estimation filter F may not be able to appropriately reduce / remove the structure component Cs. Therefore, for example, the learning coefficient of the image estimation filter F may be prepared for each type of screw.
Then, when actually performing image processing (correction processing), first, preprocessing for determining the type of screw included in the
なお、本発明が上記の実施形態や変形例等に限定されず、本発明の趣旨を逸脱しない限り、適宜変更可能であることは言うまでもない。 Needless to say, the present invention is not limited to the above-described embodiments and modifications, and can be appropriately modified as long as the gist of the present invention is not deviated.
1 撮影装置
10 放射線検出装置
11 撮影台
11A ホルダー
12 放射線照射装置
3 コンソール(画像処理装置)
31 制御部
32 記憶部
5 画像解析装置
100 放射線画像撮影システム
ArR 補正領域
Cs 構造物成分
F 画像推定フィルター
P 画像
1
31
Claims (8)
補正が必要な補正領域である前記放射線検出装置の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む前記補正領域について機械学習を用いて前記所定の構造物の構造物成分を低減させる補正処理を前記画像情報に対して行うことを特徴とする画像処理方法。 When multiple radiation detection devices that detect radiation are arranged in a state where some of them are superimposed and a subject is photographed.
The position of the pixel indicating the predetermined structure is specified from the image information of the image area of the superimposed portion of the radiation detection device, which is the correction area requiring correction, and the correction area including the pixel indicating the predetermined structure is provided. An image processing method characterized in that a correction process for reducing a structural component of the predetermined structure is performed on the image information by using machine learning.
前記補正領域の画像情報のうち前記所定の構造物に対応する画像情報を推定する画像推定フィルターを前記機械学習によって予め設計し、
前記所定の構造物を示す画素が含まれる未知の画像領域に対して、当該画像推定フィルターを適用し、推定された前記所定の構造物に対応する画像情報と元の画像情報とに基づいて前記所定の構造物の構造物成分を低減させる補正を行うものであることを特徴とする請求項1に記載の画像処理方法。 The correction process using the machine learning
An image estimation filter that estimates the image information corresponding to the predetermined structure among the image information in the correction region is designed in advance by the machine learning.
The image estimation filter is applied to an unknown image region including pixels indicating the predetermined structure, and the image information corresponding to the estimated predetermined structure and the original image information are used as the basis. The image processing method according to claim 1, wherein the correction is performed to reduce the structural components of a predetermined structure.
前記補正領域のうち前記所定の構造物を示す画素が含まれていない画像領域に対しては、前記キャリブレーション補正による補正結果を採用し、一方で前記所定の構造物を示す画素が含まれる画像領域に対しては、前記キャリブレーション補正による補正結果と、前記機械学習を用いた前記補正処理の補正結果の両方を取得した後、両補正結果に基づいて最終的な補正結果を得ることを特徴とする請求項1又は請求項2に記載の画像処理方法。 Based on the calibration image taken without the subject intervening, the existing calibration correction is performed on the correction area.
For an image region in the correction region that does not include pixels indicating the predetermined structure, the correction result by the calibration correction is adopted, while an image including pixels indicating the predetermined structure is adopted. For the region, after acquiring both the correction result by the calibration correction and the correction result of the correction process using the machine learning, the final correction result is obtained based on both correction results. The image processing method according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227648A JP7404846B2 (en) | 2019-12-17 | 2019-12-17 | Image processing method, image processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227648A JP7404846B2 (en) | 2019-12-17 | 2019-12-17 | Image processing method, image processing device and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021094219A true JP2021094219A (en) | 2021-06-24 |
JP2021094219A5 JP2021094219A5 (en) | 2022-05-10 |
JP7404846B2 JP7404846B2 (en) | 2023-12-26 |
Family
ID=76429788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227648A Active JP7404846B2 (en) | 2019-12-17 | 2019-12-17 | Image processing method, image processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7404846B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023057871A (en) * | 2021-10-12 | 2023-04-24 | キヤノン株式会社 | Medical image processing device, medical image processing method and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9430715B1 (en) * | 2015-05-01 | 2016-08-30 | Adobe Systems Incorporated | Identifying and modifying cast shadows in an image |
JP2017169714A (en) * | 2016-03-22 | 2017-09-28 | 富士フイルム株式会社 | Image processing device, radiographic image capturing system, image processing method, and image processing program |
JP2017213270A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Radiographic system, control apparatus therefor, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6677100B2 (en) | 2016-06-24 | 2020-04-08 | コニカミノルタ株式会社 | Radiation imaging system |
-
2019
- 2019-12-17 JP JP2019227648A patent/JP7404846B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9430715B1 (en) * | 2015-05-01 | 2016-08-30 | Adobe Systems Incorporated | Identifying and modifying cast shadows in an image |
JP2017169714A (en) * | 2016-03-22 | 2017-09-28 | 富士フイルム株式会社 | Image processing device, radiographic image capturing system, image processing method, and image processing program |
JP2017213270A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Radiographic system, control apparatus therefor, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023057871A (en) * | 2021-10-12 | 2023-04-24 | キヤノン株式会社 | Medical image processing device, medical image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7404846B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6260615B2 (en) | Method for introducing a Talbot imaging system into a diagnostic imaging medical image system and a general diagnostic imaging medical image system | |
US7433507B2 (en) | Imaging chain for digital tomosynthesis on a flat panel detector | |
JP6128463B2 (en) | Radiation image processing apparatus and method, and program | |
US6816572B2 (en) | Method, system and computer product for processing dual energy images | |
JP4945249B2 (en) | X-ray transmission image display system | |
US10825190B2 (en) | Dynamic image processing apparatus for aligning frame images obtained by photographing dynamic state of chest based on movement of lung-field region | |
WO2014156796A1 (en) | Radiographic device, radiographic method and radiographic control program | |
JP2003244542A (en) | Motion artefact reduction algorithm for double-exposed double-energy x-ray radiography | |
US20150305703A1 (en) | Method and device for controlling rotation angle of c-arm of medical imaging apparatus | |
JP2009268801A (en) | Radiographic apparatus and dosage index value display | |
US20060241370A1 (en) | Medical x-ray imaging workflow improvement | |
JP2007117351A (en) | Small-scale diagnosis support system | |
JP2006006435A (en) | Method and device for image display, and program | |
CN107049346B (en) | Medical imaging control method, medical imaging control device and medical imaging equipment | |
JP7404846B2 (en) | Image processing method, image processing device and program | |
US20070036266A1 (en) | Medical x-ray imaging workflow improvement | |
JP2010104771A (en) | Radiation image diagnosing system | |
EP3370616B1 (en) | Device for imaging an object | |
JP2022011259A (en) | Dynamic quality control device, dynamic quality control program and dynamic quality control method | |
JP2017169715A (en) | Image processing device, radiographic image capturing system, image processing method, and image processing program | |
JP5564385B2 (en) | Radiographic imaging apparatus, radiographic imaging method and program | |
JP2017077405A (en) | Radiographic system, image processing device, and image processing method | |
JP7099086B2 (en) | Dynamic image processing equipment and programs | |
JP2007007307A (en) | Image-processing method and medical image-processing system | |
JP2004081275A (en) | Radiodiagnosing system, and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7404846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |