JP2021094219A - Image processing method, image processing device, and program - Google Patents

Image processing method, image processing device, and program Download PDF

Info

Publication number
JP2021094219A
JP2021094219A JP2019227648A JP2019227648A JP2021094219A JP 2021094219 A JP2021094219 A JP 2021094219A JP 2019227648 A JP2019227648 A JP 2019227648A JP 2019227648 A JP2019227648 A JP 2019227648A JP 2021094219 A JP2021094219 A JP 2021094219A
Authority
JP
Japan
Prior art keywords
image
correction
radiation detection
predetermined structure
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019227648A
Other languages
Japanese (ja)
Other versions
JP2021094219A5 (en
JP7404846B2 (en
Inventor
春彦 宮崎
Haruhiko Miyazaki
春彦 宮崎
拓也 山村
Takuya Yamamura
拓也 山村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019227648A priority Critical patent/JP7404846B2/en
Publication of JP2021094219A publication Critical patent/JP2021094219A/en
Publication of JP2021094219A5 publication Critical patent/JP2021094219A5/ja
Application granted granted Critical
Publication of JP7404846B2 publication Critical patent/JP7404846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing method, an image processing device, and a program capable of executing correction processing for properly reducing or eliminating a structure component even on a structure whose contrast is especially high for an image acquired by photographing.SOLUTION: When executing photographing of a subject M by arranging a plurality of radiation detectors 10 in a state that part of them is overlapped, a position of a pixel indicating a predetermined structure such as a screw is specified from image information on an image region of an overlapped part of the radiation detectors 10, which is a correction region ArR for which correction is required, and the image information is subjected to correction processing for reducing/eliminating a structure component Cs of the predetermined structure by using machine learning for the correction region ArR including the pixel indicating the predetermined structure.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理方法、画像処理装置及びプログラムに関するものである。 The present invention relates to an image processing method, an image processing apparatus and a program.

近年、放射線検出装置(Flat Panel Detector)を用いて患者の全脊柱や全下肢等、単体の放射線検出装置の撮影可能範囲を超える比較的広い範囲を放射線撮影する撮影装置が知られている。
例えば、特許文献1及び特許文献2には、3つの放射線検出装置を体軸方向に並べた状態で装填することのできるホルダーを有する撮影台を用いて撮影を行う放射線画像撮影システムが開示されている。
In recent years, there have been known imaging devices that use a radiation detector (Flat Panel Detector) to radiograph a relatively wide range, such as the entire spinal column and all lower limbs of a patient, that exceeds the imaging range of a single radiation detector.
For example, Patent Document 1 and Patent Document 2 disclose a radiation imaging system that performs imaging using an imaging table having a holder capable of loading three radiation detecting devices in a state of being arranged in the body axis direction. There is.

また、このような撮影台を用いる場合、放射線を1回だけ照射して広範囲の撮影を行う1ショット撮影を行うことも可能である。
1ショット撮影では、放射線の照射回数が少ないことで被写体となる患者の負担を軽減することができるとともに、複数回に分けて撮影を繰り返す場合と比較して、広範囲を撮影する間に患者が動いてしまう体動の問題を回避することができるというメリットもある。
Further, when such an imaging table is used, it is also possible to perform one-shot imaging in which a wide range of imaging is performed by irradiating radiation only once.
In one-shot photography, the burden on the patient who is the subject can be reduced by reducing the number of irradiations, and the patient moves while taking a wide range of images compared to the case where the image is repeated in multiple times. There is also the merit of being able to avoid the problem of physical movement.

しかし、上記のような複数の放射線検出装置を使用する場合、放射線の検出領域に抜けを生じないように放射線検出装置の一部(例えば上下の端部)を重ね合わせてホルダー内に配置するようになっている。
このため、この重畳部分において放射線照射装置に近い手前側に配置された放射線検出装置の構造物等が放射線照射装置から遠い奥側に配置された放射線検出装置で得られる画像に写り込んでしまうという問題がある。
However, when using a plurality of radiation detection devices as described above, a part of the radiation detection devices (for example, upper and lower ends) should be overlapped and arranged in the holder so as not to cause omission in the radiation detection area. It has become.
Therefore, in this superposed portion, the structure of the radiation detection device arranged on the front side close to the radiation irradiation device is reflected in the image obtained by the radiation detection device arranged on the back side far from the radiation irradiation device. There's a problem.

この点、上記特許文献1及び特許文献2には、キャリブレーション用画像を用いたキャリブレーション補正を行うことで、画像に写り込んだ構造物の構造物成分を撮影された画像から除去することが提案されている。 In this regard, in Patent Document 1 and Patent Document 2, it is possible to remove the structural component of the structure reflected in the image from the photographed image by performing the calibration correction using the image for calibration. Proposed.

特開2016−198424号公報Japanese Unexamined Patent Publication No. 2016-198424 特開2017−225724号公報Japanese Unexamined Patent Publication No. 2017-225724

しかしながら、放射線検出装置に含まれる構造物等には、高コントラストを示すものがある。
このような特にコントラストの高い構造物については、キャリブレーション補正等の従来の補正処理を行っても構造物成分を画像から低減させ、又は除去することができない場合がある。
However, some structures and the like included in the radiation detection device show high contrast.
For such a structure having a particularly high contrast, it may not be possible to reduce or remove the structure component from the image even if a conventional correction process such as calibration correction is performed.

本発明は以上のような事情に鑑みてなされたものであり、撮影によって得られた画像に対して、特にコントラストの高い構造物についても構造物成分を適切に低減又は除去する補正処理を行うことができる画像処理方法、画像処理装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is necessary to perform a correction process on an image obtained by photographing to appropriately reduce or remove structural components even for a structure having a particularly high contrast. It is an object of the present invention to provide an image processing method, an image processing apparatus, and a program capable of performing the above.

請求項1記載の発明は、画像処理方法において、
放射線を検出する放射線検出装置を、その一部が重畳された状態で複数配置し被写体について撮影を行う場合に、
補正が必要な補正領域である前記放射線検出装置の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む前記補正領域について機械学習を用いて前記所定の構造物の構造物成分を低減させる補正処理を前記画像情報に対して行うことを特徴とする。
The invention according to claim 1 is an image processing method.
When multiple radiation detection devices that detect radiation are arranged in a state where some of them are superimposed and a subject is photographed.
The position of the pixel indicating the predetermined structure is specified from the image information of the image area of the superimposed portion of the radiation detection device, which is the correction area requiring correction, and the correction area including the pixel indicating the predetermined structure is provided. It is characterized in that a correction process for reducing a structural component of the predetermined structure is performed on the image information by using machine learning.

請求項7記載の発明は、画像処理装置であって、
請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を行う制御部を備えることを特徴とする。
The invention according to claim 7 is an image processing apparatus.
A control unit that performs image processing by the image processing method according to any one of claims 1 to 6 is provided.

請求項8記載の発明は、プログラムであって、
画像処理装置のコンピューターに、請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を実行させることを特徴とする。
The invention according to claim 8 is a program.
It is characterized in that a computer of an image processing apparatus is made to execute image processing by the image processing method according to any one of claims 1 to 6.

本発明のような画像処理を行うことで、撮影によって得られた画像に対して、特にコントラストの高い構造物についても構造物成分を適切に低減又は除去する補正処理を行うことが可能となる。 By performing image processing as in the present invention, it is possible to perform correction processing for appropriately reducing or removing structural components even for a structure having a particularly high contrast with respect to the image obtained by photographing.

本実施形態における放射線画像撮影システムの全体構成を表す図である。It is a figure which shows the whole structure of the radiation imaging system in this embodiment. 撮影台のホルダー内での前方の放射線検出装置と後方の放射線検出装置等を表す模式的な要部断面図である。It is a schematic cross-sectional view of a main part which shows the front radiation detection device, the rear radiation detection device, etc. in the holder of the photographing table. 本実施形態におけるコンソールの要部ブロック図である。It is a block diagram of the main part of the console in this embodiment. 図2に示す前方の放射線検出装置で得られた画像と後方の放射線検出装置で得られた画像の例を示す図である。It is a figure which shows the example of the image obtained by the front radiation detection apparatus shown in FIG. 2 and the image obtained by the rear radiation detection apparatus. 本実施形態における画像補正処理を示すフローチャートである。It is a flowchart which shows the image correction processing in this embodiment. 図5に示す所定の構造物成分の低減・除去処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the reduction / removal process of the predetermined structural component shown in FIG. キャリブレーション補正を説明する説明図である。It is explanatory drawing explaining the calibration correction. 機械学習を用いた補正を説明する説明図である。It is explanatory drawing explaining the correction using machine learning. 画像推定フィルターを設計する機械学習を説明する説明図である。It is explanatory drawing explaining the machine learning to design an image estimation filter. ブレンド処理を説明する説明図である。It is explanatory drawing explaining the blending process.

以下、本発明に係る画像処理方法及び画像処理装置の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of the image processing method and the image processing apparatus according to the present invention will be described with reference to the drawings.

〔放射線画像撮影システムの全体構成〕
図1は、本実施形態に係る画像処理装置としてのコンソールが適用された放射線画像撮影システムの全体構成を示す図である。
図1に示すように、放射線画像撮影システム100は、撮影室R内に配置された撮影装置1と、図示しない前室等の撮影室R外に配置されたコンソール3とが通信ケーブル等により接続され、コンソール3と、画像解析装置5とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。放射線画像撮影システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
なお、以下の本実施形態では放射線画像撮影システム100が、図1に示すように1つの撮影室R内の撮影装置1とコンソール3とが1:1に対応付けられている場合について説明するが、放射線画像撮影システムの構成は図示例に限定されない。例えば、複数の撮影室Rを備え、それぞれに単数又は複数の撮影装置が配置され、これらと単数又は複数のコンソール3とがネットワークNT等を介して対応付けられている構成とすることも可能である。
[Overall configuration of radiation imaging system]
FIG. 1 is a diagram showing an overall configuration of a radiation imaging system to which a console as an image processing device according to the present embodiment is applied.
As shown in FIG. 1, in the radiation image photographing system 100, the photographing device 1 arranged in the photographing room R and the console 3 arranged outside the photographing room R such as the front room (not shown) are connected by a communication cable or the like. The console 3 and the image analysis device 5 are connected to each other via a communication network NT such as a LAN (Local Area Network). Each device constituting the radiation imaging system 100 conforms to the DICOM (Digital Image and Communications in Medicine) standard, and communication between the devices is performed according to DICOM.
In the following embodiment, the case where the radiographic image capturing system 100 has a 1: 1 correspondence between the imaging device 1 and the console 3 in one imaging room R will be described as shown in FIG. , The configuration of the radiation imaging system is not limited to the illustrated example. For example, it is possible to have a plurality of photographing rooms R, each of which is arranged with a single or a plurality of photographing devices, and the single or a plurality of consoles 3 are associated with each other via a network NT or the like. is there.

〔撮影装置の構成〕
撮影装置1は、ホルダー11Aを備える撮影台11と、放射線照射装置12とを備えている。
ホルダー11Aは内部に放射線検出装置10を装填するものであり、撮影台11はホルダー11A内の放射線検出装置10が被写体Mである患者を挟んで放射線照射装置12と対向するように配置される。
本実施形態において、撮影台11は、被写体Mである患者を撮影台11の前に立たせて撮影を行う立位撮影用であり、患者の頸椎から大腿骨辺りまでを1ショットで撮影を行うことができる1ショット長尺撮影用の撮影台となっている。
ここで1ショット撮影とは、放射線を1回照射することで撮影を行うことをいい、1ショット長尺撮影とは、複数の放射線検出装置10を組み合わせて、単体の放射線検出装置10では撮影することのできない広い範囲について、1回の放射線照射で撮影を行うことをいう。これによれば、広範囲を1回の放射線照射で撮影することができるため、被写体Mである患者への負担を最小限に抑えることができる。また、複数回に分けて撮影を繰り返す場合と比較して、広範囲を撮影する間に患者が動いて画像にずれやブレを生じてしまう体動の問題を回避することも可能である。
[Configuration of imaging device]
The photographing device 1 includes a photographing table 11 including the holder 11A and a radiation irradiating device 12.
The holder 11A is for loading the radiation detection device 10 inside, and the photographing table 11 is arranged so that the radiation detection device 10 in the holder 11A faces the radiation irradiation device 12 with the patient who is the subject M sandwiched between them.
In the present embodiment, the photographing table 11 is for standing photography in which the patient who is the subject M is made to stand in front of the photographing table 11 and photographed, and the patient's cervical spine to the femur area is photographed in one shot. It is a shooting stand for one-shot long shooting.
Here, one-shot photography means taking a picture by irradiating radiation once, and one-shot long-length photography means taking a picture with a single radiation detection device 10 by combining a plurality of radiation detection devices 10. It means taking a picture of a wide range that cannot be done with one irradiation. According to this, since a wide range can be photographed with one irradiation, the burden on the patient who is the subject M can be minimized. In addition, it is possible to avoid the problem of body movement that causes the patient to move and shift or blur the image during a wide range of imaging, as compared with the case where the imaging is repeated in a plurality of times.

本実施形態では、このような1ショット長尺撮影を行うために、撮影台11のホルダー11Aは複数の放射線検出装置10を装填可能に構成されている。
図1に示す例では、3つの放射線検出装置10(10a,10b,10c)が、その一部が重畳された状態で被写体Mである患者の体軸方向に並ぶようにしてホルダー11Aに装填されている。
具体的には、ホルダー11A内に、体軸方向のより下側に配置される放射線検出装置10(10b,10c)の方がより上側の放射線検出装置10(10a)よりも放射線照射装置12に近くなるように複数の放射線検出装置10の上下方向(図1の上下方向)の端部を重ね合わせた状態で装填される。
In the present embodiment, in order to perform such one-shot long imaging, the holder 11A of the imaging table 11 is configured to be capable of loading a plurality of radiation detection devices 10.
In the example shown in FIG. 1, three radiation detection devices 10 (10a, 10b, 10c) are loaded into the holder 11A so as to be aligned in the body axis direction of the patient who is the subject M in a state where a part of the radiation detection devices 10 (10a, 10b, 10c) is superimposed. ing.
Specifically, the radiation detection device 10 (10b, 10c) arranged in the holder 11A on the lower side in the body axis direction is attached to the radiation irradiation device 12 than the radiation detection device 10 (10a) on the upper side. The plurality of radiation detection devices 10 are loaded in a state where the ends in the vertical direction (vertical direction in FIG. 1) are overlapped so as to be close to each other.

図2は、図1において一点鎖線で囲んだ部分IIの拡大図であり、ホルダー11A内に配置された放射線検出装置10(図2では10aと10bの一部を図示)の要部を示す模式的な断面図である。
放射線検出装置10は、図2に示すように、筐体101内に検出部10sが収容されたFPD(Flat Panel Detector)等のパネル状の検出装置である。検出部10sは、半導体イメージセンサーにより構成され、例えばガラス基板等を有し、基板上の所定位置に、放射線照射装置12から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。FPDにはX線をシンチレーターを介して光電変換素子により電気信号に変換する間接変換型、X線を直接的に電気信号に変換する直接変換型があるが、いずれを用いてもよい。
FIG. 2 is an enlarged view of the portion II surrounded by the alternate long and short dash line in FIG. 1, and is a schematic showing a main part of the radiation detection device 10 (a part of 10a and 10b is shown in FIG. 2) arranged in the holder 11A. Cross-sectional view.
As shown in FIG. 2, the radiation detection device 10 is a panel-shaped detection device such as an FPD (Flat Panel Detector) in which the detection unit 10s is housed in the housing 101. The detection unit 10s is composed of a semiconductor image sensor, for example, has a glass substrate or the like, and detects at least the radiation emitted from the radiation irradiation device 12 and transmitted through the subject M at a predetermined position on the substrate according to the intensity thereof. , A plurality of detection elements (pixels) that convert the detected radiation into an electric signal and store it are arranged in a matrix. Each pixel is configured to include a switching unit such as a TFT (Thin Film Transistor). The FPD has an indirect conversion type that converts X-rays into an electric signal by a photoelectric conversion element via a scintillator and a direct conversion type that directly converts X-rays into an electric signal, and either of them may be used.

各放射線検出装置10(図2では10aと10b)は、放射線検出装置10aの下端部と放射線検出装置10bの上端部とが重なり合っている。このため、放射線検出装置10aの検出部10sによって検出される画像には、放射線検出装置10bの筐体101と検出部10sが幅Laの領域の分だけ写り込む。
1ショット長尺撮影で得られた画像を1枚の画像に合成する際には、この重なり合い部分(当該部分が、後述するように、重畳領域であり補正が必要とされる補正領域である。)に写り込んだ成分を補正によって低減・除去し、放射線検出装置10同士の繋ぎ目を目立たなくし、あたかも1枚の画像として撮影されたような仕上がりとすることが望まれる。
なお、この補正処理(画像処理)については後述する。
In each radiation detection device 10 (10a and 10b in FIG. 2), the lower end portion of the radiation detection device 10a and the upper end portion of the radiation detection device 10b overlap each other. Therefore, in the image detected by the detection unit 10s of the radiation detection device 10a, the housing 101 of the radiation detection device 10b and the detection unit 10s are reflected by the region of the width La.
When synthesizing an image obtained by one-shot long shooting into one image, this overlapping portion (the portion is a superimposition region and a correction region that needs to be corrected, as will be described later). ) Is reduced or removed by correction to make the joints between the radiation detection devices 10 inconspicuous, and it is desired to make the finish as if it was taken as one image.
This correction process (image processing) will be described later.

なお、撮影台11のホルダー11Aは、3つの放射線検出装置10を装填可能なものに限定されない。例えば、2つや4つ以上の放射線検出装置10を装填可能に構成されていてもよい。
また、複数の放射線検出装置10の配置の仕方は図1や図2に示した例に限定されない。例えば、ホルダー11A内に、複数の放射線検出装置10(10a,10b,10c)が、放射線照射装置12に近い側と遠い側に交互に配置されるように装填する構成とすることも可能である。
さらに、図1では、1ショット長尺撮影用の撮影台11が、被写体Mである患者を撮影台11の前に立たせて撮影を行う立位撮影用である場合を図示しているが、撮影台11はこれに限定されない。例えば、1ショット長尺撮影用の撮影台11は、複数の放射線検出装置10(10a,10b,10c)が装填されたホルダー11Aが床面とほぼ平行に配置され、ホルダー11Aの上側となる板上に患者が横臥したり着座したりして撮影を行う臥位撮影用であってもよい。
The holder 11A of the photographing table 11 is not limited to one that can be loaded with the three radiation detection devices 10. For example, it may be configured so that two or four or more radiation detection devices 10 can be loaded.
Further, the method of arranging the plurality of radiation detection devices 10 is not limited to the examples shown in FIGS. 1 and 2. For example, a plurality of radiation detection devices 10 (10a, 10b, 10c) may be loaded in the holder 11A so as to be alternately arranged on the side closer to the radiation irradiation device 12 and the side far from the radiation irradiation device 12. ..
Further, FIG. 1 illustrates a case where the shooting table 11 for one-shot long shooting is for standing shooting in which the patient who is the subject M stands in front of the shooting table 11 for shooting. The stand 11 is not limited to this. For example, in the photographing table 11 for one-shot long photographing, the holder 11A loaded with a plurality of radiation detection devices 10 (10a, 10b, 10c) is arranged substantially parallel to the floor surface, and is a plate on the upper side of the holder 11A. It may be for recumbent radiography in which the patient lies down or sits on top of the radiography.

また、撮影台11には、読取制御装置15が設けられている。
読取制御装置15は、コンソール3から入力された各種の画像読取条件に基づいて放射線検出装置10の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出装置10に蓄積された電気信号を読み取ることで、画像データを取得する。
ここで、読取制御装置15は後述する放射線照射制御装置13と接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。
読取制御装置15は、コンソール3と接続されており、取得した画像をコンソール3に出力する。
Further, the photographing table 11 is provided with a reading control device 15.
The reading control device 15 controls the switching unit of each pixel of the radiation detection device 10 based on various image reading conditions input from the console 3 to switch the reading of the electric signal stored in each pixel. Then, the image data is acquired by reading the electric signal stored in the radiation detection device 10.
Here, the reading control device 15 is connected to a radiation irradiation control device 13 described later, and exchanges synchronization signals with each other to synchronize the radiation irradiation operation and the image reading operation.
The reading control device 15 is connected to the console 3 and outputs the acquired image to the console 3.

放射線照射装置12は、被写体Mを挟んで放射線検出装置10(10a,10b,10c)がセットされた撮影台11と対向する位置に配置され、放射線照射制御装置13の制御に従って、図示しない放射線源から被写体Mの対象部位に対し放射線(X線)を照射する。
具体的には、放射線技師等の操作者が操作して放射線照射装置12に対して放射線の照射開始等を指示するための図示しない曝射スイッチが押下されると、この押下に応じてコンソール3が放射線照射制御装置13を制御し、放射線撮影を行わせる。
放射線照射制御装置13は、コンソール3と接続されており、コンソール3から入力された各種の放射線照射条件に基づいて放射線源を制御して放射線撮影を行う。コンソール3から入力される放射線照射条件は、例えば、X線管電流の値、X線管電圧の値、付加フィルター種等である。
本実施形態では長尺撮影を行うため、放射線照射装置12は、被写体Mである患者を介して、撮影台11のホルダー11Aに装填された複数の放射線検出装置10(10a,10b,10c)に同時に放射線を1回照射(すなわち1ショット)することができるようにいわゆる広角照射タイプのものが適用される。
The radiation irradiation device 12 is arranged at a position facing the photographing table 11 on which the radiation detection device 10 (10a, 10b, 10c) is set with the subject M interposed therebetween, and is a radiation source (not shown) according to the control of the radiation irradiation control device 13. Irradiates the target portion of the subject M with radiation (X-rays).
Specifically, when an operator such as a radiologist operates an exposure switch (not shown) for instructing the radiation irradiation device 12 to start irradiating radiation, the console 3 responds to the pressing. Controls the radiation irradiation control device 13 to perform radiography.
The radiation irradiation control device 13 is connected to the console 3 and controls the radiation source based on various radiation irradiation conditions input from the console 3 to perform radiography. The irradiation conditions input from the console 3 are, for example, an X-ray tube current value, an X-ray tube voltage value, an additional filter type, and the like.
In order to perform long-length imaging in the present embodiment, the radiation irradiation device 12 is attached to a plurality of radiation detection devices 10 (10a, 10b, 10c) loaded in the holder 11A of the imaging table 11 via the patient who is the subject M. A so-called wide-angle irradiation type is applied so that radiation can be irradiated once (that is, one shot) at the same time.

〔コンソールの構成〕
コンソール3は、放射線照射条件や画像読取条件を撮影装置1に出力し、撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御する撮影用のコンソールとして機能する。
また、本実施形態のコンソール3は、撮影装置1により取得された画像に各種の補正等を行う画像処理装置としても機能する。
コンソール3は、必要な補正等を行ったのち画像データを画像解析装置5に送信する。
[Console configuration]
The console 3 outputs radiation irradiation conditions and image reading conditions to the photographing device 1, and functions as a console for photographing and controlling the radiation photographing and the reading operation of the radiation image by the photographing device 1.
In addition, the console 3 of the present embodiment also functions as an image processing device that performs various corrections and the like on the image acquired by the photographing device 1.
The console 3 transmits the image data to the image analysis device 5 after performing necessary corrections and the like.

コンソール3は、図3に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35等を備えて構成され、各部はバス36により接続されている。 As shown in FIG. 3, the console 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, a communication unit 35, and the like, and each unit is connected by a bus 36.

制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等により構成されるコンピューターである。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAMの作業領域内に展開し、展開されたプログラムに従って、後述する画像処理を始めとする各種処理を実行し、コンソール3各部の動作を集中制御する。
制御部31は、撮影装置1の撮影条件や読取条件等を設定する各種条件設定手段、表示部34を制御する表示制御手段、通信部35を制御する通信制御手段等として機能する。
また、特に本実施形態では、制御部31は、撮影装置1によって取得された画像データのうち、補正が必要な補正領域ArR(図4参照)である放射線検出装置10の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む補正領域について機械学習を用いて所定の構造物の構造物成分を画像情報から低減・除去する補正処理を行う補正手段として機能する。
なお、この補正処理(画像処理)については後述する。
The control unit 31 is a computer composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The CPU of the control unit 31 reads out the system program and various processing programs stored in the storage unit 32 in response to the operation of the operation unit 33 and develops them in the work area of the RAM, and will be described later according to the expanded programs. Various processes such as image processing are executed to centrally control the operation of each part of the console 3.
The control unit 31 functions as various condition setting means for setting the shooting conditions, reading conditions, and the like of the shooting device 1, a display control means for controlling the display unit 34, a communication control means for controlling the communication unit 35, and the like.
Further, particularly in the present embodiment, the control unit 31 is an image area of the superimposed portion of the radiation detection device 10 which is a correction area ArR (see FIG. 4) that needs to be corrected in the image data acquired by the photographing device 1. From the image information, the position of the pixel indicating the predetermined structure is specified, and the structure component of the predetermined structure is reduced / removed from the image information by using machine learning for the correction region including the pixel indicating the predetermined structure. It functions as a correction means for performing correction processing.
This correction process (image processing) will be described later.

記憶部32は、不揮発性の半導体メモリーやハードディスク(HDD:Hard Disk Drive)等により構成される。記憶部32は、制御部31で画像処理(補正処理等)を実行するためのプログラムを始めとする各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。 The storage unit 32 is composed of a non-volatile semiconductor memory, a hard disk (HDD: Hard Disk Drive), or the like. The storage unit 32 stores data such as parameters or processing results required for executing the processing by various programs and programs including a program for executing the image processing (correction processing and the like) in the control unit 31. These various programs are stored in the form of a readable program code, and the control unit 31 sequentially executes an operation according to the program code.

操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えてもよく、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。 The operation unit 33 is configured to include a keyboard equipped with cursor keys, number input keys, various function keys, and a pointing device such as a mouse, and controls an instruction signal input by key operation on the keyboard or mouse operation. Output to 31. Further, the operation unit 33 may include a touch panel on the display screen of the display unit 34, and in this case, the operation unit 33 outputs an instruction signal input via the touch panel to the control unit 31.

表示部34は、例えばLCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、各種表示を行う。 The display unit 34 is composed of a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and performs various displays according to instructions of a display signal input from the control unit 31.

通信部35は、LANアダプターやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
図示を省略するが、コンソール3には、通信ネットワークNT等を介してHIS(Hospital Information System;病院情報システム)やRIS(Radiology Information System;放射線科情報システム)、PACS(Picture Archiving and Communication System)等が接続されている。
The communication unit 35 includes a LAN adapter, a modem, a TA, and the like, and controls data transmission / reception with each device connected to the communication network NT.
Although not shown, the console 3 has HIS (Hospital Information System), RIS (Radiology Information System), PACS (Picture Archiving and Communication System), etc. via the communication network NT or the like. Is connected.

〔画像解析装置の構成〕
画像解析装置5は、例えば、画像による診断等を行う医師等が用いるコンピューター装置である。
画像解析装置5は、図示しない制御部、記憶部、操作部、表示部、通信部等を備え、コンソール3から送信された画像について各種解析等を行うことにより、被写体M(患者)の各部位(撮影対象部位)に病変等があるか否かを医師が判断する際にこれを支援したり、診断結果を患者に示し、説明等を行うための表示等を行う。
[Configuration of image analyzer]
The image analysis device 5 is, for example, a computer device used by a doctor or the like who performs diagnosis using images.
The image analysis device 5 includes a control unit, a storage unit, an operation unit, a display unit, a communication unit, and the like (not shown), and performs various analyzes and the like on the image transmitted from the console 3 to perform various analyzes and the like to each part of the subject M (patient). When the doctor determines whether or not there is a lesion or the like in (the part to be imaged), this is assisted, and the diagnosis result is shown to the patient and displayed for explanation.

なお、本実施形態では、コンソール3が撮影に関する各種指示等を撮影装置1に対して行うとともに、撮影装置1によって取得された画像データに各種の補正を行い、複数の放射線検出装置10(10a,10b,10c)により取得された画像データを1つの画像に合成する等の画像処理を行う画像処理装置としても機能する場合を例として説明するが、放射線画像撮影システムはこのような構成に限定されない。
例えば、コンソール3が撮影用のコンソールとして、撮影に関する各種指示等を撮影装置1に対して行うにとどまるものとしてもよい。
この場合には、撮影装置1の複数の放射線検出装置10(10a,10b,10c)によって取得された画像データをコンソールが受け取って、コンソールとは別体の画像処理装置に送信し、画像処理装置側において画像データに各種の補正等を行う。
なお、画像解析を行う画像解析装置が画像処理装置として機能してもよい。この場合には、画像解析装置が、画像データに各種の補正を行い、補正後の画像データを1つの画像に合成する等の画像処理を行った上で各種の画像解析を行うようにしてもよい。
In the present embodiment, the console 3 gives various instructions regarding imaging to the imaging device 1, and various corrections are made to the image data acquired by the imaging device 1, so that the plurality of radiation detection devices 10 (10a, 10a, The case where the image data acquired by 10b and 10c) also functions as an image processing device for performing image processing such as synthesizing into one image will be described as an example, but the radiation imaging system is not limited to such a configuration. ..
For example, the console 3 may be used as a console for shooting, and various instructions and the like related to shooting may be given only to the shooting device 1.
In this case, the console receives the image data acquired by the plurality of radiation detection devices 10 (10a, 10b, 10c) of the photographing device 1 and transmits the image data to an image processing device separate from the console, and the image processing device. Various corrections are made to the image data on the side.
An image analysis device that performs image analysis may function as an image processing device. In this case, the image analysis device may perform various corrections on the image data, perform image processing such as synthesizing the corrected image data into one image, and then perform various image analysis. Good.

[1ショット長尺撮影の際に放射線画像撮影システムで行われる各処理について]
1ショット長尺撮影の際に、コンソール3や、撮影台11のホルダー11Aに装填された各放射線検出装置10(10a,10b,10c)等における撮影時の各処理(すなわち放射線照射装置12からの放射線の照射前後に行われる処理やその後の画像データの読み出し処理等の各処理)は、基本的に単純撮影の場合と同様であり、公知の処理であるから説明を省略する。
[About each process performed by the radiation imaging system when taking a long shot of one shot]
At the time of one-shot long shooting, each process at the time of shooting (that is, from the radiation irradiation device 12) in each of the radiation detection devices 10 (10a, 10b, 10c) loaded in the console 3 and the holder 11A of the shooting table 11 and the like. The processing performed before and after the irradiation of radiation and the subsequent processing such as reading out image data) are basically the same as in the case of simple photographing, and since they are known processing, the description thereof will be omitted.

そして、コンソール3は、放射線検出装置10(10a,10b,10c)からそれぞれ画像データDや、各放射線検出素子内で発生する暗電荷(暗電流等ともいう。)に起因するオフセット分に相当するオフセットデータOが転送されてくると、それに基づいて下記の式(1)に従って放射線検出装置10(10a,10b,10c)の各放射線検出素子ごとに画像データDからオフセットデータOを減算して真の画像データDを算出し、算出した真の画像データDに対してゲイン補正や欠陥画素補正、撮影部位に応じた階調処理等の精密な画像処理を行って放射線検出装置10(10a,10b,10c)ごとにそれぞれ画像を生成する。
=D−O …(1)
The console 3 corresponds to the image data D from the radiation detection device 10 (10a, 10b, 10c) and the offset amount caused by the dark charge (also referred to as dark current) generated in each radiation detection element. When the offset data O is transferred, the offset data O is subtracted from the image data D for each radiation detection element of the radiation detection device 10 (10a, 10b, 10c) according to the following equation (1) to be true. The image data D * of the above is calculated, and the calculated true image data D * is subjected to precise image processing such as gain correction, defect pixel correction, and gradation processing according to the imaged portion, and the radiation detection device 10 (10a) is performed. , 10b, 10c), respectively, to generate an image.
D * = DO ... (1)

なお、以下、上記のように放射線検出装置10で得られた画像データD等に基づいて生成された画像を、放射線検出装置10で得られた画像Pという(なお、図4において、放射線検出装置10aで得られた画像を「画像P1」、放射線検出装置10bで得られた画像を「画像P2」としている)。
また、上記の時点では、図4に示すように、上記のようにして生成された放射線検出装置10a,10b等で得られた各画像P1,P2等のうち、ホルダー11A内で後方(放射線照射装置12から遠い方)の放射線検出装置10aで得られた画像P1中であって、放射線検出装置10同士の重畳領域である補正領域ArR(図4参照)には、前方(放射線照射装置12から近い方)の放射線検出装置10bの筐体101や内部構造のエッジ部分等の直線状の構造に起因する横スジ状のスジ成分、前方の放射線検出装置10bの筐体101内部の各種構造物に起因する構造物成分C等が写り込んでいる。
Hereinafter, the image generated based on the image data D or the like obtained by the radiation detection device 10 as described above is referred to as an image P obtained by the radiation detection device 10 (note that, in FIG. 4, the radiation detection device). The image obtained by 10a is referred to as "image P1", and the image obtained by the radiation detection device 10b is referred to as "image P2").
Further, at the above time point, as shown in FIG. 4, of the images P1, P2, etc. obtained by the radiation detection devices 10a, 10b, etc. generated as described above, the rear side (radiation irradiation) in the holder 11A. In the image P1 obtained by the radiation detection device 10a (farther from the device 12), the correction area ArR (see FIG. 4), which is an overlapping area between the radiation detection devices 10, is in front (from the radiation irradiation device 12). For the housing 101 of the radiation detection device 10b (closer), the horizontal streak component caused by the linear structure such as the edge portion of the internal structure, and various structures inside the housing 101 of the front radiation detection device 10b. The resulting structural component C and the like are reflected.

すなわち、本実施形態に係る撮影台11のホルダー11A内では、各放射線検出装置10は、図2に示すように、例えば前方下側の放射線検出装置10bの上端部分と後方上側の放射線検出装置10aの下端部分とが前後方向に重なり合っている。
そのため、後方上側の放射線検出装置10aで得られた画像P1の下端部分に、前方の放射線検出装置10bの筐体101の上端部分や検出部10sの上端の辺部分等に起因するスジ成分や、前方の放射線検出装置10bの検出部10sに取り付けられている図示しない回路基板上に実装されている各種電子部品等の筐体101内部の構造物に起因する構造物成分Cが写り込んでいる。
構造物成分Cとは、このように筐体101内部に実装された電子部品等の各種構造物が放射線の透過に影響を与えることによって画像Pに現れるものであり、図4等において白く写り込んでいるものをいう。
このような放射線検出装置10同士の重畳領域(図2において幅Laで示す幅の領域)は、補正処理を行う必要のある補正領域ArRとされる。
That is, in the holder 11A of the photographing table 11 according to the present embodiment, as shown in FIG. 2, each radiation detection device 10 has, for example, the upper end portion of the front lower side radiation detection device 10b and the rear upper radiation detection device 10a. The lower end of the is overlapped in the front-back direction.
Therefore, in the lower end portion of the image P1 obtained by the radiation detection device 10a on the rear upper side, a streak component caused by the upper end portion of the housing 101 of the front radiation detection device 10b, the upper end side portion of the detection portion 10s, and the like, and the streak component, etc. The structure component C caused by the structure inside the housing 101 such as various electronic components mounted on the circuit board (not shown) attached to the detection unit 10s of the front radiation detection device 10b is reflected.
The structure component C appears in the image P when various structures such as electronic components mounted inside the housing 101 affect the transmission of radiation, and is reflected in white in FIG. 4 and the like. The one that is out.
Such an overlapping region between the radiation detection devices 10 (a region having a width indicated by the width La in FIG. 2) is a correction region ArR that needs to be corrected.

また、この補正領域ArR内に移り込んでいる構造物には、所定値以上の高コントラストを示す「所定の構造物」が含まれている場合がある。図4等において、この所定の構造物の構造物成分を「構造物成分Cs」とする。
ここで所定の構造物とは、例えば金属製のねじ等である。
所定値以上の高コントラストという場合に、どの程度の値を所定値とするかは、適宜設定可能な事項である。所定値は、デフォルトで予め設定されていてもよいし、事後的にユーザー等が設定又は変更することができるようになっていてもよい。
このように「構造物成分Cs」とは、筐体101に設けられたねじ等、所定値以上の高コントラストを示す「所定の構造物」が放射線の透過に影響を与えることによって画像Pに現れるものであり、図4等において白く写り込んでいるものをいう。
Further, the structure that has moved into the correction region ArR may include a "predetermined structure" that exhibits a high contrast of a predetermined value or more. In FIG. 4 and the like, the structural component of this predetermined structure is referred to as “structural component Cs”.
Here, the predetermined structure is, for example, a metal screw or the like.
In the case of high contrast of a predetermined value or more, how much value should be set as a predetermined value is a matter that can be appropriately set. The predetermined value may be preset by default, or may be set or changed by the user or the like after the fact.
As described above, the "structure component Cs" appears in the image P when the "predetermined structure" showing a high contrast of a predetermined value or more, such as a screw provided in the housing 101, affects the transmission of radiation. It refers to a thing that is reflected in white in FIG. 4 and the like.

[本実施形態における画像処理(画像補正)方法について]
本実施形態に係る放射線画像撮影システム100では、撮影台11のホルダー11Aに装填された各放射線検出装置10(10a,10b,10c)で得られた画像Pから構造物成分C、所定の構造物の構造物成分Cs等を画像情報から低減・除去する画像補正処理が、画像処理装置として機能するコンソール3(コンソール3の制御部31)において行われる。
[About the image processing (image correction) method in this embodiment]
In the radiation imaging system 100 according to the present embodiment, the structure component C and the predetermined structure are obtained from the image P obtained by each of the radiation detection devices 10 (10a, 10b, 10c) loaded in the holder 11A of the imaging table 11. The image correction process for reducing / removing the structural component Cs and the like from the image information is performed by the console 3 (control unit 31 of the console 3) that functions as an image processing device.

以下、画像補正処理について、図5及び図6等を参照しつつ説明する。
図5は、本実施形態における画像補正処理の概要を示すフローチャートである。また、図6は、図5におけるステップS3「所定の構造物の構造物成分の低減・除去処理」の内容をさらに詳細に示したフローチャートである。
Hereinafter, the image correction process will be described with reference to FIGS. 5 and 6 and the like.
FIG. 5 is a flowchart showing an outline of the image correction process in the present embodiment. Further, FIG. 6 is a flowchart showing the contents of step S3 “reduction / removal processing of structural components of a predetermined structure” in FIG. 5 in more detail.

まず、画像処理装置としてのコンソール3では、各放射線検出装置10(10a,10b,10c)で得られた画像Pについてキャリブレーション補正を行う(図5のステップS1,S2参照)。
キャリブレーション補正は、予め取得されたキャリブレーション用画像Pcal(図7参照)を用いて行われる。
このキャリブレーション用画像Pcalは、各放射線検出装置10(10a,10b,10c)を撮影台11のホルダー11A内に装填し、被写体Mである患者が介在しない状態で放射線照射装置12から放射線を照射して撮影されたものである。
キャリブレーション用画像Pcalは、各放射線検出装置10(10a,10b,10c)で得られた画像データ等に基づいて、上記の画像Pの生成処理と同様の処理により生成される。
First, in the console 3 as an image processing device, calibration correction is performed on the image P obtained by each radiation detection device 10 (10a, 10b, 10c) (see steps S1 and S2 in FIG. 5).
The calibration correction is performed using a pre-acquired calibration image Pcal (see FIG. 7).
In this calibration image Pcal, each radiation detection device 10 (10a, 10b, 10c) is loaded in the holder 11A of the photographing table 11 and the radiation is irradiated from the radiation irradiation device 12 without the intervention of the patient who is the subject M. It was taken after.
The calibration image Pcal is generated by the same process as the above-mentioned image P generation process based on the image data or the like obtained by each radiation detection device 10 (10a, 10b, 10c).

例えば、放射線検出装置10の工場出荷時や、放射線検出装置10の病院等の施設への導入時等に、当該放射線検出装置10に関するキャリブレーション用画像Pcalを予め取得しておく。なお、キャリブレーション用画像Pcalは撮影ごとに撮影前に取得したり、定期的に取得するように構成することも可能である。
キャリブレーション用画像Pcalは、これが取得された放射線検出装置10の情報等をヘッダー情報として書き込む等により当該放射線検出装置10との対応付けがなされた状態で、コンソール3の記憶部32や図示しないサーバー等の記憶手段のデータベース等に予め記憶される。
For example, when the radiation detection device 10 is shipped from a factory or when the radiation detection device 10 is introduced into a facility such as a hospital, a calibration image Pcal related to the radiation detection device 10 is acquired in advance. It should be noted that the calibration image Pcal can be acquired for each shooting before shooting, or can be configured to be acquired periodically.
The calibration image Pcal is associated with the radiation detection device 10 by writing the acquired information of the radiation detection device 10 as header information, and is associated with the storage unit 32 of the console 3 or a server (not shown). Etc. are stored in advance in a database of storage means such as.

本実施形態では、放射線検出装置10aがホルダー11A内の最も後方位置(放射線照射装置12から離れた位置)に配置され、放射線検出装置10b,10cが順次それぞれ一部が重なるようにして前方位置(放射線照射装置12に近い位置)に配置された状態(図1参照)で1ショット長尺撮影が行われるようになっており、キャリブレーション用画像Pcalを取得する際にも、同様の配置となるように各放射線検出装置10(10a,10b,10c)を撮影台11のホルダー11A内に装填して撮影を行う。
これにより、後方に配置された放射線検出装置10aで得られたキャリブレーション用画像Pcalには構造物成分C、所定の構造物の構造物成分Cs等が写り込む(図7参照)。
In the present embodiment, the radiation detection device 10a is arranged at the rearmost position (a position away from the radiation irradiation device 12) in the holder 11A, and the radiation detection devices 10b and 10c are sequentially overlapped with each other at the front position (a position away from the radiation irradiation device 12). One-shot long shooting is performed in a state (see FIG. 1) in a state (position close to the radiation irradiation device 12), and the same arrangement is used when acquiring the calibration image Pcal. As described above, each radiation detection device 10 (10a, 10b, 10c) is loaded into the holder 11A of the imaging table 11 to perform imaging.
As a result, the structure component C, the structure component Cs of a predetermined structure, and the like are reflected in the calibration image Pcal obtained by the radiation detection device 10a arranged behind (see FIG. 7).

なお、放射線検出装置10の種類・構造によって、画像P(またキャリブレーション用画像Pcal)に写り込む成分も異なる。また、複数の放射線検出装置10(10a,10b,10c)をどのような配置で撮影台11のホルダー11A内に装填するか、各放射線検出装置10の重畳位置や重畳の前後関係(放射線照射装置12からの放射線の照射方向における前後関係)によっても画像P(またキャリブレーション用画像Pcal)に写り込む成分、写り込み方が異なる。
適切にキャリブレーション補正を行うためには、実際に被写体Mを撮影した際と同様の種類の放射線検出装置10によって同様の配置(重ね合わせ方等)で撮影が行われたキャリブレーション用画像Pcalを用いることが重要となる。
The components reflected in the image P (also the calibration image Pcal) differ depending on the type and structure of the radiation detection device 10. Further, in what arrangement the plurality of radiation detection devices 10 (10a, 10b, 10c) are loaded in the holder 11A of the photographing table 11, the superimposition position of each radiation detection device 10 and the context of superimposition (radiation irradiation device). The components and the way of being reflected in the image P (also the calibration image Pcal) are different depending on the anteroposterior relationship in the irradiation direction of the radiation from 12.
In order to properly perform calibration correction, a calibration image Pcal shot in the same arrangement (superimposition method, etc.) by the radiation detection device 10 of the same type as when the subject M was actually shot is displayed. It is important to use.

このため、本撮影(被写体Mを配置しての撮影)で得られた画像P(補正領域ArRの画像Pa)に対してキャリブレーション補正を行う場合には、例えば、撮影台11のホルダー11Aに装填された放射線検出装置10の種類や各放射線検出装置10の装填位置等を示す情報を、放射線技師等の操作者が、画像処理装置としてのコンソール3に入力し、本撮影の際に、当該撮影時の各種情報とキャリブレーション用画像Pcalのヘッダー情報とが合致するように調整することが好ましい。 Therefore, when performing calibration correction on the image P (image Pa of the correction area ArR) obtained in the main shooting (shooting with the subject M arranged), for example, in the holder 11A of the shooting table 11. An operator such as a radiologist inputs information indicating the type of the loaded radiation detection device 10 and the loading position of each radiation detection device 10 into the console 3 as an image processing device, and at the time of the actual shooting, the relevant information is obtained. It is preferable to adjust so that various information at the time of shooting and the header information of the calibration image Pcal match.

具体的には、図5に示すように、まず、コンソール3の制御部31は、補正に用いるキャリブレーション用画像Pcalを記憶部32等から読み出し、キャリブレーション用画像Pcalのヘッダー等に書き込まれているキャリブレーション撮影時の各放射線検出装置10の重なり具合(図2の幅La等)の情報等と実際に1ショット長尺撮影を行った際の各放射線検出装置10の重なり具合(図2の幅La等)の情報等に基づいて、キャリブレーション用画像Pcalの位置が画像P(例えば放射線検出装置10aによって取得された画像P1)の位置に合うように位置を調整する。
また、コンソール3の制御部31は、キャリブレーション用画像Pcalの撮影時の各種情報と実際の1ショット長尺撮影時(本撮影時)の各種情報に基づいて、キャリブレーション用画像Pcalの拡大率が画像P(画像P1)の拡大率に合うように拡大率を調整する(ステップS1)。
Specifically, as shown in FIG. 5, first, the control unit 31 of the console 3 reads out the calibration image Pcal used for correction from the storage unit 32 or the like, and writes it in the header or the like of the calibration image Pcal. Information such as the degree of overlap of each radiation detection device 10 during calibration imaging (width La, etc. in FIG. 2) and the degree of overlap of each radiation detection device 10 when actually performing one-shot long imaging (FIG. 2). The position of the calibration image Pcal is adjusted so as to match the position of the image P (for example, the image P1 acquired by the radiation detection device 10a) based on the information of the width La and the like.
Further, the control unit 31 of the console 3 increases the magnification of the calibration image Pcal based on various information at the time of shooting the calibration image Pcal and various information at the time of actual one-shot long shooting (main shooting). Adjusts the enlargement ratio so as to match the enlargement ratio of the image P (image P1) (step S1).

キャリブレーション用画像Pcalの位置及び拡大率が調整されたら、当該調整後のキャリブレーション用画像Pcalを用いて、実際に1ショット長尺撮影を行った際に各放射線検出装置10(ここでは特に放射線検出装置10a)によって取得された画像P(例えば放射線検出装置10aによって取得された画像P1)についてキャリブレーション補正を行う(ステップS2)。 After the position and magnification of the calibration image Pcal are adjusted, each radiation detection device 10 (here, in particular, radiation) is used when the one-shot long image is actually taken using the adjusted calibration image Pcal. Calibration correction is performed on the image P (for example, the image P1 acquired by the radiation detection device 10a) acquired by the detection device 10a) (step S2).

図7はキャリブレーション補正を模式的に示した説明図である。
なお、図7では、画像P中における、放射線検出装置10同士の重畳領域である補正領域ArR(図4における補正領域ArR。すなわち図2において幅Laの部分に相当する領域)に対応する画像Paと、キャリブレーション用画像Pcal中であって当該画像Paに対応する領域のみを図示している。キャリブレーション補正は、放射線検出装置10同士の重畳領域である補正領域ArRに限定されず、画像P全補正画像PCを生成してもよいが、特の補正が必要とされる放射線検出装置10同士の重畳領域(補正領域ArR)を特定して、この範囲について補正を行う方が効果的・効率的であり、望ましい。
FIG. 7 is an explanatory diagram schematically showing the calibration correction.
In FIG. 7, the image Pa corresponding to the correction region ArR (correction region ArR in FIG. 4, that is, the region corresponding to the portion of the width La in FIG. 2), which is a superposition region between the radiation detection devices 10 in the image P. And, only the area corresponding to the image Pa in the calibration image Pcal is shown in the figure. The calibration correction is not limited to the correction area ArR, which is a superposition region between the radiation detection devices 10, and may generate an image P full-correction image PC, but the radiation detection devices 10 that require special correction are used. It is more effective and efficient and desirable to specify the superposed region (correction region ArR) of the above and perform correction in this range.

キャリブレーション補正では、コンソール3の制御部31は、画像P1(補正領域ArRの画像Pa)のうち、前方に配置された放射線検出装置10bの構造物(例えば基板上のIC等)が写り込んでいるために画素値が小さくなっている画素部分(すなわち構造物成分Cが写り込んでいる部分)の画素値fを適切に嵩上げして画像補正することで、画像P1(補正領域ArRの画像Pa)中から構造物成分Cを低減・除去するようになっている。 In the calibration correction, the control unit 31 of the console 3 reflects the structure (for example, IC on the substrate) of the radiation detection device 10b arranged in front of the image P1 (image Pa of the correction area ArR). Image P1 (image Pa in the correction area ArR) is corrected by appropriately raising the pixel value f of the pixel portion (that is, the portion in which the structure component C is reflected) whose pixel value is small. ) The structural component C is reduced / removed from the inside.

具体的には、補正前の画像Pの各画素(x,y)の画素値をf(x,y)、キャリブレーション画像Pcalの画素値のコントラストの値をk(x,y)、補正係数をA(x,y)、補正後の画像Pの画素値をg(x,y)とすると、コンソール3の制御部31は、各画素(x,y)についてそれぞれ下記の式(2)に従って画素値g(x,y)を算出する。なお、補正係数Aは、所定の手法にて画素ごとに算出・推定されるものである。
g(x,y)=f(x,y)+A(x,y)×k(x,y) …(2)
これにより、画像Pに写り込んでいた構造物成分C等が画像情報から低減・除去された、キャリブレーション補正の補正結果としての補正画像PCが生成される(図7参照)。
このように、構造物成分C等を低減・除去する低減・除去処理とは、電子部品等の各種構造物が放射線の透過に影響を与えることによって画素値が小さくなっている画素部分の画素値fを適切に嵩上げして画像Pの画像情報を補正することにより、図4等において白く見えていた写り込みを画像Pから低減させることをいう。なお、「低減・除去」とした場合、及び単に「低減」とした場合にも、画像上目立たなくするレベルから完全に取り除く(除去・消去する)場合までを含むものとする。
なお、キャリブレーション補正に関する各処理は、基本的に単純撮影において行われる処理と同様であり、公知の処理であるから詳細な説明を省略する。
Specifically, the pixel value of each pixel (x, y) of the image P before correction is f (x, y), the contrast value of the pixel value of the calibration image Pcal is k (x, y), and the correction coefficient. Is A (x, y), and the pixel value of the corrected image P is g (x, y). Then, the control unit 31 of the console 3 follows the following equation (2) for each pixel (x, y). The pixel value g (x, y) is calculated. The correction coefficient A is calculated and estimated for each pixel by a predetermined method.
g (x, y) = f (x, y) + A (x, y) x k (x, y) ... (2)
As a result, a corrected image PC as a correction result of the calibration correction is generated in which the structure component C and the like reflected in the image P are reduced / removed from the image information (see FIG. 7).
In this way, the reduction / removal process of reducing / removing the structure component C or the like is the pixel value of the pixel portion where the pixel value is reduced due to the influence of various structures such as electronic components on the transmission of radiation. By appropriately raising f and correcting the image information of the image P, it means that the reflection that appears white in FIG. 4 and the like is reduced from the image P. It should be noted that the case of "reduction / removal" and the case of simply "reduction" also include the case of completely removing (removing / erasing) from the level that makes the image inconspicuous.
It should be noted that each process related to the calibration correction is basically the same as the process performed in the simple photographing, and since it is a known process, detailed description thereof will be omitted.

しかし、所定値以上の高コントラストの値を持つ所定の構造物(例えば、ねじ等)については、上記のような通常のキャリブレーション補正を行うのみでは当該構造物の構造物成分Csを効果的に低減・除去することが難しい。
すなわち、上記のように、既存のキャリブレーション補正では、補正前の画像Pの画素値fに対してキャリブレーション画像Pcalの画素値のコントラストの値kに補正係数Aを乗じたものを加算して最終的に補正後の画像PCを得る。
However, for a predetermined structure (for example, a screw or the like) having a high contrast value equal to or higher than a predetermined value, the structure component Cs of the structure can be effectively obtained only by performing the usual calibration correction as described above. Difficult to reduce / remove.
That is, as described above, in the existing calibration correction, the pixel value f of the image P before correction is added by multiplying the contrast value k of the pixel value of the calibration image Pcal by the correction coefficient A. Finally, the corrected image PC is obtained.

ここで補正箇所のコントラストの値kが小さい場合には、推定された補正係数Aに多少の誤差があっても最終的な補正後の画素値gの値にあまり差が出ない。このため、診断用の画像として気にならない程度の仕上がりの画像PC(キャリブレーション補正の結果画像)を得ることができる。
しかし、補正箇所のコントラストの値kが大きい場合(高コントラストの場合)には、補正係数Aに多少でも誤差があると最終的な補正後の画素値gの値に大きな差が生じてしまい、補正係数Aには高い精度が要求される。
このため、補正係数Aの推定精度によっては、補正後の画素値gに高コントラストを示す所定の構造物(例えばねじ等)の構造物成分Csを最終的な画像PC(画像情報)から効果的に低減・除去することができず、残ってしまう場合がある。
Here, when the contrast value k of the correction portion is small, even if there is some error in the estimated correction coefficient A, there is not much difference in the value of the final corrected pixel value g. Therefore, it is possible to obtain an image PC (image as a result of calibration correction) having a finish that is not noticeable as a diagnostic image.
However, when the contrast value k of the correction portion is large (in the case of high contrast), if there is even a slight error in the correction coefficient A, a large difference will occur in the final corrected pixel value g value. High accuracy is required for the correction coefficient A.
Therefore, depending on the estimation accuracy of the correction coefficient A, the structure component Cs of a predetermined structure (for example, a screw or the like) showing high contrast to the corrected pixel value g can be effectively obtained from the final image PC (image information). It may not be possible to reduce or remove it, and it may remain.

そこで、本実施形態における画像処理装置であるコンソール3の制御部31では、さらに所定の構造物の構造物成分Csを低減・除去する処理を行うようになっている(ステップS3)。
構造物成分Csを除去する除去処理とは、ねじ等の所定値以上の高コントラストを示す「所定の構造物」が放射線の透過に影響を与えることによって画素値が小さくなっている画素の位置を特定して画像Pの画像情報を補正することにより、図4等において白く見えていた写り込みを画像Pから低減させることをいう。なお、ここで「低減・除去」とした場合、及び単に「低減」とした場合にも、画像上目立たなくするレベルから完全に取り除く(除去・消去する)場合までを含むものとする。
具体的には以下のような処理を行う。
Therefore, the control unit 31 of the console 3 which is the image processing device in the present embodiment further reduces / removes the structural component Cs of the predetermined structure (step S3).
The removal process for removing the structure component Cs is the position of a pixel whose pixel value is reduced due to the influence of a "predetermined structure" such as a screw showing a high contrast of a predetermined value or more on the transmission of radiation. By specifying and correcting the image information of the image P, it means that the reflection that appears white in FIG. 4 and the like is reduced from the image P. It should be noted that the case of "reduction / removal" and the case of simply "reduction" also include the case of completely removing (removing / erasing) from the level of making the image inconspicuous.
Specifically, the following processing is performed.

すなわち、所定の構造物の構造物成分Csの除去処理では、まず、図6及び図8に示すように、まず、画像P中、放射線検出装置10同士の重畳部分である補正領域ArRに対応する画像を画像Paとし、この補正領域ArR内の画像Paから高周波成分を抽出する(ステップS11)。
具体的には、画像Paに対して横方向にガウシアンフィルターを適用するフィルター処理を行い、低周波成分が抽出されたフィルター処理後の画像Pbを得る。
そして、元の画像Paからこのフィルター処理後の画像Pb(低周波成分を示す画像)を減算処理して差分を求めることにより、高周波成分を抽出する(図8において、高周波成分を示す画像を画像Pcとする)。
That is, in the removal process of the structural component Cs of the predetermined structure, first, as shown in FIGS. 6 and 8, first, in the image P, the correction region ArR which is the overlapping portion between the radiation detection devices 10 corresponds to. The image is set as the image Pa, and the high frequency component is extracted from the image Pa in the correction region ArR (step S11).
Specifically, the image Pa is subjected to a filter process in which a Gaussian filter is applied in the horizontal direction to obtain an image Pb after the filter process from which low-frequency components are extracted.
Then, the high-frequency component is extracted by subtracting the filtered image Pb (image showing the low-frequency component) from the original image Pa to obtain the difference (in FIG. 8, the image showing the high-frequency component is imaged. Let it be Pc).

次に、画像Pcから特に高コントラストの値を示す所定の構造物(例えばねじ等)の位置を特定、検出し(ステップS12)、当該所定の構造物(例えばねじ等)及びその周辺の画像を抽出する(図8において、抽出画像を画像Pdとする)。 Next, the position of a predetermined structure (for example, a screw or the like) showing a particularly high contrast value is specified and detected from the image Pc (step S12), and an image of the predetermined structure (for example, a screw or the like) and its surroundings is obtained. Extract (in FIG. 8, the extracted image is referred to as image Pd).

所定の構造物の位置を特定、検出する手法は特に限定されないが、例えば、キャリブレーション補正を行うことで得られたキャリブレーション画像(図7の画像PC)に基づいて所定の構造物を示す画素の位置を特定してもよい。
この場合には、キャリブレーション画像(画像PC)にガウシアンフィルターを適用し、フィルター処理後の画像(低周波成分を示す画像)と元のキャリブレーション画像(画像PC)との差分を取ることにより高周波成分を抽出する。
The method for specifying and detecting the position of a predetermined structure is not particularly limited, but for example, a pixel showing a predetermined structure based on a calibration image (image PC in FIG. 7) obtained by performing calibration correction. The position of may be specified.
In this case, a Gaussian filter is applied to the calibrated image (image PC), and the difference between the filtered image (image showing low frequency components) and the original calibrated image (image PC) is taken to obtain a high frequency. Extract the ingredients.

ここで「所定の構造物の構造物成分の低減・除去処理」において低減・除去処理の対象とされるねじ等の所定の構造物は、所定値以上の高いコントラストの値を持つ構造物である。このため、制御部31は、高周波成分を抽出することで特定された構造物が予め設定された一定の閾値に照らして「所定の構造物」に該当するか否かを判断する閾値処理を行う。
これによりキャリブレーション画像(画像PC)中のどの位置に所定の構造物の構造物成分Csが写り込んでいるかを特定する。同様に実際の撮影画像(画像P)についてもガウシアンフィルターを適用し、フィルター処理後の画像(低周波成分を示す画像)と元の撮影画像(画像P)との差分を取ることにより高周波成分を抽出する。さらに実際の撮影画像(画像P)にキャリブレーション画像(画像PC)を重ね合わせることで、構造物成分Csが写り込んでいる位置のおよその位置を特定することができる。
Here, the predetermined structure such as a screw, which is the target of the reduction / removal treatment in the "reduction / removal treatment of the structural component of the predetermined structure", is a structure having a high contrast value equal to or higher than the predetermined value. .. Therefore, the control unit 31 performs threshold processing for determining whether or not the structure specified by extracting the high-frequency component corresponds to the "predetermined structure" in light of a predetermined constant threshold value. ..
Thereby, it is specified at which position in the calibration image (image PC) the structural component Cs of the predetermined structure is reflected. Similarly, a Gaussian filter is applied to the actual captured image (image P), and the high frequency component is obtained by taking the difference between the filtered image (image showing the low frequency component) and the original captured image (image P). Extract. Further, by superimposing the calibration image (image PC) on the actual photographed image (image P), it is possible to specify the approximate position of the position where the structure component Cs is reflected.

ただ、重ね合わせの位置がずれた場合、1mm程度ずれただけでも5画素程度のずれとなる。また放射線の照射される角度等、各種条件でも撮影画像(画像P)に写り込む構造物成分Csの位置が異なってしまう可能性がある。このため、構造物成分Csが写り込んでいる位置と思われる位置の周辺領域でテンプレートマッチングを行い、キャリブレーション画像(画像PC)中で検出された構造物成分Csの位置が実際の撮影画像(画像P)のどこにあたるかを正確に特定することが好ましい。テンプレートマッチングを行う場合における疑似度は、例えば正規化相関関数により算出することができる。
なお、高周波成分を抽出する前提として低周波成分を抽出するために適用するフィルターはガウシアンフィルターに限定されない。また、実際の撮影画像(画像P)における構造物成分Csの位置を正確に特定する手法は、テンプレートマッチングに限定されない。
また、所定の構造物に該当するか否かを判断するための閾値をどの程度とするかについては、適宜設定可能な事項である。低減・除去したい構造物に応じて適宜閾値を変更してもよい。
However, when the superposition position is deviated, even if the deviating position is about 1 mm, the deviation is about 5 pixels. Further, the position of the structural component Cs reflected in the photographed image (image P) may be different depending on various conditions such as the irradiation angle of radiation. Therefore, template matching is performed in the peripheral area of the position where the structure component Cs is reflected, and the position of the structure component Cs detected in the calibration image (image PC) is the actual photographed image (image PC). It is preferable to accurately identify where in the image P). The pseudo degree in the case of template matching can be calculated by, for example, a normalization correlation function.
The filter applied to extract the low frequency component as a premise for extracting the high frequency component is not limited to the Gaussian filter. Further, the method of accurately specifying the position of the structure component Cs in the actual photographed image (image P) is not limited to template matching.
In addition, the threshold value for determining whether or not the structure corresponds to a predetermined structure is a matter that can be appropriately set. The threshold value may be appropriately changed according to the structure to be reduced / removed.

次に、画像推定フィルターF(図9参照)を適用して所定の構造物の画像を生成する(ステップS13)。本実施形態において画像推定フィルターFは、機械学習によって得られるものである。
ここで、画像推定フィルターFを得るための機械学習について図9を参照しつつ説明する。
図9では、例えば人体模型のようなファントムを用いて学習データを作成した場合を例示している。なお、学習データはファントムを用いて作成されたものに限定されず、実際に人を被写体として配置し、撮影を行って作成してもよい。
Next, an image estimation filter F (see FIG. 9) is applied to generate an image of a predetermined structure (step S13). In the present embodiment, the image estimation filter F is obtained by machine learning.
Here, machine learning for obtaining the image estimation filter F will be described with reference to FIG.
FIG. 9 illustrates a case where learning data is created using a phantom such as a human body model. The learning data is not limited to the one created by using the phantom, and may be created by actually arranging a person as a subject and taking a picture.

図9において、画像PFは、複数の放射線検出装置10を撮影台11のホルダー11A内に装填した状態でファントムを撮影した画像であり、画像PF中、放射線検出装置10同士の重畳部分である補正領域ArRに対応する画像を画像PFaとする。
また画像PFbは、画像PFaに横方向にガウシアンフィルターを適用したものであり、このフィルター処理後の画像PFb(低周波成分を示す画像)を元の画像PFaから減算して差分を求めることにより高周波成分を抽出する(高周波成分を示す画像PFc)。画像PFcから特に高コントラストの値を示す所定の構造物(例えばねじ等)及びその周辺を抽出する(抽出画像を画像PFdとする)。
In FIG. 9, the image PF is an image obtained by photographing a phantom with a plurality of radiation detection devices 10 loaded in the holder 11A of the photographing table 11, and is a correction portion in the image PF which is an overlapping portion of the radiation detection devices 10. The image corresponding to the region ArR is referred to as an image PFa.
Further, the image PFb is an image PFa to which a Gaussian filter is applied in the horizontal direction, and the image PFb (an image showing a low frequency component) after the filter processing is subtracted from the original image PFa to obtain a high frequency. Extract the components (image PFc showing high frequency components). A predetermined structure (for example, a screw or the like) showing a particularly high contrast value and its surroundings are extracted from the image PFc (the extracted image is referred to as an image PFd).

なお、このような抽出画像を用いる場合、通常は入力前に抽出された画像全体の標準偏差により正規化が行われる。ただ、本実施形態の画像PFd(図8における画像Pdも同様)においては、高コントラストを示す所定の構造物(例えばねじ等)の構造物成分Csのコントラストを優先させるために、画像全体ではなく、画像PFd(画像Pdも同様)の中央部、すなわちねじ等の所定の構造物周辺の小領域から求められた標準偏差を用いて正規化を行うことが好ましい。
なお、ここではねじ等の所定の構造物周辺から標準偏差を求めて正規化を行う場合を示したが、場合によっては画像全体から求めた標準偏差で正規化を行う方が適切な結果を得られる場合もあり得る。このため、正規化の仕方はここに例示したものに限定されない。
When such an extracted image is used, normalization is usually performed by the standard deviation of the entire image extracted before input. However, in the image PFd of the present embodiment (the same applies to the image Pd in FIG. 8), in order to give priority to the contrast of the structure component Cs of a predetermined structure (for example, a screw) showing high contrast, it is not the entire image. , It is preferable to perform normalization using the standard deviation obtained from the central portion of the image PFd (the same applies to the image Pd), that is, a small region around a predetermined structure such as a screw.
In addition, although the case where the standard deviation is obtained from the periphery of a predetermined structure such as a screw and the normalization is performed is shown here, in some cases, it is more appropriate to perform the normalization with the standard deviation obtained from the entire image. It may be possible. Therefore, the normalization method is not limited to the one illustrated here.

他方で、画像NPFは、単体の放射線検出装置10を撮影台11のホルダー11A内に装填した状態でファントムを撮影した画像であり、画像NPF中、補正領域ArRに対応する画像を画像NPFaとする。
また画像NPFbは、画像NPFaに横方向にガウシアンフィルターを適用したものであり、このフィルター処理後の画像NPFb(低周波成分を示す画像)を元の画像NPFaから減算して差分を求めることにより高周波成分を抽出する(高周波成分を示す画像NPFc)。画像NPFcから画像PFdに対応する位置の画像を抽出する(抽出画像を画像NPFdとする)。
On the other hand, the image NPF is an image obtained by photographing the phantom with the single radiation detection device 10 loaded in the holder 11A of the photographing table 11, and the image corresponding to the correction region ArR in the image NPF is referred to as the image NPFa. ..
Further, the image NPFb is an image NPFa to which a Gaussian filter is applied in the horizontal direction, and the high frequency is obtained by subtracting the image NPFb (an image showing a low frequency component) after this filter processing from the original image NPFa to obtain a difference. Extract the components (image NPFc showing high frequency components). An image at a position corresponding to the image PFd is extracted from the image NPFc (the extracted image is referred to as an image NPFd).

そして、放射線検出装置10同士の重畳部分がある画像PFから抽出された所定の構造物を示す抽出画像(画像PFd)から重畳部分がない画像NPFから抽出された抽出画像(画像NPFd)を減算した結果の画像(画像PFR)を、所定の構造物に対応する画像情報を示す正解データとする。
また、重畳部分がある画像PFから抽出された所定の構造物を示す抽出画像(画像PFd)を入力データとする。
Then, the extracted image (image NPFd) extracted from the image NPF without the overlapping portion was subtracted from the extracted image (image PFd) showing the predetermined structure extracted from the image PF having the overlapping portion between the radiation detection devices 10. The resulting image (image PFR) is used as correct answer data indicating image information corresponding to a predetermined structure.
Further, an extracted image (image PFd) showing a predetermined structure extracted from an image PF having a superposed portion is used as input data.

本実施形態では、機械学習にあたり、このような入力データと正解データとの組を学習データとして複数用意する。学習データのセットは、例えば人体正面の撮影の場合、人体背面の撮影の場合、人体側面の撮影の場合等ポジショニングを変えたものや、胸部等ではなく脚部を撮影した場合のように撮影部位を変えたもの、各種線量の放射線を照射した場合、放射線の照射角度を変えた場合のように各種撮影条件を変えたもの等、様々なパターンで撮影を行って大量に用意されることが好ましい。学習データを各種パターンについて大量に用意することにより、より精度の高い学習が期待できる。
本実施形態では、こうして用意された学習データを与えて学習をさせることで、高いコントラスト値を示す所定の構造物(例えばねじ等)の画像を推定する画像推定フィルターFを予め設計し、コンソール3の記憶部32等に保存しておく。
In the present embodiment, in machine learning, a plurality of sets of such input data and correct answer data are prepared as learning data. The set of training data is, for example, when shooting the front of the human body, when shooting the back of the human body, when shooting the side of the human body, etc. with different positioning, or when shooting the legs instead of the chest etc. It is preferable to shoot in various patterns and prepare a large amount, such as those with different doses, those with different doses of radiation, those with different shooting conditions such as those with different radiation angles. .. By preparing a large amount of learning data for various patterns, more accurate learning can be expected.
In the present embodiment, an image estimation filter F that estimates an image of a predetermined structure (for example, a screw or the like) showing a high contrast value by giving learning data prepared in this way is designed in advance, and the console 3 It is stored in the storage unit 32 or the like.

画像推定フィルターFを設計するための学習(機械学習)は、ディープラーニング(Deep Learning)により実現され、例えば、U-NETやSeg-NET等のいわゆる畳み込みネットワークに基づいて実装される。
なお、画像推定フィルターFを設計するための学習(機械学習)に適用されるネットワークはここに例示したものに限定されない。
学習結果として得られる画像推定フィルターFの精度を適宜検証し、精度が不足しているような場合には適宜ネットワークの構成を変更したり、学習データを追加する等によりさらに学習を行い、画像推定フィルターFがより精度の高いものへと更新されるようにしてもよい。
Learning (machine learning) for designing the image estimation filter F is realized by deep learning, and is implemented based on a so-called convolutional network such as U-NET or Seg-NET, for example.
The network applied to learning (machine learning) for designing the image estimation filter F is not limited to the one illustrated here.
The accuracy of the image estimation filter F obtained as a learning result is appropriately verified, and if the accuracy is insufficient, further learning is performed by appropriately changing the network configuration or adding learning data to estimate the image. The filter F may be updated to a more accurate one.

実際に撮影された画像P(例えば放射線検出装置10aによって取得された画像P1)に対して機械学習(学習結果としての画像推定フィルターF)を用いて所定の構造物の構造物成分Csを低減・除去する補正処理を行う場合、ステップS12において検出され抽出された画像Pdに、機械学習によって得た画像推定フィルターFを適用して、高いコントラスト値を示す所定の構造物(例えばねじ等)の画像Pfを得る(ステップS13、図8参照)。この際、画像Pdについて、画像推定フィルターFを適用するのに適したサイズにトリミングする等の処理を行ってもよい。 The structural component Cs of a predetermined structure is reduced by using machine learning (image estimation filter F as a learning result) for the actually captured image P (for example, the image P1 acquired by the radiation detection device 10a). When performing the correction process for removing, the image estimation filter F obtained by machine learning is applied to the image Pd detected and extracted in step S12, and an image of a predetermined structure (for example, a screw or the like) showing a high contrast value is applied. Obtain Pf (see step S13, FIG. 8). At this time, the image Pd may be trimmed to a size suitable for applying the image estimation filter F.

その後、画像Pdと画像Pfとを加算して所定の構造物の構造物成分Csを打ち消した画像Pgを取得する(ステップS14)。
一方、低周波成分を示す画像Pbから画像Pdに対応する位置の画像Peを切り出し、この低周波成分を示す画像Peに画像Pgを加算して画像Phを得る(ステップS15)。
画像Phは、所定の構造物の構造物成分Csが打ち消された画像と、当該部分に対応する低周波成分を示す画像とが加算されたものであり、本実施形態における機械学習を用いた補正処理の補正結果としての画像である。
After that, the image Pd and the image Pf are added to obtain an image Pg in which the structural component Cs of a predetermined structure is canceled (step S14).
On the other hand, the image Pe at the position corresponding to the image Pd is cut out from the image Pb showing the low frequency component, and the image Pg is added to the image Pe showing the low frequency component to obtain the image Ph (step S15).
The image Ph is an image obtained by adding an image in which the structural component Cs of a predetermined structure is canceled and an image showing a low frequency component corresponding to the portion, and is corrected by using machine learning in the present embodiment. It is an image as a correction result of processing.

本実施形態では、キャリブレーション補正による補正結果と、機械学習(画像推定フィルターF)を用いた補正処理の補正結果とが取得されると、次にコンソール3の制御部31は、両補正結果に基づいて最終的な補正結果を得る。具体的には、両補正結果をブレンドするブレンド処理を行って最終的な補正結果を得る。ブレンド処理は、各画素におけるブレンド率を算出した上で、このブレンド率にしたがって画素ごとの両補正結果の採用割合を決定し、ブレンドするものである。なお、両補正結果に基づいてどのように最終的な補正結果を得るかについては、ここに示した手法に限定されない。 In the present embodiment, when the correction result by the calibration correction and the correction result of the correction process using the machine learning (image estimation filter F) are acquired, the control unit 31 of the console 3 then sets both correction results. Based on this, the final correction result is obtained. Specifically, a blending process for blending both correction results is performed to obtain the final correction result. In the blending process, after calculating the blending ratio for each pixel, the adoption ratio of both correction results for each pixel is determined according to this blending ratio, and the blending is performed. The method of obtaining the final correction result based on both correction results is not limited to the method shown here.

具体的には、まず、キャリブレーション補正の結果画像(図7及び図10の画像PC)から機械学習(画像推定フィルターF)を用いた補正の結果画像(図9及び図10の画像Ph)に相当する領域を抽出する(ステップS16、図10において抽出画像PCa)。
そして、画像Ph(画像推定フィルターFを用いた補正結果)とこれに対応する画像PCa(キャリブレーション補正結果)との差分値からブレンド率を算出する(ステップS17)。
そして、コンソール3の制御部31は、算出されたブレンド率に基づくブレンド処理を行う(ステップS18)。これによって所定の構造物の構造物成分Csが画像情報から低減・除去された最終的な処理結果を得ることができる。
Specifically, first, from the calibration correction result image (image PC of FIGS. 7 and 10) to the correction result image (image Ph of FIGS. 9 and 10) using machine learning (image estimation filter F). The corresponding region is extracted (step S16, extracted image PCa in FIG. 10).
Then, the blend ratio is calculated from the difference value between the image Ph (correction result using the image estimation filter F) and the corresponding image PCa (calibration correction result) (step S17).
Then, the control unit 31 of the console 3 performs a blending process based on the calculated blending ratio (step S18). As a result, it is possible to obtain a final processing result in which the structural component Cs of a predetermined structure is reduced / removed from the image information.

ブレンド率は、キャリブレーション補正による処理結果(図10の画像PCa)と、機械学習(画像推定フィルターF)による処理結果(図9及び図10の画像Ph)の差分値(例えば画素値、輝度値、濃度値の差分値)に基づいて画素毎に算出する。具体的には、差分値を求めた後、所定の関数変換を行い、0〜1.0の範囲のブレンド率を決定する。
ブレンドの傾向としては、両者の結果に差がなければ既存のキャリブレーション補正による処理結果を採用し、両者の差が大きいほど機械学習による処理結果を採用する。
差の絶対値がどの程度の場合にどの程度の割合で機械学習による処理結果を採用するか、については、予め一定の閾値を定めておくことが好ましい。これにより例えば、差の絶対値が25以上であれば、機械学習による処理結果が100%採用され、差の絶対値が12程度であればキャリブレーション補正による処理結果と機械学習による処理結果とを50%ずつの割合で採用する等、画素ごとのブレンド率が求められる。
The blend ratio is the difference value (for example, pixel value, brightness value) between the processing result by calibration correction (image PCa in FIG. 10) and the processing result by machine learning (image estimation filter F) (image Ph in FIGS. 9 and 10). , The difference value of the density value) is calculated for each pixel. Specifically, after obtaining the difference value, a predetermined function conversion is performed to determine the blend ratio in the range of 0 to 1.0.
As for the tendency of blending, if there is no difference between the two results, the existing calibration correction processing result is adopted, and the larger the difference between the two, the more the processing result by machine learning is adopted.
It is preferable to set a certain threshold value in advance as to what the absolute value of the difference is and at what rate the processing result by machine learning is adopted. As a result, for example, if the absolute value of the difference is 25 or more, the processing result by machine learning is 100% adopted, and if the absolute value of the difference is about 12, the processing result by calibration correction and the processing result by machine learning are obtained. A blending ratio for each pixel is required, such as adopting a ratio of 50% each.

なお、ブレンド率を決めるための閾値はデフォルトで定められていてもよいし、適宜操作者(ユーザー)等が変更できるようにしてもよい。
また、低減・除去したい構造物成分Csが写り込んでいる場所や、補正対象となっている画像の種類、低減・除去したい構造物の種類等、各種の条件に応じて、複数種類の閾値が予め用意され、各条件に応じて自動で又は手動で選択されるようにしてもよい。
さらに、一旦ブレンド処理を行った後、構造物成分Csの消え具合(残り具合)を確認した段階で、閾値を調整する等、適宜設定を調整・変更し、ブレンド処理をやり直すことができるようにしてもよい。
The threshold value for determining the blend ratio may be set by default, or may be appropriately changed by an operator (user) or the like.
In addition, there are multiple types of threshold values depending on various conditions such as the location where the structural component Cs to be reduced / removed is reflected, the type of image to be corrected, and the type of structure to be reduced / removed. It may be prepared in advance and selected automatically or manually according to each condition.
Furthermore, after the blending process is performed once, when the disappearance condition (remaining condition) of the structural component Cs is confirmed, the setting can be adjusted / changed as appropriate, such as adjusting the threshold value, so that the blending process can be redone. You may.

なお、画像を合成した後に、所定の構造物(例えばねじ等)を含んだ矩形領域とそれ以外の補正領域ArRとの間の境界が目立たないように、ブレンド率の決定においては差分値のみを考慮するのではなく、所定の構造物の外側の領域については、外側ほど(すなわち所定の構造物から離れるほど)キャリブレーション補正による処理結果が採用され、内側ほど(すなわち所定の構造物から近いほど)機械学習による処理結果が採用されるようにすることが好ましい。 After synthesizing the images, only the difference value is used in determining the blend ratio so that the boundary between the rectangular region containing a predetermined structure (for example, a screw or the like) and the other correction region ArR is not conspicuous. Rather than considering, for the outer region of a given structure, the outer side (ie, the farther away from the given structure) the processing result of the calibration correction is adopted, and the inner side (that is, the closer it is to the given structure). ) It is preferable that the processing result by machine learning is adopted.

なお、ブレンド率は、上記のようにキャリブレーション補正による構造物成分Cや所定の構造物(例えばねじ等)の構造物成分Csの低減・除去の処理結果と、機械学習(画像推定フィルターF)による所定の構造物(例えばねじ等)の構造物成分Csの低減・除去の処理結果との差分値から算出されるため、2つの結果の平均的な濃度値が大きく異なっていると、ほとんどの領域で機械学習による処理結果が採用されてしまう。
機械学習による処理結果は、フィルターを用いた処理によるものであり、処理結果にボケを生じやすい。このため、機械学習による処理結果が必要以上に多く採用されるとボケの目立つ画像となるおそれがある。
このため、ブレンド率の算出を行う前に、機械学習による処理結果について濃度補正を行い、その平均濃度値を、キャリブレーション補正による処理結果の平均濃度値に合わせる前処理を行うことが好ましい。
The blend ratio is the processing result of reduction / removal of the structure component C and the structure component Cs of a predetermined structure (for example, a screw) by the calibration correction as described above, and the machine learning (image estimation filter F). Since it is calculated from the difference value from the processing result of reduction / removal of the structure component Cs of a predetermined structure (for example, screw) by, most of the cases where the average concentration values of the two results are significantly different. The processing result by machine learning is adopted in the area.
The processing result by machine learning is the processing using a filter, and the processing result is liable to be blurred. Therefore, if the processing result by machine learning is adopted more than necessary, the image may have a conspicuous blur.
Therefore, before calculating the blend ratio, it is preferable to perform density correction on the processing result by machine learning and perform pretreatment to match the average density value with the average density value of the processing result by calibration correction.

なお、上述のように機械学習(画像推定フィルターF)による処理結果には画像のボケを生じやすい点及び本実施形態における機械学習で得られる画像推定フィルターFは、高コントラストを示す所定の構造物(例えばねじ等)の低減・除去に特化して設計される点から、機械学習(画像推定フィルターF)による補正(構造物成分Csの低減・除去処理)を画像P全体に広く適用することは好ましくない。
このため、本実施形態では、補正領域ArRのうち所定の構造物を示す画素が含まれていない画像領域に対しては、機械学習(画像推定フィルターF)による低減・除去処理を行わず、キャリブレーション補正による低減・除去処理のみを行ってその結果(図7及び図10の画像PC)を100%採用することとし、所定の構造物を示す画素が含まれる画像領域に対してのみ、機械学習(画像推定フィルターF)による補正(低減・除去処理)とキャリブレーション補正による低減・除去処理とを行い、上記のようなブレンド処理を行う。
As described above, the processing result by machine learning (image estimation filter F) tends to cause blurring of the image, and the image estimation filter F obtained by machine learning in the present embodiment is a predetermined structure showing high contrast. Since it is designed specifically for reducing / removing (for example, screws), it is not possible to widely apply correction (reduction / removal processing of structural component Cs) by machine learning (image estimation filter F) to the entire image P. Not preferred.
Therefore, in the present embodiment, the image region of the correction region ArR that does not include the pixel indicating the predetermined structure is calibrated without performing the reduction / removal processing by machine learning (image estimation filter F). It is decided that only the reduction / removal processing by the motion correction is performed and the result (image PC of FIGS. 7 and 10) is 100% adopted, and machine learning is performed only for the image region including the pixel indicating the predetermined structure. The correction (reduction / removal processing) by (image estimation filter F) and the reduction / removal processing by calibration correction are performed, and the blend processing as described above is performed.

また、同様の理由から所定の構造物(例えばねじ等)が含まれていない放射線検出装置10が撮影に用いられた場合には、上記に示した機械学習(画像推定フィルターF)による低減・除去処理は行わず、従来通りのキャリブレーション補正による処理結果のみを採用することが好ましい。
このため、いかなる放射線検出装置10で撮影が行われたかを、撮影前又は撮影後の画像処理前に判断する処理部が設けられていることが好ましい。
この場合における処理部の構成は特に限定されないが、例えば撮影に使用される放射線検出装置10の識別標識(例えば筐体101等に設けられたバーコードや各種タグ)を読み取る読取部をホルダー11A内等に設け、コンソール3の制御部31が処理部としてこの読取部からの情報に基づいて放射線検出装置10の種別等を判断してもよい。そして、放射線検出装置10には所定の構造物(例えばねじ等)が設けられていないと処理部によって判断された場合には、機械学習(画像推定フィルターF)による補正処理を行わないようにする。
Further, for the same reason, when the radiation detection device 10 that does not include a predetermined structure (for example, a screw or the like) is used for photographing, the reduction / removal by the machine learning (image estimation filter F) shown above is performed. It is preferable that no processing is performed and only the processing result obtained by the conventional calibration correction is adopted.
For this reason, it is preferable to provide a processing unit for determining what kind of radiation detection device 10 was used for imaging before image processing or after image processing.
The configuration of the processing unit in this case is not particularly limited, but for example, a reading unit that reads an identification mark (for example, a bar code or various tags provided on the housing 101 or the like) of the radiation detection device 10 used for photographing is contained in the holder 11A. The control unit 31 of the console 3 may determine the type of the radiation detection device 10 or the like based on the information from the reading unit as the processing unit. Then, when the processing unit determines that the radiation detection device 10 is not provided with a predetermined structure (for example, a screw or the like), the correction processing by machine learning (image estimation filter F) is not performed. ..

なお、撮影に使用される放射線検出装置10は所定の構造物(例えばねじ等)を備えるものであるが、その一部が欠落している等により本来あるべき位置に所定の構造物(すなわち、一定の閾値を超える高コントラストを示す構造物)が検出されないような場合には、所定の構造物が検出された部分についてのみ機械学習(画像推定フィルターF)による補正処理を行うことが好ましい。これにより不必要な処理を行うことでかえって画像の画質等が低下することを防ぐことができる。 The radiation detection device 10 used for imaging is provided with a predetermined structure (for example, a screw), but the predetermined structure (that is, that is, a predetermined structure (that is, a screw or the like) is provided at a position where it should be due to a part thereof being missing or the like. When a structure exhibiting a high contrast exceeding a certain threshold value) is not detected, it is preferable to perform correction processing by machine learning (image estimation filter F) only on the portion where a predetermined structure is detected. As a result, it is possible to prevent the image quality of the image from being deteriorated by performing unnecessary processing.

図5に戻り、上記のような所定の構造物の構造物成分Csを画像情報から低減・除去する補正処理(低減・除去処理)が完了すると、その他の各種基本処理が行われる(ステップS4)。
基本処理として具体的にどのような処理を行うかは特に限定されない。
例えば、複数の放射線検出装置10(10a,10b,10c)によってそれぞれ取得された画像P(例えば、図4におけるP1,P2等)を合成して1つの長尺な画像とする場合には、各画像の濃度が合うようにいずれかの画像P又はすべての画像Pについて濃度を補正したり、画像P同士の位置関係や拡大率を調整したり、各画像P中において、被写体Mの同じ部分が撮影されている部分を重ね合わせ、画像P同士が滑らかに接続されるように調整する。
なお、このような濃度補正や位置、拡大率の調整等は公知の処理であり、詳細な説明は省略する。
また、構造物成分Cや所定の構造物の構造物成分Csの除去処理の他にスジ状に画像に写り込むスジ成分等についても各種補正処理によって低減・除去を行ってもよい。
Returning to FIG. 5, when the correction process (reduction / removal process) for reducing / removing the structural component Cs of the predetermined structure as described above from the image information is completed, various other basic processes are performed (step S4). ..
The specific processing to be performed as the basic processing is not particularly limited.
For example, when the images P (for example, P1, P2, etc. in FIG. 4) acquired by a plurality of radiation detection devices 10 (10a, 10b, 10c) are combined into one long image, each of them is used. The density of any image P or all images P is corrected so that the image densities match, the positional relationship between the images P and the enlargement ratio are adjusted, and the same part of the subject M is displayed in each image P. The captured parts are overlapped and adjusted so that the images P are smoothly connected to each other.
It should be noted that such density correction, position, and magnification adjustment are known processes, and detailed description thereof will be omitted.
Further, in addition to the removal treatment of the structure component C and the structure component Cs of a predetermined structure, the streak component and the like appearing in the image in the form of streaks may be reduced or removed by various correction treatments.

このような各種の調整や補正等を行った上で複数の放射線検出装置10によって得られた画像Pを合成することで、あたかも当初から1枚の画像として撮影されたかのような仕上がりの合成画像を生成することができる。
なお、複数の放射線検出装置10(10a,10b,10c)によってそれぞれ取得された画像Pを合成することは必須ではなく、分割されたままで利用されてもよい。また一旦合成された後に分割されて利用されてもよい。1ショット撮影では、その後に画像Pが合成されない場合でも、1回の放射線照射によって広範囲の撮影を行うことができる点で、部位ごとに撮影を繰り返す場合と比較して被写体Mである患者への負担を軽減することができる。
コンソール3において生成された画像は、画像解析装置5に送られ、表示部に表示させて診断や患者への説明の際に用いられたり、各種の解析・分析等が行われ、適宜診断支援に用いられる。
By synthesizing the images P obtained by the plurality of radiation detection devices 10 after making various adjustments and corrections as described above, a composite image having a finish as if it was taken as one image from the beginning can be obtained. Can be generated.
It is not essential to synthesize the images P acquired by the plurality of radiation detection devices 10 (10a, 10b, 10c), and the images P may be used as they are divided. Further, it may be used after being synthesized once and then divided. In the one-shot shooting, even if the image P is not combined after that, a wide range of shooting can be performed by one irradiation, and the patient who is the subject M is compared with the case where the shooting is repeated for each part. The burden can be reduced.
The image generated on the console 3 is sent to the image analysis device 5, displayed on the display unit and used for diagnosis and explanation to the patient, and various analyzes and analyzes are performed to support the diagnosis as appropriate. Used.

〔効果〕
以上のように本実施形態によれば、放射線検出装置10を、その一部が重畳された状態で複数配置し被写体Mについて撮影を行う場合に、補正が必要な補正領域ArRである放射線検出装置10の重畳部分の画像領域(補正領域ArR)の画像情報(画像Pa)から、ねじ等の所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む補正領域ArRについて機械学習を用いて所定の構造物の構造物成分Csを低減・除去する補正処理を画像情報に対して行う。
このため、所定の構造物の構造物成分Csを画像情報から低減・除去することに特化した補正を、機械学習を用いて精度良く行うことができる。これにより、1回の撮影で広範囲を撮影した場合にも適切に補正処理(画像処理)が施された画像を得ることができる。
〔effect〕
As described above, according to the present embodiment, when a plurality of radiation detection devices 10 are arranged in a state where a part thereof is superimposed and an image is taken for the subject M, the radiation detection device is a correction region ArR that requires correction. From the image information (image Pa) of the image area (correction area ArR) of the superimposed portion of 10, the position of the pixel indicating the predetermined structure such as a screw is specified, and the correction area ArR including the pixel indicating the predetermined structure is specified. A correction process for reducing / removing the structural component Cs of a predetermined structure is performed on the image information by using machine learning.
Therefore, it is possible to perform correction specialized in reducing / removing the structural component Cs of a predetermined structure from the image information with high accuracy by using machine learning. As a result, it is possible to obtain an image that has been appropriately corrected (image processed) even when a wide area is photographed in one image.

また本実施形態において機械学習を用いた補正処理は、補正領域ArRの画像情報のうち所定の構造物に対応する画像情報を推定する画像推定フィルターFを機械学習によって予め設計し、所定の構造物を示す画素が含まれる未知の画像領域(画像Pa)に対して、当該画像推定フィルターFを適用し、推定された所定の構造物に対応する画像情報と元の画像情報とに基づいて所定の構造物の構造物成分Csの低減・除去を行うものである。
このように、機械学習によって予め用意された画像推定フィルターFを用いて所定の構造物の構造物成分Csを画像情報から低減・除去する補正を行うため、効率よく、高精度の補正を行うことができる。
また、機械学習によって学習結果を蓄積することにより、未知の画像Paが入力された際にも適切に所定の構造物の構造物成分Csを画像情報から低減・除去することができ、高品質な画像を得ることができる。
Further, in the correction process using machine learning in the present embodiment, the image estimation filter F for estimating the image information corresponding to the predetermined structure among the image information in the correction region ArR is designed in advance by machine learning, and the predetermined structure is used. The image estimation filter F is applied to an unknown image region (image Pa) including pixels indicating the above, and a predetermined image is determined based on the image information corresponding to the estimated predetermined structure and the original image information. It reduces / removes the structural component Cs of the structure.
In this way, in order to reduce / remove the structural component Cs of a predetermined structure from the image information by using the image estimation filter F prepared in advance by machine learning, the correction is performed efficiently and with high accuracy. Can be done.
In addition, by accumulating learning results by machine learning, even when an unknown image Pa is input, the structural component Cs of a predetermined structure can be appropriately reduced / removed from the image information, resulting in high quality. You can get an image.

また本実施形態では、被写体Mが介在しない状態で撮影したキャリブレーション画像に基づいて補正領域ArRについて既存のキャリブレーション補正を行い、補正領域ArRのうち所定の構造物を示す画素が含まれていない画像領域に対しては、キャリブレーション補正による補正結果を採用し、一方で所定の構造物を示す画素が含まれる画像領域に対しては、キャリブレーション補正による補正結果と、機械学習を用いた補正処理の補正結果の両方を取得した後、両補正結果をブレンドするブレンド処理を行って最終的な補正結果を得るようになっている。
このように既存のキャリブレーション補正と機械学習を用いた補正処理とを組み合わせることで、キャリブレーション補正によっては低減・除去しきれない構造物成分Csを画像情報から適切に低減・除去することができる。
また、機械学習を用いた補正処理が画像推定フィルターFを用いたものである場合、高コントラストの構造物成分Csを効果的に低減・除去できる反面、画像にボケを生じやすいが、キャリブレーション補正と組み合わせ、高コントラストの構造物成分Csの低減・除去以外ではキャリブレーション補正の結果を優先させることによって適切な補正結果を得ることができる。
Further, in the present embodiment, the existing calibration correction is performed on the correction area ArR based on the calibration image taken without the subject M intervening, and the correction area ArR does not include a pixel indicating a predetermined structure. For the image area, the correction result by calibration correction is adopted, while for the image area including pixels showing a predetermined structure, the correction result by calibration correction and the correction using machine learning are adopted. After acquiring both the correction results of the processing, a blending process for blending both correction results is performed to obtain the final correction result.
By combining the existing calibration correction and the correction process using machine learning in this way, it is possible to appropriately reduce / remove the structural component Cs that cannot be completely reduced / removed by the calibration correction from the image information. ..
Further, when the correction process using machine learning uses the image estimation filter F, the high-contrast structural component Cs can be effectively reduced / removed, but the image tends to be blurred, but the calibration correction In combination with, an appropriate correction result can be obtained by giving priority to the result of the calibration correction other than the reduction / removal of the high-contrast structural component Cs.

また本実施形態では、機械学習を用いた補正処理における所定の構造物を示す画素の位置を、キャリブレーション画像に基づいて特定する。
機械学習を用いた補正処理を行う対象をキャリブレーション補正の結果から特定することで、補正対象の正確・精密な特定を効率よく行うことができる。
Further, in the present embodiment, the positions of pixels indicating a predetermined structure in the correction process using machine learning are specified based on the calibration image.
By identifying the target to be corrected using machine learning from the result of the calibration correction, it is possible to efficiently identify the correction target accurately and precisely.

また、撮影に使用された放射線検出装置10が所定の構造物を含むか否かによって所定の構造物の構造物成分Csを画像情報から低減・除去する補正処理を行うか否かを切り替える(放射線検出装置10の種類を判断する処理部を備える)構成とした場合には、機械学習を用いた補正処理を行っても良好な結果が得られないような場合に無駄な処理を行う手間を省くことができる。これにより、放射線検出装置10に応じた適切な画像処理(補正処理)を行うことができる。 Further, depending on whether or not the radiation detection device 10 used for photographing includes a predetermined structure, it is switched whether or not to perform a correction process for reducing or removing the structure component Cs of the predetermined structure from the image information (radiation). In the case of the configuration (providing a processing unit for determining the type of the detection device 10), it is possible to save the trouble of performing unnecessary processing when a good result cannot be obtained even if the correction processing using machine learning is performed. be able to. As a result, appropriate image processing (correction processing) according to the radiation detection device 10 can be performed.

また本実施形態では、1ショット撮影によって複数の放射線検出装置10から取得される複数の画像P(放射線画像)を合成して合成画像を生成するようになっている。
これにより、例えば撮影されるものが医用画像の場合に、1回の放射線照射によって被写体Mである患者の全身を撮影することも可能となり、患者の負担を軽減することができる。
また、複数の放射線検出装置10によって撮影された画像を合成することで、医師や患者にとって見やすく、正確な診断に資する画像を得ることができる。
Further, in the present embodiment, a plurality of images P (radiation images) acquired from a plurality of radiation detection devices 10 by one-shot photography are combined to generate a composite image.
As a result, for example, when the image to be imaged is a medical image, it is possible to photograph the whole body of the patient who is the subject M by one irradiation, and the burden on the patient can be reduced.
Further, by synthesizing the images taken by the plurality of radiation detection devices 10, it is possible to obtain an image that is easy for doctors and patients to see and contributes to accurate diagnosis.

〔変形例〕
なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
[Modification example]
Although the embodiments of the present invention have been described above, it goes without saying that the present invention is not limited to such embodiments and can be variously modified without departing from the gist thereof.

例えば、上記実施形態では、被写体Mとして患者を撮影し医用画像を得る場合について説明したが、本発明の画像処理方法は、医用画像の画像処理(補正処理)に適用される場合に限定されない。
本発明は、単体の放射線検出装置10では撮影できない広範囲な対象を、複数の放射線検出装置10を用いて撮影する場合であれば適用可能である。
例えば、縦方向、横方向、又は縦横両方向に単体の放射線検出装置10の撮影可能範囲を超えるような対象を被写体Mとして撮影する非破壊検査等においても、その撮影画像に本発明の画像処理方法を適用することができる。
For example, in the above embodiment, the case where the patient is photographed as the subject M to obtain a medical image has been described, but the image processing method of the present invention is not limited to the case where it is applied to the image processing (correction processing) of the medical image.
The present invention is applicable when a wide range of objects that cannot be photographed by a single radiation detection device 10 are photographed by using a plurality of radiation detection devices 10.
For example, even in a non-destructive inspection in which an object that exceeds the imageable range of a single radiation detection device 10 in the vertical direction, the horizontal direction, or the vertical and horizontal directions is photographed as the subject M, the image processing method of the present invention is used for the photographed image. Can be applied.

また、上記実施形態では、複数の放射線検出装置10(10a,10b,10c)を、被写体Mである患者の体軸方向に並べて配置し、1ショットで長尺な画像を撮影する場合を例示したが、複数の放射線検出装置10を並べる方向は特に限定されない。
例えば上記の非破壊検査等における撮影であれば、被写体全体をカバーできるように縦方向、横方向、又は縦横両方向に複数の放射線検出装置10を並べて配置してもよい。
この場合にも放射線検出装置10同士の重畳部分の画像を補正するために本発明の画像処理方法を適用することができる。
Further, in the above embodiment, a case where a plurality of radiation detection devices 10 (10a, 10b, 10c) are arranged side by side in the body axis direction of the patient who is the subject M and a long image is taken in one shot is illustrated. However, the direction in which the plurality of radiation detection devices 10 are arranged is not particularly limited.
For example, in the case of photographing in the above non-destructive inspection or the like, a plurality of radiation detection devices 10 may be arranged side by side in the vertical direction, the horizontal direction, or both the vertical and horizontal directions so as to cover the entire subject.
Also in this case, the image processing method of the present invention can be applied to correct the image of the overlapping portion between the radiation detection devices 10.

また、上記実施形態では、1ショット撮影を行う場合を例示したが、複数の放射線検出装置10(10a,10b,10c等)を、その一部が重畳された状態で配置して被写体を撮影する場合であれば撮影画像に本発明の画像処理方法を適用することができる。
例えば、患者の全身等、被写体の全体を複数回に分けて撮影する場合でも放射線検出装置10同士の重畳部分の画像を補正するために本発明の画像処理方法を適用可能である。
Further, in the above embodiment, the case of performing one-shot photography is illustrated, but a plurality of radiation detection devices 10 (10a, 10b, 10c, etc.) are arranged in a state in which some of them are superimposed to photograph the subject. In some cases, the image processing method of the present invention can be applied to the captured image.
For example, the image processing method of the present invention can be applied to correct the image of the overlapping portion of the radiation detection devices 10 even when the entire subject such as the whole body of the patient is photographed in a plurality of times.

また、上記実施形態では、機械学習によって1つの画像推定フィルターFを生成する場合を例示したが、画像処理(画像補正)のために予め用意しておく画像推定フィルターFは複数あってもよい。
例えば、画像推定フィルターFは、高コントラストを示す所定の構造物の種類に応じて、複数用意されてもよい。この場合、撮影に用いられた放射線検出装置10の種類やこれに含まれる所定の構造物の種類を特定し、特定結果に応じて適用する画像推定フィルターFを切り替えるように構成してもよい。
例えば所定の構造物が「ねじ」である場合でも、その種類が変更されると、同じ画像推定フィルターFでは適切に構造物成分Csを低減・除去できない場合がある。このため、例えば、ねじの種類ごとに画像推定フィルターFの学習係数を用意しておいてもよい。
そして実際に画像処理(補正処理)を行う際には、まず撮影に用いられる放射線検出装置10に含まれているねじの種類を判別する前処理を行い、その後に当該ねじの種類に応じた学習係数を有する画像生成フィルターFを適用してねじの構造物成分Csを画像情報から低減・除去する画像処理を行うようにする。
Further, in the above embodiment, the case where one image estimation filter F is generated by machine learning is illustrated, but there may be a plurality of image estimation filters F prepared in advance for image processing (image correction).
For example, a plurality of image estimation filters F may be prepared depending on the type of a predetermined structure showing high contrast. In this case, the type of the radiation detection device 10 used for photographing and the type of a predetermined structure included in the radiation detection device 10 may be specified, and the image estimation filter F to be applied may be switched according to the specific result.
For example, even if a predetermined structure is a “screw”, if the type is changed, the same image estimation filter F may not be able to appropriately reduce / remove the structure component Cs. Therefore, for example, the learning coefficient of the image estimation filter F may be prepared for each type of screw.
Then, when actually performing image processing (correction processing), first, preprocessing for determining the type of screw included in the radiation detection device 10 used for photographing is performed, and then learning according to the type of the screw is performed. An image generation filter F having a coefficient is applied to perform image processing for reducing / removing the structural component Cs of the screw from the image information.

なお、本発明が上記の実施形態や変形例等に限定されず、本発明の趣旨を逸脱しない限り、適宜変更可能であることは言うまでもない。 Needless to say, the present invention is not limited to the above-described embodiments and modifications, and can be appropriately modified as long as the gist of the present invention is not deviated.

1 撮影装置
10 放射線検出装置
11 撮影台
11A ホルダー
12 放射線照射装置
3 コンソール(画像処理装置)
31 制御部
32 記憶部
5 画像解析装置
100 放射線画像撮影システム
ArR 補正領域
Cs 構造物成分
F 画像推定フィルター
P 画像
1 Imaging device 10 Radiation detection device 11 Imaging table 11A Holder 12 Radiation irradiation device 3 Console (image processing device)
31 Control unit 32 Storage unit 5 Image analyzer 100 Radiation imaging system ArR Correction area Cs Structure component F Image estimation filter P Image

Claims (8)

放射線を検出する放射線検出装置を、その一部が重畳された状態で複数配置し被写体について撮影を行う場合に、
補正が必要な補正領域である前記放射線検出装置の重畳部分の画像領域の画像情報から、所定の構造物を示す画素の位置を特定し、当該所定の構造物を示す画素を含む前記補正領域について機械学習を用いて前記所定の構造物の構造物成分を低減させる補正処理を前記画像情報に対して行うことを特徴とする画像処理方法。
When multiple radiation detection devices that detect radiation are arranged in a state where some of them are superimposed and a subject is photographed.
The position of the pixel indicating the predetermined structure is specified from the image information of the image area of the superimposed portion of the radiation detection device, which is the correction area requiring correction, and the correction area including the pixel indicating the predetermined structure is provided. An image processing method characterized in that a correction process for reducing a structural component of the predetermined structure is performed on the image information by using machine learning.
前記機械学習を用いた前記補正処理は、
前記補正領域の画像情報のうち前記所定の構造物に対応する画像情報を推定する画像推定フィルターを前記機械学習によって予め設計し、
前記所定の構造物を示す画素が含まれる未知の画像領域に対して、当該画像推定フィルターを適用し、推定された前記所定の構造物に対応する画像情報と元の画像情報とに基づいて前記所定の構造物の構造物成分を低減させる補正を行うものであることを特徴とする請求項1に記載の画像処理方法。
The correction process using the machine learning
An image estimation filter that estimates the image information corresponding to the predetermined structure among the image information in the correction region is designed in advance by the machine learning.
The image estimation filter is applied to an unknown image region including pixels indicating the predetermined structure, and the image information corresponding to the estimated predetermined structure and the original image information are used as the basis. The image processing method according to claim 1, wherein the correction is performed to reduce the structural components of a predetermined structure.
前記被写体が介在しない状態で撮影したキャリブレーション画像に基づいて前記補正領域について既存のキャリブレーション補正を行い、
前記補正領域のうち前記所定の構造物を示す画素が含まれていない画像領域に対しては、前記キャリブレーション補正による補正結果を採用し、一方で前記所定の構造物を示す画素が含まれる画像領域に対しては、前記キャリブレーション補正による補正結果と、前記機械学習を用いた前記補正処理の補正結果の両方を取得した後、両補正結果に基づいて最終的な補正結果を得ることを特徴とする請求項1又は請求項2に記載の画像処理方法。
Based on the calibration image taken without the subject intervening, the existing calibration correction is performed on the correction area.
For an image region in the correction region that does not include pixels indicating the predetermined structure, the correction result by the calibration correction is adopted, while an image including pixels indicating the predetermined structure is adopted. For the region, after acquiring both the correction result by the calibration correction and the correction result of the correction process using the machine learning, the final correction result is obtained based on both correction results. The image processing method according to claim 1 or 2.
前記機械学習を用いた前記補正処理における前記所定の構造物を示す画素の位置を、前記キャリブレーション画像に基づいて特定することを特徴とする請求項3に記載の画像処理方法。 The image processing method according to claim 3, wherein the position of a pixel indicating the predetermined structure in the correction process using the machine learning is specified based on the calibration image. 撮影に使用された前記放射線検出装置が前記所定の構造物を含むか否かによって前記所定の構造物の構造物成分を低減させる補正処理を行うか否かを切り替えることを特徴とする請求項2から請求項4のいずれか一項に記載の画像処理方法。 2. The second aspect of the present invention is that the radiation detection device used for photographing switches whether or not a correction process for reducing a structural component of the predetermined structure is performed depending on whether or not the radiation detection device includes the predetermined structure. The image processing method according to any one of claims 4. 撮影によって複数の前記放射線検出装置から取得される複数の放射線画像を合成して合成画像を生成することを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 5, wherein a plurality of radiation images acquired from the plurality of radiation detection devices by photographing are combined to generate a composite image. 請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を行う制御部を備える画像処理装置。 An image processing apparatus including a control unit that performs image processing by the image processing method according to any one of claims 1 to 6. 画像処理装置のコンピューターに、請求項1から請求項6のいずれか一項に記載の画像処理方法による画像処理を実行させることを特徴とするコンピューター読取可能なプログラム。 A computer-readable program comprising causing a computer of an image processing apparatus to perform image processing by the image processing method according to any one of claims 1 to 6.
JP2019227648A 2019-12-17 2019-12-17 Image processing method, image processing device and program Active JP7404846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019227648A JP7404846B2 (en) 2019-12-17 2019-12-17 Image processing method, image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019227648A JP7404846B2 (en) 2019-12-17 2019-12-17 Image processing method, image processing device and program

Publications (3)

Publication Number Publication Date
JP2021094219A true JP2021094219A (en) 2021-06-24
JP2021094219A5 JP2021094219A5 (en) 2022-05-10
JP7404846B2 JP7404846B2 (en) 2023-12-26

Family

ID=76429788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019227648A Active JP7404846B2 (en) 2019-12-17 2019-12-17 Image processing method, image processing device and program

Country Status (1)

Country Link
JP (1) JP7404846B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023057871A (en) * 2021-10-12 2023-04-24 キヤノン株式会社 Medical image processing device, medical image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430715B1 (en) * 2015-05-01 2016-08-30 Adobe Systems Incorporated Identifying and modifying cast shadows in an image
JP2017169714A (en) * 2016-03-22 2017-09-28 富士フイルム株式会社 Image processing device, radiographic image capturing system, image processing method, and image processing program
JP2017213270A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Radiographic system, control apparatus therefor, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6677100B2 (en) 2016-06-24 2020-04-08 コニカミノルタ株式会社 Radiation imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430715B1 (en) * 2015-05-01 2016-08-30 Adobe Systems Incorporated Identifying and modifying cast shadows in an image
JP2017169714A (en) * 2016-03-22 2017-09-28 富士フイルム株式会社 Image processing device, radiographic image capturing system, image processing method, and image processing program
JP2017213270A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Radiographic system, control apparatus therefor, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023057871A (en) * 2021-10-12 2023-04-24 キヤノン株式会社 Medical image processing device, medical image processing method and program

Also Published As

Publication number Publication date
JP7404846B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
JP6260615B2 (en) Method for introducing a Talbot imaging system into a diagnostic imaging medical image system and a general diagnostic imaging medical image system
US7433507B2 (en) Imaging chain for digital tomosynthesis on a flat panel detector
JP6128463B2 (en) Radiation image processing apparatus and method, and program
US6816572B2 (en) Method, system and computer product for processing dual energy images
JP4945249B2 (en) X-ray transmission image display system
US10825190B2 (en) Dynamic image processing apparatus for aligning frame images obtained by photographing dynamic state of chest based on movement of lung-field region
WO2014156796A1 (en) Radiographic device, radiographic method and radiographic control program
JP2003244542A (en) Motion artefact reduction algorithm for double-exposed double-energy x-ray radiography
US20150305703A1 (en) Method and device for controlling rotation angle of c-arm of medical imaging apparatus
JP2009268801A (en) Radiographic apparatus and dosage index value display
US20060241370A1 (en) Medical x-ray imaging workflow improvement
JP2007117351A (en) Small-scale diagnosis support system
JP2006006435A (en) Method and device for image display, and program
CN107049346B (en) Medical imaging control method, medical imaging control device and medical imaging equipment
JP7404846B2 (en) Image processing method, image processing device and program
US20070036266A1 (en) Medical x-ray imaging workflow improvement
JP2010104771A (en) Radiation image diagnosing system
EP3370616B1 (en) Device for imaging an object
JP2022011259A (en) Dynamic quality control device, dynamic quality control program and dynamic quality control method
JP2017169715A (en) Image processing device, radiographic image capturing system, image processing method, and image processing program
JP5564385B2 (en) Radiographic imaging apparatus, radiographic imaging method and program
JP2017077405A (en) Radiographic system, image processing device, and image processing method
JP7099086B2 (en) Dynamic image processing equipment and programs
JP2007007307A (en) Image-processing method and medical image-processing system
JP2004081275A (en) Radiodiagnosing system, and its control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7404846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150