JP2021194388A - Radiographic image capturing system, program, and image processing method - Google Patents

Radiographic image capturing system, program, and image processing method Download PDF

Info

Publication number
JP2021194388A
JP2021194388A JP2020104928A JP2020104928A JP2021194388A JP 2021194388 A JP2021194388 A JP 2021194388A JP 2020104928 A JP2020104928 A JP 2020104928A JP 2020104928 A JP2020104928 A JP 2020104928A JP 2021194388 A JP2021194388 A JP 2021194388A
Authority
JP
Japan
Prior art keywords
image
radiation
image processing
subject
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020104928A
Other languages
Japanese (ja)
Inventor
達也 ▲高▼木
Tatsuya Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020104928A priority Critical patent/JP2021194388A/en
Publication of JP2021194388A publication Critical patent/JP2021194388A/en
Pending legal-status Critical Current

Links

Images

Abstract

To omit or simplify a user's setting operation for applying proper image processing to a radiographic image.SOLUTION: A radiographic image capturing system according to this invention comprises: a radiation detection device which detects radiation emitted from a radiation source and having passed through a subject and captures a radiation image; an optical camera for capturing an optical image of at least a partial area of the subject; and a console which applies image processing to the radiation image captured by the radiation detection device. The console sets an image processing condition of the radiation image on the basis of the optical image captured by the optical camera.SELECTED DRAWING: Figure 3

Description

本発明は、放射線画像撮影システム、プログラム及び画像処理方法に関する。 The present invention relates to a radiographic imaging system, a program and an image processing method.

従来、光学画像を用いて、放射線撮影時のポジショニングや撮影条件を設定する技術が提案されている。 Conventionally, a technique for setting positioning and imaging conditions at the time of radiography using an optical image has been proposed.

例えば、特許文献1には、ウェブカメラのカメラ画像の外枠内に被写体の撮影部位が映り込んでいる場合に撮影を開始させる技術が記載されている。
また、特許文献2には、カメラ画像から放射線撮影に使用するカセッテを判別し、使用するカセッテを自動的にコンソールに設定する技術が記載されている。
また、特許文献3には、放射線が照射される被ばく領域の少なくとも一部を撮像した光学画像に基づいて、予め定められた変化が被ばく領域に生じたか否かを判断し、予め定められた変化が生じた場合に放射線発生を停止することが記載されている。
For example, Patent Document 1 describes a technique for starting shooting when a shooting portion of a subject is reflected in the outer frame of a camera image of a webcam.
Further, Patent Document 2 describes a technique of discriminating a cassette to be used for radiography from a camera image and automatically setting the cassette to be used on the console.
Further, in Patent Document 3, it is determined whether or not a predetermined change has occurred in the exposed area based on an optical image obtained by capturing at least a part of the exposed area irradiated with radiation, and the predetermined change is obtained. It is described that the radiation generation is stopped when the radiation occurs.

特開2012−24399号公報Japanese Unexamined Patent Publication No. 2012-24399 特開2019−33828号公報Japanese Unexamined Patent Publication No. 2019-33828 特開2008−206740号公報Japanese Unexamined Patent Publication No. 2008-206740

特許文献1〜3の技術では、放射線撮影に係る作業を簡素化したり、適切な撮影を行ったりすることができる。しかしながら、撮影された放射線画像に適切な画像処理を施すためには、コンソール等にて被写体に関する情報や処理パラメーター等をユーザーが設定する必要があった。 The techniques of Patent Documents 1 to 3 can simplify the work related to radiography and perform appropriate radiography. However, in order to perform appropriate image processing on the captured radiographic image, it is necessary for the user to set information about the subject, processing parameters, and the like on the console or the like.

本発明の課題は、放射線画像に適切な画像処理を行うためのユーザーの設定操作を省略又は簡便化することである。 An object of the present invention is to omit or simplify a user's setting operation for performing appropriate image processing on a radiographic image.

上記課題を解決するため、請求項1に記載の発明の放射線画像撮影システムは、
放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する放射線画像撮像部と、
前記被写体の少なくとも一部の領域の光学画像を撮像する光学画像撮像部と、
前記放射線画像撮像部により撮像された放射線画像に画像処理を施す画像処理部と、を備え、
前記画像処理部は、前記光学画像撮像部により撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する。
In order to solve the above problems, the radiographic imaging system of the invention according to claim 1 is used.
A radiation image imaging unit that detects radiation emitted from a radiation source and has passed through a subject and captures a radiation image.
An optical image imaging unit that captures an optical image of at least a part of the subject.
An image processing unit that performs image processing on a radiation image captured by the radiation image imaging unit is provided.
The image processing unit sets image processing conditions for the radiographic image based on the optical image captured by the optical image imaging unit.

請求項2に記載の発明は、請求項1に記載の発明において、
前記光学画像撮像部は、前記放射線源からの放射線が照射される前記被写体の領域の少なくとも一部の領域の光学画像を撮像し、
前記画像処理部は、前記光学画像を解析することにより前記放射線画像において撮像対象となっている前記被写体の部位を判定し、前記判定された部位に応じて前記画像処理条件を設定する。
The invention according to claim 2 is the invention according to claim 1.
The optical image capturing unit captures an optical image of at least a part of the region of the subject to which the radiation from the radiation source is irradiated.
The image processing unit determines a portion of the subject to be imaged in the radiographic image by analyzing the optical image, and sets the image processing condition according to the determined portion.

請求項3に記載の発明は、請求項1に記載の発明において、
前記画像処理部は、前記光学画像を解析することにより前記被写体の体格を判定し、前記判定された前記被写体の体格に応じて前記画像処理条件を設定する。
The invention according to claim 3 is the invention according to claim 1.
The image processing unit determines the physique of the subject by analyzing the optical image, and sets the image processing conditions according to the determined physique of the subject.

請求項4に記載の発明は、請求項1に記載の発明において、
前記画像処理部は、前記光学画像を解析することにより前記被写体の特徴量を算出し、前記算出された特徴量に応じて前記画像処理条件を設定する。
The invention according to claim 4 is the invention according to claim 1.
The image processing unit calculates the feature amount of the subject by analyzing the optical image, and sets the image processing condition according to the calculated feature amount.

請求項5に記載の発明は、請求項4に記載の発明において、
前記特徴量は、前記被写体の所定構造物の大きさ又は形を表す特徴量である。
The invention according to claim 5 is the invention according to claim 4.
The feature amount is a feature amount representing the size or shape of a predetermined structure of the subject.

請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、
前記画像処理条件は、ダイナミックレンジ圧縮処理、コントラスト補正処理、濃度補正処理、LUT変換処理、周波数強調処理、散乱線補正処理、ノイズ抑制処理、画像のトリミング、画像のマスキング、画像の回転、画像の反転のうち少なくとも一つの画像処理条件である。
The invention according to claim 6 is the invention according to any one of claims 1 to 5.
The image processing conditions include dynamic range compression processing, contrast correction processing, density correction processing, LUT conversion processing, frequency enhancement processing, scattered ray correction processing, noise suppression processing, image trimming, image masking, image rotation, and image processing. It is at least one image processing condition of inversion.

請求項7に記載の発明のプログラムは
放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する放射線画像撮像部により撮像された放射線画像に画像処理を施すコンピューターを、
前記被写体の少なくとも一部の領域の光学画像を撮像する光学画像撮像部により撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する設定部、
として機能させる。
The program of the invention according to claim 7 is a computer that detects radiation emitted from a radiation source and transmitted through a subject, and performs image processing on a radiation image captured by a radiation image imaging unit that captures a radiation image.
A setting unit that sets image processing conditions for a radiation image based on an optical image captured by an optical image imaging unit that captures an optical image of at least a part of the subject.
To function as.

請求項8に記載の発明の画像処理方法は
放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する工程と、
前記被写体の少なくとも一部の領域の光学画像を撮像する工程と、
前記撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する工程と、
前記設定された画像処理条件に基づいて、前記放射線画像に画像処理を施す工程と、
を含む。
The image processing method of the invention according to claim 8 includes a step of detecting radiation emitted from a radiation source and transmitted through a subject, and an image of a radiation image.
The step of capturing an optical image of at least a part of the subject and
A step of setting image processing conditions for the radiographic image based on the captured optical image, and
A step of performing image processing on the radiographic image based on the set image processing conditions, and
including.

本発明によれば、放射線画像に適切な画像処理を行うためのユーザーの設定操作を省略又は簡便化することができる。 According to the present invention, it is possible to omit or simplify the setting operation of the user for performing appropriate image processing on the radiographic image.

本発明の実施形態における放射線画像撮影システムの全体構成を示す図である。It is a figure which shows the whole structure of the radiation imaging system in embodiment of this invention. 図1のコンソールの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the console of FIG. 第1の実施形態において図2の制御部により実行される放射線画像生成処理Aの流れを示すフローチャートである。It is a flowchart which shows the flow of the radiation image generation processing A executed by the control part of FIG. 2 in 1st Embodiment. 第2の実施形態において図2の制御部により実行される放射線画像生成処理Bの流れを示すフローチャートである。It is a flowchart which shows the flow of the radiation image generation processing B executed by the control unit of FIG. 2 in the 2nd Embodiment. 第3の実施形態において図2の制御部により実行される放射線画像生成処理Cの流れを示すフローチャートである。It is a flowchart which shows the flow of the radiation image generation processing C executed by the control unit of FIG. 2 in the 3rd Embodiment. 第4の実施形態において図2の制御部により実行される第1の撮影処理Aの流れを示すフローチャートである。It is a flowchart which shows the flow of the 1st shooting process A executed by the control part of FIG. 2 in 4th Embodiment. 第4の実施形態において図2の制御部により実行される第2の撮影処理Aの流れを示すフローチャートである。It is a flowchart which shows the flow of the 2nd shooting process A executed by the control part of FIG. 2 in 4th Embodiment. 第5の実施形態において図2の制御部により実行される第1の撮影処理Bの流れを示すフローチャートである。It is a flowchart which shows the flow of the 1st shooting process B executed by the control part of FIG. 2 in 5th Embodiment. 第5の実施形態において図2の制御部により実行される第2の撮影処理Bの流れを示すフローチャートである。It is a flowchart which shows the flow of the 2nd shooting process B executed by the control part of FIG. 2 in 5th Embodiment.

以下、図面を参照して本発明の実施形態について説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

<第1の実施形態>
〔放射線画像撮影システム100の構成〕
まず、本発明の第1の実施形態の構成を説明する。
図1は、本実施形態に係る放射線画像撮影システム100の全体構成例を示す図である。放射線画像撮影システム100は、被写体Hに放射線撮影を行い、得られた放射線画像に画像処理を施すシステムである。
<First Embodiment>
[Structure of Radiation Imaging System 100]
First, the configuration of the first embodiment of the present invention will be described.
FIG. 1 is a diagram showing an overall configuration example of the radiation imaging system 100 according to the present embodiment. The radiographic image capturing system 100 is a system that performs radiographic imaging on the subject H and performs image processing on the obtained radiographic image.

図1に示すように、放射線画像撮影システム100は、放射線照射装置1と、放射線検出装置2と、コンソール3と、光学カメラ4と、を備えて構成されている。コンソール3は、放射線照射装置1、放射線検出装置2及び光学カメラ4とデータ送受信可能に接続されて構成されている。 As shown in FIG. 1, the radiation imaging system 100 includes a radiation irradiation device 1, a radiation detection device 2, a console 3, and an optical camera 4. The console 3 is configured to be connected to a radiation irradiation device 1, a radiation detection device 2, and an optical camera 4 so as to be able to transmit and receive data.

放射線照射装置1は、被写体H(被検者)を挟んで放射線検出装置2と対向する位置に配置された放射線源11を備え、コンソール3の制御に従って、被写体Hに対し放射線(X線)を照射する。 The radiation irradiation device 1 includes a radiation source 11 arranged at a position facing the radiation detection device 2 with the subject H (subject) in between, and emits radiation (X-rays) to the subject H according to the control of the console 3. Irradiate.

放射線検出装置2は、放射線源11から照射され被写体Hを透過した放射線を検出し、放射線画像を撮像する放射線画像撮像部であり、検出器保持部22、放射線検出器P等を備えて構成されている。放射線検出器Pは、FPD(Flat Panel Detector)等より構成される。放射線検出器Pは、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線照射装置1から照射されて少なくとも被写体Hを透過した放射線(X線)をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。放射線検出器Pは、コンソール3から入力された画像読取条件に基づいて各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、各画素に蓄積された電気信号を読み取ることにより、画像データ(放射線画像)を取得する。そして、放射線検出器Pは、取得した画像データをコンソール3に出力する。 The radiation detection device 2 is a radiation image imaging unit that detects radiation emitted from the radiation source 11 and transmitted through the subject H and captures a radiation image, and is configured to include a detector holding unit 22, a radiation detector P, and the like. ing. The radiation detector P is composed of an FPD (Flat Panel Detector) or the like. The radiation detector P has, for example, a glass substrate or the like, and detects radiation (X-rays) irradiated from the radiation irradiating device 1 and transmitted through at least the subject H at a predetermined position on the substrate according to its intensity. However, a plurality of detection elements (pixels) that convert the detected radiation into an electric signal and store it are arranged in a matrix. Each pixel is configured to include, for example, a switching unit such as a TFT (Thin Film Transistor). The radiation detector P controls the switching unit of each pixel based on the image reading condition input from the console 3, switches the reading of the electric signal stored in each pixel, and stores the electric signal in each pixel. Image data (radioimage) is acquired by reading the electric signal. Then, the radiation detector P outputs the acquired image data to the console 3.

コンソール3は、放射線照射条件を放射線照射装置1に出力するとともに、画像読取条件を放射線検出装置2に出力し、放射線照射装置1による放射線照射及び放射線検出装置2による放射線画像の読み取り動作を制御する。また、コンソール3は、画像処理部として、撮影された放射線画像に画像処理を施す。 The console 3 outputs the radiation irradiation condition to the radiation irradiation device 1 and outputs the image reading condition to the radiation detection device 2, and controls the radiation irradiation by the radiation irradiation device 1 and the operation of reading the radiation image by the radiation detection device 2. .. Further, the console 3 performs image processing on the captured radiographic image as an image processing unit.

コンソール3は、図2に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35を備えて構成され、各部はバス36により接続されている。 As shown in FIG. 2, the console 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35, and each unit is connected by a bus 36.

制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って、コンソール3各部の動作や、放射線照射装置1及び放射線検出装置2の動作を集中制御する。 The control unit 31 is composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The CPU of the control unit 31 reads out the system program and various processing programs stored in the storage unit 32 and expands them in the RAM in response to the operation of the operation unit 33, and operates each unit of the console 3 according to the expanded program. In addition, the operations of the radiation irradiation device 1 and the radiation detection device 2 are centrally controlled.

記憶部32は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部32は、制御部31で実行される各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。
また、記憶部32は、撮影により取得された放射線画像を患者情報(患者ID、患者名等)や検査情報(検査日、撮影部位等)に対応付けて記憶する。
The storage unit 32 is composed of a non-volatile semiconductor memory, a hard disk, or the like. The storage unit 32 stores data such as parameters or processing results required for processing by various programs and programs executed by the control unit 31. Various programs are stored in the form of a readable program code, and the control unit 31 sequentially executes an operation according to the program code.
Further, the storage unit 32 stores the radiographic image acquired by imaging in association with patient information (patient ID, patient name, etc.) and examination information (examination date, imaging site, etc.).

操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。更に、操作部33には、放射線照射装置1に放射線撮影を指示するための曝射スイッチ等が備えられている。 The operation unit 33 is configured to include a keyboard equipped with cursor keys, number input keys, various function keys, and a pointing device such as a mouse, and controls an instruction signal input by key operation on the keyboard or mouse operation. Output to 31. Further, the operation unit 33 may include a touch panel on the display screen of the display unit 34, and in this case, the instruction signal input via the touch panel is output to the control unit 31. Further, the operation unit 33 is provided with an exposure switch or the like for instructing the radiation irradiation device 1 to perform radiography.

表示部34は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、操作部33からの入力指示やデータ等を表示する。 The display unit 34 is composed of a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays input instructions, data, and the like from the operation unit 33 according to the instruction of the display signal input from the control unit 31. do.

通信部35は、放射線照射装置1、放射線検出装置2及び光学カメラ4とデータ送受信を行うためのインターフェースを有する。なお、コンソール3と放射線照射装置1、放射線検出装置2及び光学カメラ4との通信は、有線通信であっても無線通信であってもよい。 The communication unit 35 has an interface for transmitting / receiving data to / from the radiation irradiation device 1, the radiation detection device 2, and the optical camera 4. The communication between the console 3 and the radiation irradiation device 1, the radiation detection device 2, and the optical camera 4 may be wired communication or wireless communication.

光学カメラ4は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor Device)カメラ、又は赤外線カメラ等により構成され、光学画像を撮像する光学画像撮像部である。本実施形態において、光学カメラ4は、放射線照射装置1の放射線源11の近傍に備えられ、コンソール3からの指示に従って、放射線源11から放射線が照射される領域の少なくとも一部の領域(基本的には放射線が照射される領域よりやや大きめの領域)の光学画像を撮像し、撮像した光学画像をコンソール3に送信する。 The optical camera 4 is composed of, for example, a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor Device) camera, an infrared camera, or the like, and is an optical image capturing unit that captures an optical image. In the present embodiment, the optical camera 4 is provided in the vicinity of the radiation source 11 of the radiation irradiation device 1, and according to the instruction from the console 3, at least a part of the region (basically) of the region where the radiation is emitted from the radiation source 11. An optical image of a region slightly larger than the region irradiated with radiation) is captured, and the captured optical image is transmitted to the console 3.

〔放射線画像撮影システム100の動作〕
次に、放射線画像撮影システム100の動作について説明する。
放射線撮影を行うにあたり、撮影実施者は、まず、撮影準備を行う。すなわち、コンソール3の操作部33により患者情報等の入力を受け付け、被写体Hのポジショニングを行う。撮影準備が終了すると、撮影実施者は、操作部33により撮影開始を指示する。操作部33から撮影開始が指示されると、コンソール3は、図3に示す放射線画像生成処理Aを実行する。放射線画像生成処理Aは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。
[Operation of Radiation Imaging System 100]
Next, the operation of the radiation imaging system 100 will be described.
When performing radiological photography, the photographer first prepares for photography. That is, the operation unit 33 of the console 3 accepts the input of patient information and the like, and positions the subject H. When the preparation for shooting is completed, the person performing the shooting instructs the operation unit 33 to start shooting. When the operation unit 33 instructs to start imaging, the console 3 executes the radiation image generation process A shown in FIG. The radiation image generation process A is executed in collaboration with the control unit 31 and the program stored in the storage unit 32.

放射線画像生成処理Aにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS1)。
すなわち、放射線源11から放射線が照射される領域の少なくとも一部の領域の光学画像を取得する。
In the radiation image generation process A, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S1).
That is, an optical image of at least a part of the region irradiated with radiation from the radiation source 11 is acquired.

次いで、制御部31は、取得された光学画像を解析することにより、撮影部位を判定する(ステップS2)。
撮影部位は、放射線画像の撮像対象となっている部位である。
光学画像から撮影部位を判定する手法は、特に限定されない。例えば、放射線検査において撮影部位となり得る部位ごとの光学画像のテンプレート画像を予め用意しておき、光学カメラ4から取得された光学画像と各テンプレート画像とのテンプレートマッチングを行い、類似度が最も高かった部位を撮影部位として判定することができる。
Next, the control unit 31 determines the imaged portion by analyzing the acquired optical image (step S2).
The imaging site is a site that is the target of imaging a radiographic image.
The method for determining the imaged portion from the optical image is not particularly limited. For example, a template image of an optical image for each part that can be an imaged part in a radiological examination was prepared in advance, and template matching was performed between the optical image acquired from the optical camera 4 and each template image, and the degree of similarity was the highest. The part can be determined as an imaging part.

次いで、制御部31は、判定された撮影部位に基づいて、放射線画像の画像処理条件を設定する(ステップS3)。
例えば、各撮影部位と、当該撮影部位に応じた最適な画像処理条件(画像処理パラメーター)とを対応付けた変換テーブルを記憶部32に記憶しておき、制御部31は、この変換テーブルを用いて、ステップS3で判定された撮影部位に応じた画像処理条件を特定し、特定した画像処理条件を撮影される放射線画像の画像処理条件として設定する。ここで、撮影部位に応じて設定される画像処理条件としては、例えば、ダイナミックレンジ圧縮処理、コントラスト補正処理、濃度補正処理、LUT(Look Up Table)処理、周波数強調処理、散乱線補正処理、ノイズ抑制処理、画像のトリミング(例えば、手指骨と判定された場合は六切りサイズにトリミングする)、画像のマスキング、画像の回転、画像の反転(例えば胸部PAと判定された場合は画像を反転する)の少なくとも一つの画像処理条件が挙げられる。
Next, the control unit 31 sets the image processing conditions for the radiographic image based on the determined imaged portion (step S3).
For example, a conversion table in which each imaged portion is associated with the optimum image processing conditions (image processing parameters) corresponding to the imaged portion is stored in the storage unit 32, and the control unit 31 uses this conversion table. Then, the image processing conditions corresponding to the imaged portion determined in step S3 are specified, and the specified image processing conditions are set as the image processing conditions of the radiographic image to be imaged. Here, the image processing conditions set according to the imaged portion include, for example, dynamic range compression processing, contrast correction processing, density correction processing, LUT (Look Up Table) processing, frequency enhancement processing, scattered ray correction processing, and noise. Suppression processing, image trimming (for example, trimming to 6-cut size if determined to be finger bone), image masking, image rotation, image inversion (eg, inverting image if determined to be chest PA) ) At least one image processing condition.

次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせ、放射線画像を取得する(ステップS4)。
そして、取得された放射線画像に、ステップS3で設定された画像処理条件で画像処理を施し(ステップS5)、画像処理された放射線画像を患者情報や検査情報に対応付けて記憶部32に保存し(ステップS6)、放射線画像生成処理Aを終了する。
Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to pressing the exposure switch, and acquires a radiation image (step S4).
Then, the acquired radiographic image is subjected to image processing under the image processing conditions set in step S3 (step S5), and the image-processed radiographic image is stored in the storage unit 32 in association with the patient information and the examination information. (Step S6), the radiation image generation process A is terminated.

上記放射線画像生成処理Aでは、光学画像に基づいて撮影部位を判別し、撮影部位に応じた画像処理条件を自動的に設定して放射線画像に画像処理を施すので、撮影部位や画像処理条件をユーザーが設定操作することなく、撮影部位に応じた適切な画像処理が可能となる。すなわち、放射線画像に適切な画像処理を行うためのユーザーの設定操作を省略又は簡便化することができる。 In the above-mentioned radiation image generation processing A, the imaged part is determined based on the optical image, the image processing conditions according to the imaged part are automatically set, and the image processing is performed on the radiation image. Appropriate image processing according to the part to be imaged can be performed without the user having to perform setting operations. That is, it is possible to omit or simplify the user's setting operation for performing appropriate image processing on the radiographic image.

なお、上記説明では、光学画像を解析することにより判定された撮影部位に基づいて放射線画像の画像処理条件を自動的に設定することとしたが、判定された撮影部位に基づいて撮影条件や画像読み取り条件を自動的に設定し、放射線撮影を行って放射線画像を取得することとしてもよい。
また、図3においては、画像処理条件の設定後に放射線画像を取得することとしたが、光学画像の解析と並行して放射線画像を取得してもよい。
In the above description, the image processing conditions of the radiographic image are automatically set based on the imaged area determined by analyzing the optical image, but the image processing conditions and the image are set based on the determined imaged area. The reading condition may be automatically set, and radiography may be performed to acquire a radiographic image.
Further, in FIG. 3, although it is decided to acquire the radiographic image after setting the image processing conditions, the radiological image may be acquired in parallel with the analysis of the optical image.

<第2の実施形態>
以下、本発明の第2の実施形態について説明する。
放射線画像では、被写体Hの体格によって最適な画像処理条件が変わる。
そこで、第2の実施形態では、被写体Hを撮影した光学画像に基づいて被写体Hの体格を判定し、体格に応じた適切な画像処理を放射線画像に施す例について説明する。
<Second embodiment>
Hereinafter, a second embodiment of the present invention will be described.
In the radiographic image, the optimum image processing conditions change depending on the physique of the subject H.
Therefore, in the second embodiment, an example will be described in which the physique of the subject H is determined based on the optical image of the subject H, and appropriate image processing according to the physique is applied to the radiographic image.

第2の実施形態において、光学カメラ4は、被写体Hの側面にそのレンズを向けて配置され、コンソール3の指示に応じて被写体Hの側面(被写体Hの側面の全体でも一部でもよい)の光学画像を取得してコンソール3に送信する。
その他の放射線画像撮影システム100の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第2の実施形態の動作について説明する。
In the second embodiment, the optical camera 4 is arranged with its lens facing the side surface of the subject H, and the side surface of the subject H (may be the whole or a part of the side surface of the subject H) according to the instruction of the console 3. The optical image is acquired and transmitted to the console 3.
Since the other configurations of the radiation imaging system 100 are the same as those described in the first embodiment, the description will be incorporated, and the operation of the second embodiment will be described below.

撮影準備が完了し、操作部33により撮影開始が指示されると、コンソール3は、図4に示す放射線画像生成処理Bを実行する。放射線画像生成処理Bは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。 When the preparation for imaging is completed and the operation unit 33 instructs the start of imaging, the console 3 executes the radiation image generation process B shown in FIG. The radiation image generation process B is executed in collaboration with the control unit 31 and the program stored in the storage unit 32.

放射線画像生成処理Bにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS11)。
すなわち、被写体Hの側面の光学画像を取得する。
In the radiation image generation process B, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S11).
That is, an optical image of the side surface of the subject H is acquired.

次いで、制御部31は、取得された光学画像を解析することにより、被写体Hの体格を判定する(ステップS12)。
例えば、制御部31は、特開2011−139761号公報に記載のように、被写体Hの側面が撮像された光学画像から被写体Hの輪郭を抽出し、抽出した輪郭から体厚を算出する。そして、算出した体厚を予め定められた複数の基準値と比較することにより、被写体Hの体格が、例えば、肥満型、標準、やせ型のいずれであるかを判定する。
Next, the control unit 31 determines the physique of the subject H by analyzing the acquired optical image (step S12).
For example, as described in Japanese Patent Application Laid-Open No. 2011-139716, the control unit 31 extracts the contour of the subject H from the optical image in which the side surface of the subject H is captured, and calculates the body thickness from the extracted contour. Then, by comparing the calculated body thickness with a plurality of predetermined reference values, it is determined whether the body shape of the subject H is, for example, an obese type, a standard type, or a thin type.

次いで、制御部31は、判定された体格に基づいて、放射線画像の画像処理条件を設定する(ステップS13)。
例えば、各体格と、当該体格に応じた最適な画像処理条件とを対応付けた変換テーブルを記憶部32に記憶しておき、制御部31は、この変換テーブルを用いて、ステップS12で判定された体格に応じた画像処理条件を特定し、特定した画像処理条件を撮影される放射線画像に適用する画像処理条件として設定する。ここで、体格に応じて設定される画像処理条件としては、例えば、ダイナミックレンジ圧縮処理、コントラスト補正処理、濃度補正処理、LUT(Look Up Table)処理、周波数強調処理、散乱線補正処理、ノイズ抑制処理、画像のトリミング、画像のマスキング、画像の回転、画像の反転の少なくとも一つの画像処理条件が挙げられる。
Next, the control unit 31 sets the image processing conditions for the radiographic image based on the determined physique (step S13).
For example, a conversion table in which each physique is associated with the optimum image processing conditions corresponding to the physique is stored in the storage unit 32, and the control unit 31 is determined in step S12 using this conversion table. The image processing conditions according to the physique are specified, and the specified image processing conditions are set as the image processing conditions to be applied to the captured radiographic image. Here, the image processing conditions set according to the physique include, for example, dynamic range compression processing, contrast correction processing, density correction processing, LUT (Look Up Table) processing, frequency enhancement processing, scattered ray correction processing, and noise suppression. At least one image processing condition of processing, image trimming, image masking, image rotation, and image inversion can be mentioned.

次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせ、放射線画像を取得する(ステップS14)。
そして、取得された放射線画像に、ステップS13で設定された画像処理条件で画像処理を施し(ステップS15)、画像処理された放射線画像を患者情報や検査情報に対応付けて記憶部32に保存し(ステップS16)、放射線画像生成処理Bを終了する。
Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to pressing the exposure switch, and acquires a radiation image (step S14).
Then, the acquired radiographic image is subjected to image processing under the image processing conditions set in step S13 (step S15), and the image-processed radiographic image is stored in the storage unit 32 in association with the patient information and the examination information. (Step S16), the radiation image generation process B is terminated.

上記放射線画像生成処理Bでは、光学画像に基づいて、被写体Hの体格を判別し、体格に応じた画像処理条件を自動的に設定するので、被写体Hの体格や画像処理パラメーターをユーザーが設定する操作を行うことなく、体格に応じた適切な画像処理が可能となる。すなわち、放射線画像に適切な画像処理を行うためのユーザーの設定操作を省略又は簡便化することができる。 In the radiation image generation process B, the physique of the subject H is determined based on the optical image, and the image processing conditions according to the physique are automatically set, so that the user sets the physique of the subject H and the image processing parameters. Appropriate image processing according to the physique is possible without performing any operation. That is, it is possible to omit or simplify the user's setting operation for performing appropriate image processing on the radiographic image.

なお、上記説明では、光学画像を解析することにより判定された体格に基づいて放射線画像の画像処理条件を自動的に設定することとしたが、判定された体格に基づいて撮影条件や画像読み取り条件を自動的に設定し、放射線撮影を行って放射線画像を取得することとしてもよい。
また、図4においては、画像処理条件の決定後に放射線画像を取得することとしたが、光学画像の解析と並行して放射線画像を取得してもよい。
In the above description, the image processing conditions for the radiographic image are automatically set based on the physique determined by analyzing the optical image, but the imaging conditions and the image reading conditions are set based on the determined physique. May be set automatically, and radiography may be performed to acquire a radiological image.
Further, in FIG. 4, it is decided to acquire the radiographic image after the image processing conditions are determined, but the radiological image may be acquired in parallel with the analysis of the optical image.

<第3の実施形態>
以下、本発明の第3の実施形態について説明する。
例えば、入院患者等に対しては、定期的に放射線画像を取得して病状の経過観察を行う場合がある。経過観察を行う場合、毎回の画像処理条件が異なると、その人の病状が変わったのか否かがわからず、適切な診断ができなくなる。
そこで、第3の実施形態では、放射線撮影時に被写体Hの光学画像を取得し、取得した光学画像に基づいて患者を判別し、その患者の過去に撮影された放射線画像(過去画像)に適用した画像処理条件を特定して今回取得する放射線画像に適用する例について説明する。
<Third embodiment>
Hereinafter, a third embodiment of the present invention will be described.
For example, for inpatients and the like, radiological images may be acquired on a regular basis to follow up the medical condition. In the case of follow-up observation, if the image processing conditions are different each time, it is not possible to know whether or not the person's medical condition has changed, and an appropriate diagnosis cannot be made.
Therefore, in the third embodiment, an optical image of the subject H is acquired at the time of radiography, a patient is identified based on the acquired optical image, and the patient is applied to a radiographic image (past image) taken in the past. An example of specifying the image processing conditions and applying them to the radiographic image acquired this time will be described.

第3の実施形態において、記憶部32には、撮影された放射線画像に対し、患者情報、検査情報、放射線画像撮影時に撮影された被写体の光学画像、当該光学画像から算出された特徴量、及び放射線画像に施された画像処理の画像処理条件が対応付けて記憶されている。 In the third embodiment, the storage unit 32 contains patient information, examination information, an optical image of the subject taken at the time of taking the radio image, a feature amount calculated from the optical image, and a feature amount calculated from the optical image in the storage unit 32. The image processing conditions of the image processing applied to the radiographic image are stored in association with each other.

また、光学カメラ4は、被写体Hの所定の構造物(例えば、顔や目)を含む光学画像を撮影可能な位置に配置され、コンソール3の指示に応じて被写体Hの所定の構造物を含む光学画像を取得してコンソール3に送信する。 Further, the optical camera 4 is arranged at a position where an optical image including a predetermined structure (for example, a face or an eye) of the subject H can be taken, and includes the predetermined structure of the subject H in response to an instruction from the console 3. The optical image is acquired and transmitted to the console 3.

その他の放射線画像撮影システム100の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第3の実施形態の動作について説明する。 Since the other configurations of the radiation imaging system 100 are the same as those described in the first embodiment, the description will be incorporated, and the operation of the third embodiment will be described below.

撮影準備が完了し、操作部33から撮影開始が指示されると、コンソール3は、図5に示す放射線画像生成処理Cを実行する。放射線画像生成処理Cは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。 When the preparation for shooting is completed and the operation unit 33 instructs to start shooting, the console 3 executes the radiation image generation process C shown in FIG. The radiation image generation process C is executed in collaboration with the control unit 31 and the program stored in the storage unit 32.

放射線画像生成処理Cにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS21)。
すなわち、被写体Hの所定の構造物(例えば、顔、目等)を含む光学画像を取得する。
In the radiation image generation process C, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S21).
That is, an optical image including a predetermined structure (for example, face, eyes, etc.) of the subject H is acquired.

次いで、制御部31は、取得された光学画像を解析することにより、被写体Hの特徴量(画像特徴量)を算出する(ステップS22)。
ステップS22において、制御部31は、例えば、被写体Hの所定の構造物の大きさや形状を表す特徴量を算出する。例えば、特開2015−219879号公報に記載のように、公知の画像認識技術を用いて光学画像から顔領域を認識し、顔領域内の所定の構造物(目、鼻、口)を認識してその大きさや形状を表す特徴量を算出する。例えば、構造物に複数の特徴点を設定し、所定の特徴点間の距離等を大きさの特徴量として求める。また、各特徴点の位置や各特徴点間の距離等を形状の特徴量として求めることができる。あるいは、特開2012−29894号公報に記載のように、公知の瞳孔認証処理技術により瞳孔の特徴量を算出してもよい。また、複数の構造物の特徴量を算出してもよい。
Next, the control unit 31 calculates the feature amount (image feature amount) of the subject H by analyzing the acquired optical image (step S22).
In step S22, the control unit 31 calculates, for example, a feature amount representing the size and shape of a predetermined structure of the subject H. For example, as described in Japanese Patent Application Laid-Open No. 2015-21979, a known image recognition technique is used to recognize a face region from an optical image and recognize a predetermined structure (eyes, nose, mouth) in the face region. Calculate the feature amount that represents the size and shape of the optics. For example, a plurality of feature points are set in the structure, and the distance between predetermined feature points and the like are obtained as the feature quantity of the size. Further, the position of each feature point, the distance between each feature point, and the like can be obtained as the feature amount of the shape. Alternatively, as described in Japanese Patent Application Laid-Open No. 2012-29894, the feature amount of the pupil may be calculated by a known pupil authentication processing technique. Moreover, you may calculate the feature amount of a plurality of structures.

次いで、制御部31は、算出された特徴量に基づいて、放射線画像の画像処理条件を設定する(ステップS23)。
ステップS23では、算出された特徴量を記憶部32において過去の放射線画像(撮影部位が同じ)と対応付けて記憶されている特徴量(光学画像から算出された特徴量)と比較し、一致する特徴量が存在した場合に、その特徴量に対応付けられた過去の放射線画像に用いた画像処理条件を読み出して、今回撮影する放射線画像の画像処理条件として設定する。これにより、被写体H(同一患者)の過去の放射線画像に用いた画像処理条件と同じ画像処理条件を設定することができる。
なお、一致する特徴量が記憶部32に存在しない場合は、例えば、操作部33からユーザーが画像処理条件を設定してもよい。
Next, the control unit 31 sets the image processing conditions for the radiographic image based on the calculated feature amount (step S23).
In step S23, the calculated feature amount is compared with the feature amount (feature amount calculated from the optical image) stored in association with the past radiation image (same imaged part) in the storage unit 32 and matches. When a feature amount exists, the image processing condition used for the past radiation image associated with the feature amount is read out and set as the image processing condition of the radiation image to be captured this time. This makes it possible to set the same image processing conditions as those used for the past radiographic images of the subject H (same patient).
If the matching feature amount does not exist in the storage unit 32, the user may set the image processing condition from the operation unit 33, for example.

次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせ、放射線画像を取得する(ステップS24)。
そして、取得された放射線画像に、ステップS23で設定された画像処理条件で画像処理を施し(ステップS25)、画像処理された放射線画像に、患者情報、検査情報、取得した光学画像、特徴量及び画像処理条件を対応付けて記憶部32に保存し(ステップS26)、放射線画像生成処理Cを終了する。
Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to pressing the exposure switch, and acquires a radiation image (step S24).
Then, the acquired radiographic image is subjected to image processing under the image processing conditions set in step S23 (step S25), and the image-processed radiographic image is subjected to patient information, examination information, acquired optical image, feature amount, and the like. The image processing conditions are associated with each other and stored in the storage unit 32 (step S26), and the radiation image generation processing C is terminated.

上記放射線画像生成処理Cでは、光学画像から被写体Hの特徴量を算出し、算出した特徴量に基づいて、被写体Hの過去の放射線画像に施した画像処理条件を特定して自動的に設定するので、被写体Hの過去の放射線画像に適用した画像処理条件をユーザーが特定して設定する操作を行うことなく、経過観察が可能な適切な画像処理を行うことが可能となる。すなわち、放射線画像に適切な画像処理を行うためのユーザーの設定操作を省略又は簡便化することができる。 In the radiation image generation processing C, the feature amount of the subject H is calculated from the optical image, and the image processing conditions applied to the past radiation image of the subject H are specified and automatically set based on the calculated feature amount. Therefore, it is possible to perform appropriate image processing capable of follow-up observation without performing an operation of specifying and setting the image processing conditions applied to the past radiation image of the subject H by the user. That is, it is possible to omit or simplify the user's setting operation for performing appropriate image processing on the radiographic image.

なお、上記説明では、光学画像を解析することにより算出された特徴量に基づいて放射線画像の画像処理条件を自動的に設定することとしたが、算出された特徴量に基づいて撮影条件や画像読み取り条件を自動的に設定し、放射線撮影を行って放射線画像を取得することとしてもよい。
また、図5においては、画像処理条件の決定後に放射線画像を取得することとしたが、光学画像の解析と並行して放射線画像を取得してもよい。
In the above description, the image processing conditions for the radiographic image are automatically set based on the feature amount calculated by analyzing the optical image, but the imaging conditions and the image are set based on the calculated feature amount. The reading condition may be automatically set, and radiography may be performed to acquire a radiological image.
Further, in FIG. 5, it is decided to acquire the radiographic image after the image processing conditions are determined, but the radiological image may be acquired in parallel with the analysis of the optical image.

<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
放射線撮影では、撮影実施者がポジショニングを行って撮影を行うが、体の表面を見ても体内の状態までわからないため、実際に放射線画像を取得すると診断に適さず再撮影となってしまう場合がある。
そこで、第4の実施形態では、放射線撮影時に取得した光学画像に基づいてポジショニングが良好か否か(診断に適したポジショニングであるか否か)を放射線撮影前に判定してポジショニング不良の場合にユーザーに通知する。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described.
In radiography, the photographer performs positioning and takes a picture, but since the state of the body cannot be seen by looking at the surface of the body, when an actual radiological image is obtained, it may not be suitable for diagnosis and may be re-photographed. be.
Therefore, in the fourth embodiment, whether or not the positioning is good (whether or not the positioning is suitable for diagnosis) is determined before the radiography based on the optical image acquired at the time of radiography, and when the positioning is poor. Notify the user.

第4の実施形態において、記憶部32には、入力された光学画像に基づいて機械学習により放射線撮影時のポジショニングの良否を判定するための機械学習プログラム、光学画像及びポジショニングの判定結果からなる学習用データに基づいて学習を行い、上記機械学習プログラムで用いる学習パラメーターを生成する学習パラメーター生成プログラムを始めとする各種プログラムが記憶されている。
また、記憶部32には、学習用データを蓄積記憶するための学習用データ記憶部及び学習パラメーターを記憶する学習パラメーター記憶部が設けられている。
また、光学カメラ4は、放射線照射装置1の放射線源11の近傍に備えられ、コンソール3からの指示に従って、放射線源11から放射線が照射される領域の光学画像を撮像し、撮像した光学画像をコンソール3に送信する。
その他の第4の実施形態における放射線画像撮影システム100の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第4の実施形態の動作について説明する。
In the fourth embodiment, the storage unit 32 contains a learning program including a machine learning program for determining the quality of positioning at the time of radiography by machine learning based on an input optical image, an optical image, and a learning of positioning determination results. Various programs including a learning parameter generation program that performs learning based on the data for learning and generates learning parameters used in the above machine learning program are stored.
Further, the storage unit 32 is provided with a learning data storage unit for accumulating and storing learning data and a learning parameter storage unit for storing learning parameters.
Further, the optical camera 4 is provided in the vicinity of the radiation source 11 of the radiation irradiation device 1, and according to an instruction from the console 3, an optical image of a region where radiation is emitted from the radiation source 11 is captured, and the captured optical image is captured. Send to console 3.
Since the configuration of the radiation imaging system 100 in the other fourth embodiment is the same as that described in the first embodiment, the description is incorporated, and the operation of the fourth embodiment will be described below.

撮影準備が完了し、操作部33から撮影開始が指示されると、コンソール3は、学習パラメーター記憶部を参照し、学習パラメーターが記憶されていない場合、図6に示す第1の撮影処理Aを実行する。学習パラメーターが記憶されている場合、図7に示す第2の撮影処理Aを実行する。第1の撮影処理A、第2の撮影処理Aは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。 When the preparation for shooting is completed and the operation unit 33 instructs to start shooting, the console 3 refers to the learning parameter storage unit, and if the learning parameter is not stored, performs the first shooting process A shown in FIG. Run. When the learning parameters are stored, the second shooting process A shown in FIG. 7 is executed. The first shooting process A and the second shooting process A are executed in collaboration with the program stored in the control unit 31 and the storage unit 32.

(第1の撮影処理A)
まず、図6を参照して第1の撮影処理Aについて説明する。
第1の撮影処理Aにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS31)。
(First shooting process A)
First, the first shooting process A will be described with reference to FIG.
In the first shooting process A, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S31).

次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせて放射線画像を取得し、記憶部32に記憶させる(ステップS32)。 Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to the pressing of the exposure switch, acquires a radiation image, and stores it in the storage unit 32 (step S32).

次いで、制御部31は、取得された放射線画像からポジショニングを判定する(ステップS33)。
例えば、制御部31は、取得された放射線画像を表示部34に表示させ、ユーザーによるポジショニング良否の入力を操作部33により受け付け、ポジショニング良否の入力に応じてポジショニングを判定する。または、制御部31は、放射線画像を解析して自動的にポジショニングを判定してもよい。例えば、撮影部位に応じた注目部位の検出処理を行い、注目部位が欠損なく含まれている場合に、ポジショニングが良好であると判定し、注目部位に欠損がある場合は、ポジショニング不良であると判定してもよい。
Next, the control unit 31 determines the positioning from the acquired radiographic image (step S33).
For example, the control unit 31 displays the acquired radiographic image on the display unit 34, accepts the input of the positioning quality by the user by the operation unit 33, and determines the positioning according to the input of the positioning quality. Alternatively, the control unit 31 may analyze the radiographic image and automatically determine the positioning. For example, the region of interest is detected according to the region of interest, and if the region of interest is included without any defects, it is determined that the positioning is good, and if the region of interest is defective, it is determined that the positioning is poor. You may judge.

次いで、制御部31は、ステップS31で取得した光学画像とポジショニングの判定結果を対応付けて学習用データとして記憶部32の学習用データ記憶部に記憶(追加)させる(ステップS34)。 Next, the control unit 31 associates the optical image acquired in step S31 with the positioning determination result and stores (adds) it in the learning data storage unit of the storage unit 32 as learning data (step S34).

次いで、制御部31は、学習パラメーター生成プログラムに従って、学習用データ記憶部に記憶されている学習用データに基づいて学習を行い、入力された光学画像からポジショニングの良否を判定するための機械学習の学習パラメーターを生成する(ステップS35)。
機械学習としては、例えば、畳み込みニューラルネットワーク等を用いることができるが、これに限定されるものではない。
Next, the control unit 31 performs learning based on the learning data stored in the learning data storage unit according to the learning parameter generation program, and performs machine learning for determining the quality of positioning from the input optical image. Generate learning parameters (step S35).
As machine learning, for example, a convolutional neural network or the like can be used, but the machine learning is not limited to this.

そして、制御部31は、生成された学習パラメーターを記憶部32に保存させ(ステップS36)、第1の撮影処理Aを終了する。
ステップS33で判定したポジショニング判定結果がポジショニング不良である場合、ユーザーは、操作部33により撮影を指示し、再撮影を行う。
Then, the control unit 31 stores the generated learning parameter in the storage unit 32 (step S36), and ends the first shooting process A.
When the positioning determination result determined in step S33 is poor positioning, the user instructs the operation unit 33 to take a picture and retakes the picture.

なお、ステップS34〜ステップS36は、撮影部位ごとに行うことが好ましい。
また、ステップS35〜S36の処理は、学習用データが所定数以上記憶されている場合に行うこととしてもよい。
It is preferable that steps S34 to S36 are performed for each imaging site.
Further, the processing of steps S35 to S36 may be performed when a predetermined number or more of learning data are stored.

(第2の撮影処理A)
次に、図7を参照して第2の撮影処理Aについて説明する。
(Second shooting process A)
Next, the second shooting process A will be described with reference to FIG. 7.

第2の撮影処理Aにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS41)。 In the second shooting process A, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S41).

次いで、制御部31は、取得された光学画像を入力として、記憶部32の学習パラメーター記憶部に記憶されている学習パラメーターを用いて機械学習によりポジショニングの良否を判定する(ステップS42)。 Next, the control unit 31 takes the acquired optical image as an input and determines whether the positioning is good or bad by machine learning using the learning parameters stored in the learning parameter storage unit of the storage unit 32 (step S42).

ポジショニングが不良であると判定した場合(ステップS43;YES)、制御部31は、ポジショニングが不良であることを通知し(ステップS44)、第2の撮影処理Aを終了する。
ステップS44において、制御部31は、例えば、表示部34に「ポジショニング不良です」等の通知を表示する。あるいは、コンソール3に音声出力部を備える構成とし、「ポジショニング不良です」等の通知メッセージを音声により出力することとしてもよい。
When it is determined that the positioning is defective (step S43; YES), the control unit 31 notifies that the positioning is defective (step S44), and ends the second shooting process A.
In step S44, the control unit 31 displays, for example, a notification such as "Positioning failure" on the display unit 34. Alternatively, the console 3 may be provided with a voice output unit, and a notification message such as "positioning failure" may be output by voice.

一方、ポジショニング不良ではない(良好である)と判定した場合(ステップS43;NO)、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせて放射線画像を取得し、記憶部32に記憶させる(ステップS45)。 On the other hand, when it is determined that the positioning is not defective (good) (step S43; NO), the control unit 31 performs radiography on the radiation irradiation device 1 and the radiation detection device 2 in response to the pressing of the exposure switch. The radiographic image is acquired and stored in the storage unit 32 (step S45).

次いで、制御部31は、取得された放射線画像からポジショニングを判定し、判定結果に基づいて学習パラメーターを更新し(ステップS46)、第2の撮影処理Aを終了する。
ステップS46において、制御部31は、図6のステップS33〜S36と同様の処理を実行し、学習パラメーター記憶部に記憶されている学習パラメーターを更新する。
ステップS46で判定したポジショニング判定結果がポジショニング不良である場合、ユーザーは、操作部33により撮影を指示し、再撮影を行う。
Next, the control unit 31 determines the positioning from the acquired radiographic image, updates the learning parameter based on the determination result (step S46), and ends the second imaging process A.
In step S46, the control unit 31 executes the same processing as in steps S33 to S36 of FIG. 6 to update the learning parameters stored in the learning parameter storage unit.
When the positioning determination result determined in step S46 is poor positioning, the user instructs the operation unit 33 to take a picture and retakes the picture.

このように、第4の実施形態では、光学画像に基づいてポジショニングが良好か否か(診断に適したポジショニングであるか否か)を放射線撮影前に判定することができるので、再撮影による手間や患者の被ばくを低減することが可能となる。 As described above, in the fourth embodiment, it is possible to determine whether or not the positioning is good (whether or not the positioning is suitable for diagnosis) based on the optical image, so that it is troublesome to perform re-imaging. And the exposure of patients can be reduced.

<第5の実施形態>
次に、本発明の第5の実施形態について説明する。
放射線撮影では、撮影実施者がポジショニングを行って撮影を行うが、体の表面を見ても体内の状態までわからないため、実際に放射線画像を取得すると診断に適さず再撮影となってしまう場合がある。
そこで、第5の実施形態では、光学画像に基づいてポジショニングが良好か否か(診断に適したポジショニングであるか否か)を放射線撮影前に判定し、ポジショニング不良の場合はポジショニング調整量をユーザーに通知する。
<Fifth Embodiment>
Next, a fifth embodiment of the present invention will be described.
In radiography, the photographer performs positioning and takes a picture, but since the state of the body cannot be seen by looking at the surface of the body, when an actual radiological image is obtained, it may not be suitable for diagnosis and may be re-photographed. be.
Therefore, in the fifth embodiment, whether or not the positioning is good (whether or not the positioning is suitable for diagnosis) is determined based on the optical image before radiography, and if the positioning is poor, the user adjusts the positioning amount. Notify to.

第5の実施形態において、記憶部32には、入力された光学画像に基づいて機械学習により放射線撮影時のポジショニングの良否を判定するとともに、ポジショニング不良の場合にはポジショニング調整量を推定するための機械学習プログラムや、光学画像、ポジショニングの判定結果及びポジショニング不良の場合のポジショニング調整量からなる学習用データに基づいて学習を行い、上記機械学習プログラムで用いる学習パラメーターを生成する学習パラメーター生成プログラムを始めとする各種プログラムが記憶されている。
また、記憶部32には、学習用データを蓄積記憶するための学習用データ記憶部及び学習パラメーターを記憶する学習パラメーター記憶部が設けられている。
また、光学カメラ4は、放射線照射装置1の放射線源11の近傍に備えられ、コンソール3からの指示に従って、放射線源11から放射線が照射される領域の光学画像を撮像し、撮像した光学画像をコンソール3に送信する。
その他の第5の実施形態における放射線画像撮影システム100の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第5の実施形態の動作について説明する。
In the fifth embodiment, the storage unit 32 is used to determine the quality of positioning at the time of radiography by machine learning based on the input optical image, and to estimate the positioning adjustment amount in the case of poor positioning. Starting with a learning parameter generation program that generates learning parameters used in the above machine learning program by learning based on learning data consisting of machine learning programs, optical images, positioning judgment results, and positioning adjustment amounts in the case of poor positioning. Various programs are stored.
Further, the storage unit 32 is provided with a learning data storage unit for accumulating and storing learning data and a learning parameter storage unit for storing learning parameters.
Further, the optical camera 4 is provided in the vicinity of the radiation source 11 of the radiation irradiation device 1, and according to an instruction from the console 3, an optical image of a region where radiation is emitted from the radiation source 11 is captured, and the captured optical image is captured. Send to console 3.
Since the configuration of the radiation imaging system 100 in the other fifth embodiment is the same as that described in the first embodiment, the description is incorporated, and the operation of the fifth embodiment will be described below.

撮影準備が完了し、操作部33から撮影開始が指示されると、コンソール3は、学習パラメーター記憶部を参照し、学習パラメーターが記憶されていない場合、図8に示す第1の撮影処理Bを実行する。学習パラメーターが記憶されている場合、図9に示す第2の撮影処理Bを実行する。第1の撮影処理B、第2の撮影処理Bは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。 When the preparation for shooting is completed and the operation unit 33 instructs to start shooting, the console 3 refers to the learning parameter storage unit, and if the learning parameter is not stored, performs the first shooting process B shown in FIG. Run. When the learning parameters are stored, the second shooting process B shown in FIG. 9 is executed. The first shooting process B and the second shooting process B are executed in collaboration with the program stored in the control unit 31 and the storage unit 32.

(第1の撮影処理B)
まず、図8を参照して第1の撮影処理Bについて説明する。
(First shooting process B)
First, the first shooting process B will be described with reference to FIG.

第1の撮影処理Bにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS51)。 In the first shooting process B, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S51).

次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせて放射線画像を取得し、記憶部32に記憶させる(ステップS52)。 Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to the pressing of the exposure switch, acquires a radiation image, and stores it in the storage unit 32 (step S52).

次いで、制御部31は、取得された放射線画像のポジショニング判定を行う(ステップS53)。
ステップS53の処理は、図6のステップS33で説明したものと同様であるので説明を援用する。
Next, the control unit 31 determines the positioning of the acquired radiographic image (step S53).
Since the process of step S53 is the same as that described in step S33 of FIG. 6, the description is incorporated.

次いで、制御部31は、ポジショニングの判定結果がポジショニング不良であるか否かを判断する(ステップS54)。
ポジショニング不良ではないと判断した場合(ステップS54;NO)、制御部31は、ステップS60に移行する。
Next, the control unit 31 determines whether or not the positioning determination result is a positioning defect (step S54).
When it is determined that the positioning is not defective (step S54; NO), the control unit 31 proceeds to step S60.

一方、ポジショニング不良であると判断した場合(ステップS54;YES)、制御部31は、再撮影を行う。
すなわち、制御部31は、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS55)。
次いで、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせて放射線画像を取得し、記憶部32に記憶させる(ステップS56)。
On the other hand, if it is determined that the positioning is poor (step S54; YES), the control unit 31 re-photographs.
That is, the control unit 31 causes the optical camera 4 to take an image and acquires an optical image (step S55).
Next, the control unit 31 causes the radiation irradiation device 1 and the radiation detection device 2 to perform radiography in response to the pressing of the exposure switch, acquires a radiation image, and stores it in the storage unit 32 (step S56).

次いで、制御部31は、取得された放射線画像のポジショニングの判定を行う(ステップS57)。
ステップS57の処理は、図6のステップS33で説明したものと同様であるので説明を援用する。
Next, the control unit 31 determines the positioning of the acquired radiographic image (step S57).
Since the process of step S57 is the same as that described in step S33 of FIG. 6, the description is incorporated.

次いで、制御部31は、ポジショニングの判定結果がポジショニング不良であるか否かを判断する(ステップS58)。
ポジショニング不良であると判断した場合(ステップS58;YES)、制御部31は、ステップS55に戻り、ステップS55〜S58を繰り返し実行する。
Next, the control unit 31 determines whether or not the positioning determination result is a positioning defect (step S58).
If it is determined that the positioning is poor (step S58; YES), the control unit 31 returns to step S55 and repeatedly executes steps S55 to S58.

ポジショニング不良ではない(良好である)と判断した場合(ステップS58;NO)、制御部31は、ステップS51で取得されたポジショニング不良の光学画像と、ステップS55で取得されたポジショニング良好の光学画像とに基づいて、ポジショニング調整量を推定し(ステップS59)、ステップS60に移行する。
例えば、ポジショニング不良の光学画像とポジショニング良好の光学画像において、ローカルマッチング処理等を行って、ポジショニング不良の光学画像をポジショニング良好の光学画像に合わせるための移動量を算出し、移動量をポジショニング調整量として推定する(例えば、加野亜紀子、諸角町子著「胸部集団検診X線画像の経時差分処理の研究」、コニカミノルタテクノロジレポートVol.8(1995)参照)。
When it is determined that the positioning is not defective (good) (step S58; NO), the control unit 31 includes the optical image of the poor positioning acquired in step S51 and the optical image of good positioning acquired in step S55. Based on the above, the positioning adjustment amount is estimated (step S59), and the process proceeds to step S60.
For example, in an optical image with poor positioning and an optical image with good positioning, a local matching process or the like is performed to calculate a movement amount for matching the optical image with poor positioning to an optical image with good positioning, and the movement amount is used as the positioning adjustment amount. (For example, see Akiko Kano and Machiko Morokaku, "Study of Time-Time Difference Processing of Chest Mass Screening X-ray Images", Konica Minolta Technology Report Vol.8 (1995)).

ステップS60において、制御部31は、取得した光学画像、ポジショニング判定結果、さらにポジショニング判定結果がポジショニング不良である場合には、ポジショニング調整量を対応付けて学習用データとして記憶部32の学習用データ記憶部に記憶(追加)させる(ステップS60)。 In step S60, when the acquired optical image, the positioning determination result, and the positioning determination result are poor positioning, the control unit 31 stores the learning data of the storage unit 32 as learning data in association with the positioning adjustment amount. The unit is stored (added) (step S60).

次いで、制御部31は、学習パラメーター生成プログラムに従って、学習用データ記憶部に記憶されている学習用データに基づいて学習を行い、入力された光学画像からポジショニングの良否の判定及びポジショニング不良の場合のポジショニング調整量の推定を行うための機械学習の学習パラメーターを生成する(ステップS61)。
機械学習としては、例えば、畳み込みニューラルネットワーク等を用いることができるが、これに限定されるものではない。
Next, the control unit 31 performs learning based on the learning data stored in the learning data storage unit according to the learning parameter generation program, determines whether the positioning is good or bad from the input optical image, and when the positioning is poor. A learning parameter for machine learning for estimating the positioning adjustment amount is generated (step S61).
As machine learning, for example, a convolutional neural network or the like can be used, but the machine learning is not limited to this.

そして、制御部31は、生成された学習パラメーターを記憶部32に保存させ(ステップS62)、第1の撮影処理Bを終了する。
なお、ステップS60〜S62は、撮影部位ごとに行うことが好ましい。
また、ステップS61〜S62の処理は、学習用データが所定数以上記憶されている場合に行うこととしてもよい。
Then, the control unit 31 stores the generated learning parameter in the storage unit 32 (step S62), and ends the first shooting process B.
It is preferable that steps S60 to S62 are performed for each imaging site.
Further, the processes of steps S61 to S62 may be performed when a predetermined number or more of learning data are stored.

(第2の撮影処理B)
次に、図9を参照して第2の撮影処理Bについて説明する。
(Second shooting process B)
Next, the second shooting process B will be described with reference to FIG.

第2の撮影処理Bにおいて、制御部31は、まず、光学カメラ4に撮像を行わせ、光学画像を取得する(ステップS71)。 In the second shooting process B, the control unit 31 first causes the optical camera 4 to take an image and acquires an optical image (step S71).

次いで、制御部31は、取得された光学画像を入力として、記憶部32の学習パラメーター記憶部に記憶されている学習パラメーターを用いて機械学習によりポジショニングの良否を判定する(ステップS72)。 Next, the control unit 31 takes the acquired optical image as an input and determines whether the positioning is good or bad by machine learning using the learning parameters stored in the learning parameter storage unit of the storage unit 32 (step S72).

ポジショニングが不良であると判定した場合(ステップS73;YES)、制御部31は、機械学習によりポジショニング調整量を推定し(ステップS74)、推定したポジショニング調整量を通知し(ステップS75)、第2の撮影処理Bを終了する。
ステップS75において、制御部31は、例えば、表示部34に「ポジショニング不良です。被写体を右に〇cm移動させてください。」等の通知を表示する。あるいは、コンソール3に音声出力部を備える構成とし、「ポジショニング不良です。被写体を右に〇cm移動させてください。」等の通知メッセージを音声により出力することとしてもよい。
When it is determined that the positioning is poor (step S73; YES), the control unit 31 estimates the positioning adjustment amount by machine learning (step S74), notifies the estimated positioning adjustment amount (step S75), and second. The shooting process B of is finished.
In step S75, the control unit 31 displays, for example, a notification such as "Positioning is poor. Please move the subject to the right by 〇 cm" on the display unit 34. Alternatively, the console 3 may be provided with a voice output unit, and a notification message such as "Positioning is poor. Please move the subject to the right by 〇 cm." May be output by voice.

一方、ポジショニング不良ではない(良好である)と判定した場合(ステップS73;NO)、制御部31は、曝射スイッチの押下に応じて、放射線照射装置1及び放射線検出装置2に放射線撮影を行わせて放射線画像を取得し、記憶部32に記憶させる(ステップS76)。 On the other hand, when it is determined that the positioning is not defective (good) (step S73; NO), the control unit 31 performs radiography on the radiation irradiation device 1 and the radiation detection device 2 in response to the pressing of the exposure switch. The radiographic image is acquired and stored in the storage unit 32 (step S76).

次いで、制御部31は、取得された放射線画像からポジショニングを判定し、判定結果に基づいて学習パラメーターを更新し(ステップS77)、第2の撮影処理Bを終了する。
ステップS77において、制御部31は、図8のステップS53〜S62と同様の処理を実行し、学習パラメーター記憶部に記憶されている学習パラメーターを更新する。
なお、ステップS77で判定したポジショニング判定結果がポジショニング不良である場合、ユーザーは、操作部33により撮影を指示し、再撮影を行う。
Next, the control unit 31 determines the positioning from the acquired radiographic image, updates the learning parameter based on the determination result (step S77), and ends the second imaging process B.
In step S77, the control unit 31 executes the same process as in steps S53 to S62 of FIG. 8 to update the learning parameters stored in the learning parameter storage unit.
If the positioning determination result determined in step S77 is poor positioning, the user instructs the operation unit 33 to take a picture and retakes the picture.

このように、第5の実施形態では、光学画像に基づいてポジショニングが良好か否か(診断に適したポジショニングであるか否か)を放射線撮影前に判定することができるので、再撮影による手間や患者の被ばくを防止することが可能となる。また、ポジショニング不良の場合はポジショニングの調整量をユーザーに通知することができるので、ユーザーはどのようにポジショニングを調整したらよいかを容易に把握することができ、ポジショニングの調整が容易になる。 As described above, in the fifth embodiment, it is possible to determine whether or not the positioning is good (whether or not the positioning is suitable for diagnosis) based on the optical image, so that it is troublesome to perform re-imaging. And it is possible to prevent the exposure of patients. Further, in the case of poor positioning, the user can be notified of the adjustment amount of the positioning, so that the user can easily understand how to adjust the positioning, and the adjustment of the positioning becomes easy.

以上、第1〜第5の実施形態について説明したが、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 Although the first to fifth embodiments have been described above, the description contents in the above embodiments are suitable examples of the present invention, and the description is not limited thereto.

例えば、上記の説明では、本発明に係るプログラムのコンピューター読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピューター読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 For example, in the above description, an example in which a hard disk, a non-volatile memory of a semiconductor, or the like is used as a computer-readable medium of the program according to the present invention has been disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. Further, a carrier wave is also applied as a medium for providing the data of the program according to the present invention via a communication line.

その他、放射線画像撮影システムを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the radiation imaging system can be appropriately changed without departing from the spirit of the present invention.

100 放射線画像撮影システム
1 放射線照射装置
11 放射線源
2 放射線検出装置
P 放射線検出器
3 コンソール
31 制御部
32 記憶部
33 操作部
34 表示部
35 通信部
36 バス
4 光学カメラ
100 Radiation imaging system 1 Radiation irradiation device 11 Radiation source 2 Radiation detection device P Radiation detector 3 Console 31 Control unit 32 Storage unit 33 Operation unit 34 Display unit 35 Communication unit 36 Bus 4 Optical camera

Claims (8)

放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する放射線画像撮像部と、
前記被写体の少なくとも一部の領域の光学画像を撮像する光学画像撮像部と、
前記放射線画像撮像部により撮像された放射線画像に画像処理を施す画像処理部と、を備え、
前記画像処理部は、前記光学画像撮像部により撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する放射線画像撮影システム。
A radiation image imaging unit that detects radiation emitted from a radiation source and has passed through a subject and captures a radiation image.
An optical image imaging unit that captures an optical image of at least a part of the subject.
An image processing unit that performs image processing on a radiation image captured by the radiation image imaging unit is provided.
The image processing unit is a radiation image capturing system that sets image processing conditions for the radiation image based on an optical image captured by the optical image imaging unit.
前記光学画像撮像部は、前記放射線源からの放射線が照射される前記被写体の領域の少なくとも一部の領域の光学画像を撮像し、
前記画像処理部は、前記光学画像を解析することにより前記放射線画像において撮像対象となっている前記被写体の部位を判定し、前記判定された部位に応じて前記画像処理条件を設定する請求項1に記載の放射線画像撮影システム。
The optical image capturing unit captures an optical image of at least a part of the region of the subject to which the radiation from the radiation source is irradiated.
The image processing unit determines a portion of the subject to be imaged in the radiographic image by analyzing the optical image, and sets the image processing condition according to the determined portion. The radiographic imaging system described in.
前記画像処理部は、前記光学画像を解析することにより前記被写体の体格を判定し、前記判定された前記被写体の体格に応じて前記画像処理条件を設定する請求項1に記載の放射線画像撮影システム。 The radiation image capturing system according to claim 1, wherein the image processing unit determines the physique of the subject by analyzing the optical image, and sets the image processing conditions according to the determined physique of the subject. .. 前記画像処理部は、前記光学画像を解析することにより前記被写体の特徴量を算出し、前記算出された特徴量に応じて前記画像処理条件を設定する請求項1に記載の放射線画像撮影システム。 The radiation image photographing system according to claim 1, wherein the image processing unit calculates a feature amount of the subject by analyzing the optical image, and sets the image processing condition according to the calculated feature amount. 前記特徴量は、前記被写体の所定構造物の大きさ又は形を表す特徴量である請求項4に記載の放射線画像撮影システム。 The radiographic imaging system according to claim 4, wherein the feature amount is a feature amount representing the size or shape of a predetermined structure of the subject. 前記画像処理条件は、ダイナミックレンジ圧縮処理、コントラスト補正処理、濃度補正処理、LUT変換処理、周波数強調処理、散乱線補正処理、ノイズ抑制処理、画像のトリミング、画像のマスキング、画像の回転、画像の反転のうち少なくとも一つの画像処理条件である請求項1〜5のいずれか一項に記載の放射線画像撮影システム。 The image processing conditions include dynamic range compression processing, contrast correction processing, density correction processing, LUT conversion processing, frequency enhancement processing, scattered ray correction processing, noise suppression processing, image trimming, image masking, image rotation, and image processing. The radiographic imaging system according to any one of claims 1 to 5, which is at least one image processing condition of inversion. 放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する放射線画像撮像部により撮像された放射線画像に画像処理を施すコンピューターを、
前記被写体の少なくとも一部の領域の光学画像を撮像する光学画像撮像部により撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する設定部、
として機能させるためのプログラム。
A computer that performs image processing on the radiation image captured by the radiation image imaging unit that detects the radiation emitted from the radiation source and transmitted through the subject and captures the radiation image.
A setting unit that sets image processing conditions for a radiation image based on an optical image captured by an optical image imaging unit that captures an optical image of at least a part of the subject.
A program to function as.
放射線源から照射され被写体を透過した放射線を検出し、放射線画像を撮像する工程と、
前記被写体の少なくとも一部の領域の光学画像を撮像する工程と、
前記撮像された光学画像に基づいて、前記放射線画像の画像処理条件を設定する工程と、
前記設定された画像処理条件に基づいて、前記放射線画像に画像処理を施す工程と、
を含む画像処理方法。
The process of detecting the radiation emitted from the radiation source and passing through the subject, and taking a radiation image,
The step of capturing an optical image of at least a part of the subject and
A step of setting image processing conditions for the radiographic image based on the captured optical image, and
A step of performing image processing on the radiographic image based on the set image processing conditions, and
Image processing methods including.
JP2020104928A 2020-06-18 2020-06-18 Radiographic image capturing system, program, and image processing method Pending JP2021194388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020104928A JP2021194388A (en) 2020-06-18 2020-06-18 Radiographic image capturing system, program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020104928A JP2021194388A (en) 2020-06-18 2020-06-18 Radiographic image capturing system, program, and image processing method

Publications (1)

Publication Number Publication Date
JP2021194388A true JP2021194388A (en) 2021-12-27

Family

ID=79196689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020104928A Pending JP2021194388A (en) 2020-06-18 2020-06-18 Radiographic image capturing system, program, and image processing method

Country Status (1)

Country Link
JP (1) JP2021194388A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220015724A1 (en) * 2020-07-16 2022-01-20 Konica Minolta, Inc. Radiographic imaging system, computer readable storage medium, optical imaging condition setting method, and optical imaging apparatus

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284713A (en) * 2002-03-28 2003-10-07 Konica Corp Image processing device for medical use, image processing parameter correcting method, program, and storage medium
JP2010005252A (en) * 2008-06-30 2010-01-14 Fujifilm Corp Energy subtraction processing apparatus, method, and program
JP2012010772A (en) * 2010-06-29 2012-01-19 Fujifilm Corp Radiographic imaging apparatus
JP2014144118A (en) * 2013-01-29 2014-08-14 Toshiba Corp X-ray diagnostic device, and control program
JP2015167613A (en) * 2014-03-05 2015-09-28 富士フイルム株式会社 Apparatus, method and program for processing radiation image
JP2017047103A (en) * 2015-09-04 2017-03-09 キヤノン株式会社 Control apparatus, mammography system, and control method for mammography apparatus
JP2017074452A (en) * 2013-07-31 2017-04-20 富士フイルム株式会社 Radiographic image analysis apparatus, method, and program
JP2019202019A (en) * 2018-05-25 2019-11-28 コニカミノルタ株式会社 Body thickness estimation device, radiation image processing device, and body thickness estimation method, and program
JP2020014801A (en) * 2018-07-27 2020-01-30 株式会社日立製作所 X-ray imaging device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284713A (en) * 2002-03-28 2003-10-07 Konica Corp Image processing device for medical use, image processing parameter correcting method, program, and storage medium
JP2010005252A (en) * 2008-06-30 2010-01-14 Fujifilm Corp Energy subtraction processing apparatus, method, and program
JP2012010772A (en) * 2010-06-29 2012-01-19 Fujifilm Corp Radiographic imaging apparatus
JP2014144118A (en) * 2013-01-29 2014-08-14 Toshiba Corp X-ray diagnostic device, and control program
JP2017074452A (en) * 2013-07-31 2017-04-20 富士フイルム株式会社 Radiographic image analysis apparatus, method, and program
JP2015167613A (en) * 2014-03-05 2015-09-28 富士フイルム株式会社 Apparatus, method and program for processing radiation image
JP2017047103A (en) * 2015-09-04 2017-03-09 キヤノン株式会社 Control apparatus, mammography system, and control method for mammography apparatus
JP2019202019A (en) * 2018-05-25 2019-11-28 コニカミノルタ株式会社 Body thickness estimation device, radiation image processing device, and body thickness estimation method, and program
JP2020014801A (en) * 2018-07-27 2020-01-30 株式会社日立製作所 X-ray imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220015724A1 (en) * 2020-07-16 2022-01-20 Konica Minolta, Inc. Radiographic imaging system, computer readable storage medium, optical imaging condition setting method, and optical imaging apparatus
US11672495B2 (en) * 2020-07-16 2023-06-13 Konica Minolta, Inc. Radiographic imaging system, computer readable storage medium, optical imaging condition setting method, and optical imaging apparatus

Similar Documents

Publication Publication Date Title
JP7180104B2 (en) Radiographic image display device and radiography system
JP2008194374A (en) X-ray image projector and method
WO2020250917A1 (en) Radiologic imaging support system, radiologic imaging support method, and program
CN111528879A (en) Method and system for acquiring medical image
JP2001218759A (en) Medical image reader
JP2005109790A (en) Medical image processing apparatus
WO2020036012A1 (en) Information processing device, radiographic imaging apparatus, and control method therefor
JP2006334046A (en) Radiographic equipment and radiographing method
JP2021194388A (en) Radiographic image capturing system, program, and image processing method
JP6870765B1 (en) Dynamic quality control equipment, dynamic quality control program and dynamic quality control method
JP2019212138A (en) Image processing device, image processing method and program
JP5564385B2 (en) Radiographic imaging apparatus, radiographic imaging method and program
JP2022018563A (en) Radiation imaging system, program, optical imaging condition setting method, and optical imaging apparatus
CN115474952A (en) Dynamic quality management device, computer-readable storage medium, and dynamic quality management method
JP2015195832A (en) Control apparatus, control method, and program
JP2004188094A (en) Radiographic apparatus and radiographic system
JP2003275194A (en) Medical image processing device, medical image processing method, program and recording medium
JP2022035719A (en) Photographing error determination support device and program
JP5331044B2 (en) Radiation imaging system
JP7115584B2 (en) Dynamic quality control device, dynamic quality control program and dynamic quality control method
CN110881989A (en) Radiographic imaging system, radiographic imaging method, and storage medium
EP4066740A1 (en) Photographing assistance device, method for operating same, and operation program
US20240090864A1 (en) Radiographic imaging support system, radiographic imaging support method, and recording medium
JP2006081735A (en) Radiographic imaging system
JP2019005013A (en) Analyzer and analysis system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240405