JP2020130753A - X線画像処理装置、x線診断装置、およびx線画像処理プログラム - Google Patents
X線画像処理装置、x線診断装置、およびx線画像処理プログラム Download PDFInfo
- Publication number
- JP2020130753A JP2020130753A JP2019030038A JP2019030038A JP2020130753A JP 2020130753 A JP2020130753 A JP 2020130753A JP 2019030038 A JP2019030038 A JP 2019030038A JP 2019030038 A JP2019030038 A JP 2019030038A JP 2020130753 A JP2020130753 A JP 2020130753A
- Authority
- JP
- Japan
- Prior art keywords
- ray image
- image
- ray
- subject
- discrimination information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 106
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims description 61
- 238000000034 method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 description 117
- 238000003384 imaging method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
【課題】X線画像に映り込んだ物体が被検体の体外と体内のいずれに位置するかを判別可能にすること。【解決手段】実施形態に係るX線画像処理装置は、取得部と、抽出部と、出力部とを備える。取得部は、被検体がX線撮影された画像であるX線画像を取得する。抽出部は、X線画像とX線画像に映り込んだ物体が被検体の体外と体内のいずれに位置するかを表す判別情報との対応関係を示す対応情報に基づいて、取得したX線画像に対応する判別情報を抽出する。出力部は、抽出部によって抽出された判別情報に基づく出力情報を出力する。【選択図】図1
Description
本発明の実施形態は、X線画像処理装置、X線診断装置、およびX線画像処理プログラムに関する。
従来、被検体にX線を照射することにより、被検体の体内を透視したX線画像を収集するX線撮像の技術が知られている。X線撮像においては、X線の照射時に被検体にケーブル等の物体が取り付けられていた場合には、当該物体もX線画像に映り込む。このようなX線画像においては、映り込んだ当該物体が、被検体の体外と体内のいずれに位置するものであるかを判別することは容易ではない。
本発明が解決しようとする課題は、X線画像に映り込んだ物体が被検体の体外と体内のいずれに位置するかを判別可能なX線画像処理装置、X線診断装置、およびX線画像処理プログラムを提供することである。
実施形態に係るX線画像処理装置は、取得部と、抽出部と、出力部とを備える。取得部は、被検体がX線撮影された画像であるX線画像を取得する。抽出部は、X線画像とX線画像に映り込んだ物体が被検体の体外と体内のいずれに位置するかを表す判別情報との対応関係を示す対応情報に基づいて、取得したX線画像に対応する判別情報を抽出する。出力部は、抽出部によって抽出された判別情報に基づく出力情報を出力する。
以下、図面を参照しながら、X線画像処理装置、X線診断装置、およびX線画像処理プログラムの実施形態について詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態に係るX線画像処理装置100の構成の一例を示す図である。例えば、図1に示すように、本実施形態に係るX線画像処理装置100は、ネットワーク200を介して、X線診断装置300およびX線画像保管装置400と相互に通信可能に接続される。
図1は、第1の実施形態に係るX線画像処理装置100の構成の一例を示す図である。例えば、図1に示すように、本実施形態に係るX線画像処理装置100は、ネットワーク200を介して、X線診断装置300およびX線画像保管装置400と相互に通信可能に接続される。
X線診断装置300は、被検体からX線画像を収集する装置である。本実施形態におけるX線診断装置300は、例えば、レントゲン画像を撮影するX線一般撮影装置である。
図2は、本実施形態に係るX線診断装置300の構成の一例を示すブロック図である。図2に示すように、X線診断装置300は、撮影装置10と、コンソール装置30とを有する。撮影装置10は、高電圧発生回路11と、照射装置12と、検出器13と、駆動回路14と、収集回路15とを有する。
高電圧発生回路11は、後述するX線管12aにX線を発生させるための高電圧を供給する。照射装置12は、X線管12aと、線質フィルタ12bと、絞り12cとを備える。X線管12aは、高電圧発生回路11から供給される高電圧により、被検体Pに照射するX線を発生する。
駆動回路14は、撮影制御回路33からの制御信号に基づいて、照射装置12および検出器13の位置を移動させる。また、駆動回路14は、撮影制御回路33からの制御信号に基づいて、絞り12cを制御して、被検体Pに照射させるX線の照射範囲(X線照射野)を制御する。なお、照射範囲は、関心領域(ROI:Region Of Interest)を含むものとする。
検出器13は、照射装置12から照射されて被検体Pを透過したX線を検出する。本実施形態においては、被検体Pが横になるベッドの上方に設置された照射装置12から、下向きにX線が照射され、ベッドの裏側に設置された検出器13が、X線を検出する。収集回路15は、検出器13によって検出されたX線を収集し、収集したデータをコンソール装置30に出力する。
コンソール装置30は、操作者による操作を受け付けるとともに、撮影装置10によって作成されたデータを用いてX線画像を生成する装置である。コンソール装置30は、一例として、入力回路31と、ディスプレイ32と、撮影制御回路33と、画像生成回路36と、記憶回路37と、システム制御回路38と、I/F(インターフェース)回路39とを有する。
入力回路31は、トラックボール、スイッチボタン、マウス、キーボード、タッチパネル等によって実現される。入力回路31は、X線診断装置300の操作者からの各種指示や各種設定を受け付け、操作者から受け付けた指示や設定の情報を、システム制御回路38に転送する。ディスプレイ32は、操作者によって参照される液晶モニタやCRT(Cathode Ray Tube)モニタ等によって実現される。
撮影制御回路33は、例えば、プロセッサにより実現される。撮影制御回路33は、システム制御回路38の制御のもと、高電圧発生回路11、駆動回路14及び収集回路15の動作を制御する。
画像生成回路36は、例えば、プロセッサにより実現される。画像生成回路36は、収集回路15から出力されたデータに基づいて、X線画像を生成する。
記憶回路37は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。記憶回路37は、画像生成回路36から出力されたX線画像を記憶する。
システム制御回路38は、例えば、プロセッサにより実現される。システム制御回路38は、撮影装置10およびコンソール装置30の動作を制御することによって、X線診断装置300を制御する。
I/F回路39は、X線画像処理装置100およびX線画像保管装置400との間で行われる各種データの伝送および通信を制御する。例えば、I/F回路39は、被検体Pから収集したX線画像を、X線画像保管装置400およびX線画像処理装置100に送信する。
図1に戻り、X線画像保管装置400は、ネットワーク200を介して、X線診断装置300からX線画像を取得し、取得したX線画像を装置内または装置外に設けられた記憶回路に記憶させる。例えば、X線画像保管装置400は、サーバ装置等のコンピュータ機器によって実現される。
X線画像処理装置100は、ネットワーク200を介してX線診断装置300またはX線画像保管装置400からX線画像を取得し、取得したX線画像に対して各種画像処理を行う。例えば、X線画像処理装置100は、ワークステーション等のコンピュータ機器によって実現される。
具体的には、X線画像保管装置400は、I/F回路110と、記憶回路120と、入力回路130と、ディスプレイ140と、処理回路150とを有する。
I/F回路110は、処理回路150に接続され、X線診断装置300およびX線画像保管装置400との間で行われる各種データの伝送および通信を制御する。例えば、I/F回路110は、X線診断装置300またはX線画像保管装置400からX線画像を受信し、受信したX線画像を処理回路150に出力する。例えば、I/F回路110は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
記憶回路120は、処理回路150に接続され、各種データを記憶する。例えば、記憶回路120は、X線診断装置300またはX線画像保管装置400から受信したX線画像を記憶する。例えば、記憶回路120は、RAM、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。記憶回路120は、記憶部ともいう。
入力回路130は、処理回路150に接続され、操作者から受け付けた入力操作を電気信号に変換して処理回路150に出力する。例えば、入力回路130は、トラックボール、スイッチボタン、マウス、キーボード、タッチパネル等によって実現される。
ディスプレイ140は、処理回路150に接続され、処理回路150から出力される各種情報および各種画像データを表示する。例えば、ディスプレイ140は、液晶モニタやCRTモニタ、タッチパネル等によって実現される。
処理回路150は、入力回路130を介して操作者から受け付けた入力操作に応じて、X線画像保管装置400の構成要素を制御する。例えば、処理回路150は、I/F回路110から出力される画像データを記憶回路120に記憶させる。また、例えば、処理回路150は、記憶回路120から画像データを読み出し、ディスプレイ140に表示する。例えば、処理回路150は、プロセッサによって実現される。
また、本実施形態では、処理回路150が、取得機能151と、抽出機能152と、出力機能153とを有する。取得機能151は、取得部の一例である。また、抽出機能152は、抽出部の一例である。出力機能153は、出力部の一例である。
取得機能151は、被検体PがX線撮影された画像であるX線画像を取得する。本実施形態においては、取得機能151は、I/F回路110を介して、X線診断装置300またはX線画像保管装置400からX線画像を取得する。取得機能151は、取得したX線画像を抽出機能152に入力する。
また、取得機能151は、後述の学習フェーズにおいては、教師データを取得する。取得機能151は、取得した教師データを抽出機能152に入力する。教師データの詳細については後述する。
抽出機能152は、X線画像と判別情報との対応関係を示す対応情報に基づいて、取得したX線画像に対応する判別情報を抽出する。
判別情報は、X線画像に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを表す情報である。本実施形態においては、判別情報は、取得されたX線画像71のうち被検体Pの体外に位置する物体が映り込んだ画像領域を示す画像である。より詳細には、本実施形態の判別情報は、一例として、X線画像に映り込んだ物体のうち被検体Pの体外に位置する物体を黒色で表示し、背景画像および被検体Pの体内に位置する物体は表示しない2値画像とする。本実施形態においては、X線画像から当該2値画像を生成することを、X線画像から判別情報を抽出する、という。なお、黒色は表示態様の一例であり、判別情報は、他の色や、他の表示態様で被検体Pの体外に位置する物体が映り込んだ画像領域を示すものであっても良い。
X線画像に映り込んだ物体は、例えば、被検体Pの体外に取り付けられた心電図検査装置のケーブルや、被検体Pの体内に留置された医療用チューブ等である。本実施形態においては、当該ケーブルまたはチューブ等をデバイスともいう。また、背景画像は、被検体Pの体外および体内に位置するデバイス(物体)以外の画像のことであり、被検体Pの体内組織等の画像である。
また、本実施形態においては、対応情報は、X線画像と教師データとに基づいて、X線画像と判別情報との対応関係を示す学習済みモデルであるものとする。教師データは、X線画像に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを表すデータである。
本実施形態においては、抽出機能152は、X線画像と、教師データとに基づいて、X線画像と判別情報との対応関係を学習することによって、学習済みモデルを生成する。抽出機能152は、例えば、ニューラルネットワーク等のディープラーニング(深層学習)によって学習済みモデルを生成し、当該学習済みモデルを用いて判別情報を抽出するものとする。
ディープラーニングの手法としては、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)や、畳み込みニューラルネットワーク(CDBN:Convolutional Deep Belief Neural Network)などの多層のニューラルネットワークを適用することができる。また、抽出機能152は、サポートベクターマシン(SVM:Support Vector Machine)等の他の機械学習の手法を用いて学習モデルを生成しても良い。
ここで、本実施形態における学習フェーズの詳細について説明する。図3は、本実施形態に係る学習データおよび教師データの一例を示す図である。
図3に示すように、取得機能151は、学習用X線画像51a〜51nと、教師データ61a〜61nとを取得する。取得機能151は、取得した学習用X線画像51a〜51nと、教師データ61a〜61nとを抽出機能152に入力する。なお、学習用X線画像51および教師データ61の数は特に限定するものではない。
学習用X線画像51a〜51n(以下、特に区別しない場合は、単に学習用X線画像51という)は、体外または体内にデバイス等の物体を取り付けた状態の被検体PをX線撮像したX線画像であり、本実施形態における学習データである。図3に示す例では、学習用X線画像51aには、被検体Pの体外に位置する第1の物体8a,8bと、被検体Pの体内に位置する第2の物体9とが映り込んでいる。
教師データ61a〜61n(以下、特に区別しない場合は、単に教師データ61という)は、学習用X線画像51a〜51nに映り込んだ被検体Pの体外に位置する第1の物体8a,8bのみを黒色で表示し、背景画像および被検体Pの体内に位置する第2の物体9は表示しない2値画像である。本実施形態においては、教師データ61はユーザが作成するものとする。例えば、教師データ61aは、学習用X線画像51a上の第1の物体8a,8bがユーザによって黒く塗りつぶされ、第1の物体8a,8b以外の画像がユーザによって削除された画像である。
また、学習用X線画像51と、当該学習用X線画像51に基づいて生成された教師データ61とは、対応付けられて入力されるものとする。例えば、教師データ61aは、学習用X線画像51aに対応付けられた教師データ61であり、教師データ61bは、学習用X線画像51bに対応付けられた教師データ61であるものとする。
抽出機能152は、例えば、学習用X線画像51が入力される毎に、学習用X線画像51をニューラルネットワークで処理した結果が教師データ61に近づくように、パラメータデータを更新することにより、学習を行う。
本実施形態においては、学習済みモデルは、ニューラルネットワークと、学習済みパラメータデータとによって構成されるものとする。また、本実施形態においては、抽出機能152がニューラルネットワークを含むものとする。抽出機能152は、学習済みパラメータデータを記憶回路120に保存する。
次に、本実施形態における運用フェーズの詳細について説明する。図4は、本実施形態に係る入力データ、第1の出力データ81、および第2の出力データ91の一例を示す図である。
図4に示すX線画像71は、X線診断装置300によって撮像されたX線画像であり、本実施形態における学習済みモデルに入力される入力データである。
取得機能151は、X線診断装置300またはX線画像保管装置400からX線画像71を取得し、抽出機能152に入力する。
抽出機能152は、入力されたX線画像71に対して学習済みモデルを用いて処理を実行し、第1の出力データ81を出力(生成)する。より詳細には、抽出機能152は、ニューラルネットワークと、記憶回路120から読み出した学習済みパラメータデータとを用いて、第1の出力データ81を出力する。
第1の出力データ81は、本実施形態における取得されたX線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを表す判別情報の一例である。図4に示すように、第1の出力データ81は、X線画像71に映り込んだ物体のうち被検体Pの体外に位置する第1の物体8a,8bを黒色で表示し、背景画像および被検体Pの体内に位置する第2の物体9は表示しない2値画像である。
抽出機能152は、生成した第1の出力データ81を、出力機能153に送出する。
ここで図1に戻り、出力機能153は、抽出機能152よって抽出された判別情報に基づく情報を出力する。より詳細には、出力機能153は、判別情報をX線画像71に付与した出力情報を出力する。本実施形態においては、第1の出力データ81が判別情報の一例であるので、出力機能153は、抽出機能152によって生成された第1の出力データ81をX線画像71に重畳して第2の出力データ91を生成する。第1の出力データ81をX線画像71に重畳する手法は、公知の手法を採用することができる。
図4に示す第2の出力データ91は、第1の出力データ81(2値画像)をX線画像71に重畳した画像であり、本実施形態における出力情報の一例である。図4に示すように、第2の出力データ91においては、第1の物体8a,8bが黒色に塗りつぶされた第1の出力データ81がX線画像71に重畳されているため、被検体Pの体外に位置する第1の物体8a,8bが映り込んだ画像領域が強調表示される。このため、第2の出力データ91を医師等が読影した場合、被検体Pの体外に位置する第1の物体8a,8bと、被検体Pの体外に位置する第2の物体9とを容易に判別することができる。
出力機能153は、生成した第2の出力データ91をディスプレイ140に出力する。また、出力機能153は、X線診断装置300またはX線画像保管装置400に第2の出力データ91を出力するものとしても良い。
ここで、例えば、処理回路150の構成要素である取得機能151と、抽出機能152と、出力機能153とは、コンピュータによって実行可能なプログラムの形態で記憶回路120に記憶されている。処理回路150は、各プログラムを記憶回路120から読み出し、読み出した各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路150は、図1の処理回路150内に示された各機能を有することとなる。なお、図1においては、単一の処理回路150にて、取得機能151、抽出機能152、および出力機能153の各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路150を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても良い。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central preprocess unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。なお、記憶回路120にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
ここで、以上のように構成されたX線画像処理装置100において、運用フェーズで実行される処理の流れを説明する。
図5は、本実施形態に係る運用フェーズで実行される処理の流れの一例を示すフローチャートである。このフローチャートの処理が実行される前提として、学習済みモデルが生成済みであることとする。
まず、取得機能151は、X線診断装置300またはX線画像保管装置400から被検体PのX線画像71を取得する(S11)。取得機能151は、取得したX線画像71を抽出機能152に入力する。
次に、抽出機能152は、学習済みモデルを用いて、入力されたX線画像71に映り込んだ被検体Pの体外に位置する第1の物体8a,8bを判別する(S12)。そして、抽出機能152は、判別結果に基づいて第1の出力データ81(2値画像)を生成する(S13)。抽出機能152は、生成した第1の出力データ81を、出力機能153に送出する。
そして、出力機能153は、第1の出力データ81(2値画像)をX線画像71に重畳して第2の出力データ91を生成し、生成した第2の出力データ91を出力する(S14)。ここで、このフローチャートの処理は終了する。
一般に、X線診断装置で被検体を撮像する際に、被検体の体外に取り付けられたデバイス等がX線画像に映り込まないように、医師等が被検体の体外に取り付けられたデバイス等を取り外す、または位置を移動するという対応を行う場合がある。しかしながら、被検体の状態によっては、デバイス等の取り外しまたは位置の移動が困難な場合がある。このような場合に、被検体の体外にデバイス等が取り付けられたままX線撮像されると、X線画像にデバイス等が映り込む。また、被検体の体内に留置されたデバイス等がある場合、当該デバイス等も、X線画像に映り込む。このため、医師等がX線画像を読影する際、X線画像に映り込んだデバイス等が、被検体の体外と体内のいずれに位置するかを判別することが容易ではない場合があった。
例えば、手術後の経過観察のためのX線撮影において、被検体の体内に留置したデバイス等を確認することを目的とする場合には、X線画像に映り込んだデバイス等が被検体の体外と体内のいずれに位置するかを判別することができないと、医師等がX線画像に基づいて診断を下すことが困難な場合がある。また、被検体の体外に取り付けられたデバイス等の取り外しや移動が可能な場合であっても、X線撮影前にデバイス等の取り外しや移動の作業が発生するため、技師等が効率的にX線撮影を実施することが困難な場合があった。このため、X線画像に映り込んだ物体が被検体の体外と体内のいずれに位置するかを判別可能にすることについてのニーズがあった。
本実施形態のX線画像処理装置100は、上述のように、X線画像71と判別情報との対応関係を示す対応情報に基づいて、取得したX線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを表す判別情報を抽出し、判別情報に基づく出力情報を出力する。このため、本実施形態のX線画像処理装置100によれば、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを判別可能にすることができる。
このような効果を奏することにより、本実施形態のX線画像処理装置100によれば、医師等が読影をする際の精度を向上させることができる。また、本実施形態のX線画像処理装置100によれば、被検体Pの体外にデバイス等がとりつけられたままの状態でX線撮影が可能になるため、X線撮影の作業のワークフローを改善し、作業効率を向上させることができる。
また、本実施形態のX線画像処理装置100は、判別情報をX線画像71に付与した出力情報を出力する。このため、本実施形態のX線画像処理装置100によれば、X線画像71上に映り込んだ物体のうち、いずれの物体が被検体Pの体外に位置するものであるかを、容易に判別可能な状態にすることができる。
より具体的には、本実施形態のX線画像処理装置100は、X線画像71に映り込んだ物体のうち被検体Pの体外に位置する物体を黒色で表示し、背景画像および被検体Pの体内に位置する物体は表示しない第1の出力データ81(2値画像)を、X線画像71に重畳した画像である第2の出力データ91を出力する。このため、本実施形態のX線画像処理装置100によれば、医師等が読影をする際に、X線撮像時の被検体Pの状況を別途確認しなくとも、第2の出力データ91を視認することで被検体Pの体外に位置する物体を容易に判別することができる。
また、本実施形態の対応情報は、学習用X線画像51と教師データ61とに基づいて、X線画像と判別情報との対応関係を示す学習済みモデルである。本実施形態のX線画像処理装置100は、このような学習済みモデルに対して、被検体Pを撮像したX線画像71を入力することで、入力したX線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを表す判別情報を抽出する。このため、本実施形態のX線画像処理装置100によれば、医師等がX線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを個別に判断しなくとも、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを自動的に判別することができる。
また、本実施形態のX線画像処理装置100は、学習用X線画像51と教師データ61とに基づいて、X線画像と判別情報との対応関係を学習することによって、学習済みモデルを生成する。このため、本実施形態のX線画像処理装置100によれば、多数の学習用X線画像51および教師データ61を効率的に学習し、高精度な対応情報を生成することができる。
なお、教師データ61、第1の出力データ81、第2の出力データ91は、図3および図4で示した態様に限定されるものではない。例えば、教師データ61は、学習用X線画像51のうち第1の物体8a,8bが映り込んだ画像領域を線で囲んだ画像であっても良い。また、この場合、第1の出力データ81は、X線画像71のうち第1の物体8a,8bが映り込んだ画像領域を線で囲んだ画像となる。
また、本実施形態の図3で説明した例では、X線画像処理装置100の抽出機能152は、被検体Pの体外に位置する物体を判別するように学習したが、体内に位置する物体を判別するように学習しても良い。例えば、教師データ61は、学習用X線画像51のうち第2の物体9を塗りつぶした画像、または第2の物体9が映り込んだ画像領域を線で囲んだ画像等であっても良い。
また、本実施形態の学習用X線画像51およびX線画像71は、生データ(Raw data)または投影データ(Projection data)でも良いし、生データまたは投影データが補正または加工された画像データであっても良い。また、本実施形態の学習用X線画像51およびX線画像71は、DICOM(Digital Imaging and Communications in Medicine)規格に準拠した画像データであっても良い。
また、本実施形態における学習済みモデルは、X線画像処理装置100が出力した第1の出力データ81または第2の出力データ91に対するユーザのフィードバックを取得することにより、学習済みモデルの内部アルゴリズムを更に更新する「自己学習するモデル」を含むものとする。
また、対応情報は、X線画像71と判別情報との対応関係を示す情報であれば良く、学習済みモデルに限定されるものではない。例えば、対応情報は、数式モデル、ルックアップテーブル、またはデータベース等であっても良い。
(第2の実施形態)
上述の第1の実施形態においては、X線画像(学習用X線画像51、X線画像71)を学習データおよび入力データとしたが、この第2の実施形態では、さらに、カメラ画像を学習データおよび入力データとする。
上述の第1の実施形態においては、X線画像(学習用X線画像51、X線画像71)を学習データおよび入力データとしたが、この第2の実施形態では、さらに、カメラ画像を学習データおよび入力データとする。
本実施形態におけるX線画像処理装置100、X線診断装置300、およびX線画像保管装置400の全体構成は、図1で説明した第1の実施形態の構成と同様であるものとする。
図6は、本実施形態に係るX線診断装置300の構成の一例を示すブロック図である。図6に示すように、本実施形態のX線診断装置300は、第1の実施形態の構成を備えた上で、赤外線カメラ16を備える。
赤外線カメラ16は、被検体Pが横になるベッドの上方に設置され、被検体Pを撮像する。赤外線カメラ16は、本実施形態におけるカメラの一例である。赤外線カメラ16が被検体Pを撮像することにより、被検体Pの衣服の下にデバイス等が取り付けられている場合にも、当該デバイス等が撮像可能となる。
本実施形態の撮影装置10の駆動回路14は、第1の実施形態の機能を備えた上で、撮影制御回路33からの制御信号に基づいて、赤外線カメラ16を制御する。より詳細には、駆動回路14は、赤外線カメラ16の位置および撮像範囲(視野)を制御するものとする。
例えば、駆動回路14は、赤外線カメラ16の撮像範囲を、照射装置12から照射されるX線の照射範囲と同じ範囲になるように赤外線カメラ16を制御するものとする。つまり、赤外線カメラ16によって撮像されたカメラ画像は、X線画像71と同じ範囲を撮像した画像であるものとする。また、本実施形態のカメラ画像の態様は特に限定されるものではなく、例えば、近赤外線の反射をモノクロで表した赤外線画像でも良いし、サーモグラフィであっても良い。
本実施形態の撮影装置10においては、高電圧発生回路11と、照射装置12と、検出器13と、収集回路15とは、第1の実施形態と同様の機能を備えるものとする。
また、本実施形態のコンソール装置30は、第1の実施形態と同様に、入力回路31と、ディスプレイ32と、撮影制御回路33と、画像生成回路36と、記憶回路37と、システム制御回路38と、I/F回路39とを有する。入力回路31と、ディスプレイ32と、画像生成回路36と、記憶回路37と、システム制御回路38とは、第1の実施形態と同様の機能を備えるものとする。
本実施形態の撮影制御回路33は、第1の実施形態の機能を備えた上で、駆動回路14に対して赤外線カメラ16の制御信号を送信する。また、本実施形態のI/F回路39は、第1の実施形態の機能を備えた上で、赤外線カメラ16によって撮像されたカメラ画像を、X線画像保管装置400およびX線画像処理装置100に送信する。
また、本実施形態のX線画像処理装置100は、図1で説明した第1の実施形態と同様に、I/F回路110と、記憶回路120と、入力回路130と、ディスプレイ140と、処理回路150とを備える。また、処理回路150は、第1の実施形態と同様に、取得機能151と、抽出機能152と、出力機能153とを備える。
本実施形態の出力機能153は、第1の実施形態と同様の機能を備える。
本実施形態の取得機能151は、第1の実施形態の機能を備えた上で、さらに、被検体Pが赤外線カメラ16によって撮像されたカメラ画像を取得する。取得機能151は、取得したカメラ画像を、抽出機能152に入力する。
本実施形態の抽出機能152は、第1の実施形態の機能を備えた上で、X線画像71およびカメラ画像に基づいて、取得したX線画像71に対応する判別情報を抽出する。
また、本実施形態においては、対応情報は、X線画像と、カメラ画像と、教師データとに基づいて、X線画像と判別情報との対応関係を示す学習済みモデルであるものとする。
より詳細には、本実施形態の抽出機能152は、X線画像71およびカメラ画像に基づいて判別情報を生成する学習済みモデルに対して、被検体Pを撮像したX線画像71を入力することで、入力したX線画像71に含まれる物体が被検体Pの体外と体内のいずれに位置するかを表す判別情報を抽出する。
また、本実施形態の抽出機能152は、X線画像と、カメラ画像と、教師データとに基づいて、X線画像と判別情報との対応関係を学習することによって、学習済みモデルを生成する。
ここで、本実施形態における学習フェーズの詳細について説明する。図7は、本実施形態に係る学習データおよび教師データの一例を示す図である。図7に示す学習用X線画像51および教師データ61は、図3で説明した第1の実施形態と同様である。
図7に示す学習用カメラ画像52a〜52n(以下、特に区別しない場合は、単に学習用カメラ画像52という)は、赤外線カメラ16によって撮像されたカメラ画像である。
例えば、図7に示す学習用カメラ画像52aは、学習用X線画像51aにおけるX線の照射範囲と同じ範囲が撮像されたカメラ画像である。図7に示すように、学習用カメラ画像52aには、被検体Pの体外に位置する第1の物体8a,8bが映り込んでいる。また、被検体Pの体内に位置する第2の物体9は、学習用X線画像51aには映り込んでいるが、学習用カメラ画像52aには映り込んでいない。
本実施形態においては、学習用X線画像51と、学習用カメラ画像52とが学習データである。学習用X線画像51を第1の学習データ、学習用カメラ画像52を第2の学習データと呼んでも良い。また、学習用X線画像51と、当該学習用X線画像51に基づいて生成された教師データ61と、当該学習用X線画像51におけるX線の照射範囲と同じ範囲が撮像された学習用カメラ画像52とは、対応付けられて入力されるものとする。
本実施形態の抽出機能152は、例えば、学習用X線画像51および学習用カメラ画像52が入力される毎に、学習用X線画像51および学習用カメラ画像52をニューラルネットワークで処理した結果が教師データ61に近づくように、パラメータデータを更新することにより、学習を行う。
また、本実施形態においては、抽出機能152は、学習用X線画像51だけではなく、学習用カメラ画像52に基づいて学習するため、被検体Pの体外に位置する物体と被検体Pの体内に位置する物体とをより高精度に判別可能な学習モデルを生成することができる。例えば、上述したように、被検体Pの体外に位置する第1の物体8a,8bは、学習用カメラ画像52aと学習用X線画像51aの両方に映り込み、被検体Pの体内に位置する第2の物体9は、学習用X線画像51aにのみ映り込む。抽出機能152は、このような学習用X線画像51と学習用カメラ画像52とにおける差異と、教師データ61とに基づいて、被検体Pの体外に位置する物体を高精度に判別可能な学習モデルを生成する。
次に、本実施形態における運用フェーズの詳細について説明する。図8は、本実施形態に係る入力データ、第1の出力データ81、および第2の出力データ91の一例を示す図である。
図8に示すX線画像71は、X線診断装置300によって撮像されたX線画像である。また、図8に示すカメラ画像72は、X線診断装置300に搭載された赤外線カメラ16によって撮像されたカメラ画像である。カメラ画像72は、X線画像71におけるX線の照射範囲と同じ範囲が撮像されたカメラ画像であり、被検体Pの体外に位置する第1の物体8a,8bが映り込んでいる。また、被検体Pの体内に位置する第2の物体9は、X線画像71には映り込んでいるが、カメラ画像72には映り込んでいない。
X線画像71およびカメラ画像72は、本実施形態における学習済みモデルに入力される入力データである。X線画像71を第1の入力データ、カメラ画像72を第2の入力データと呼んでも良い。
取得機能151は、X線診断装置300またはX線画像保管装置400からX線画像71およびカメラ画像72を取得し、抽出機能152に入力する。
抽出機能152は、入力されたX線画像71およびカメラ画像72に対して学習済みモデルを用いて処理を実行し、第1の出力データ81を出力(生成)する。
本実施形態における第1の出力データ81および第2の出力データ91は、第1の実施形態と同様であるものとする。
ここで、以上のように構成されたX線画像処理装置100において、運用フェーズで実行される処理の流れを説明する。
図9は、本実施形態に係る運用フェーズで実行される処理の流れの一例を示すフローチャートである。
S21のX線画像71の取得処理は、第1の実施形態のS11の処理と同様である。S21のX線画像71の取得処理の後、取得機能151は、X線診断装置300またはX線画像保管装置400から、X線画像71におけるX線の照射範囲と同じ範囲が撮像されたカメラ画像72を取得する(S22)。取得機能151は、取得したX線画像71およびカメラ画像72を抽出機能152に入力する。
次に、抽出機能152は、学習済みモデルを用いて、入力されたX線画像71およびカメラ画像72に映り込んだ被検体Pの体外に位置する第1の物体8a,8bを判別する(S23)。S24の第1の出力データ81(2値画像)の生成処理から、S25のX線画像71に第1の出力データ81(2値画像)を重畳して出力する処理は、第1の実施形態のS13からS14の処理と同様である。ここで、このフローチャートの処理は終了する。
このように、本実施形態のX線画像処理装置100によれば、X線画像71およびカメラ画像72に基づいて、X線画像71に対応する判別情報を抽出するため、第1の実施形態の効果に加えて、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを、さらに高精度に判別することができる。
また、本実施形態のカメラ画像72は、X線画像71の撮像時におけるX線の照射範囲と同じ範囲が撮像された画像であるため、本実施形態のX線画像処理装置100によれば、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを判別する際に、撮像領域の違いによる画像の差異が判別結果に影響することを抑制することができる。
また、本実施形態の対応情報は、学習用X線画像51と、学習用カメラ画像52と、教師データ61とに基づいて、X線画像と判別情報との対応関係を示す学習済みモデルである。このため、本実施形態のX線画像処理装置100によれば、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかをより高精度に判別可能な学習モデルに基づいた判別結果を得ることができる。
また、本実施形態のX線画像処理装置100は、学習用X線画像51と、学習用カメラ画像52と、教師データ61とに基づいて、X線画像と判別情報との対応関係を学習することによって、学習済みモデルを生成する。このため、本実施形態のX線画像処理装置100によれば、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかをより高精度に判別可能な学習モデルを生成することができる。
なお、本実施形態においては、X線診断装置300は赤外線カメラ16を備えるものとしたが、カメラの種類は赤外線カメラに限定されるものではない。例えば、デバイス等が被検体Pの衣服等によって隠蔽されていない場合は、カメラは、光学カメラであっても良い。また、カメラは、バックスキャッタイメージング(後方散乱X線検査装置)等でも良い。
(第3の実施形態)
上述の第1および第2の実施形態においては、X線画像処理装置100は、取得したX線画像71のうち被検体Pの体外に位置する物体が映り込んだ画像領域を強調表示した画像(第2の出力データ91)をしていたが、この第3の実施形態では、X線画像処理装置100は、X線画像71から被検体Pの体外にある物体を除外した画像を出力する。
上述の第1および第2の実施形態においては、X線画像処理装置100は、取得したX線画像71のうち被検体Pの体外に位置する物体が映り込んだ画像領域を強調表示した画像(第2の出力データ91)をしていたが、この第3の実施形態では、X線画像処理装置100は、X線画像71から被検体Pの体外にある物体を除外した画像を出力する。
本実施形態におけるX線画像処理装置100、X線診断装置300、およびX線画像保管装置400の全体構成は、図1で説明した第1の実施形態の構成と同様であるものとする。また、本実施形態におけるX線診断装置300の構成は、図2で説明した第1の実施形態の構成と同様であるものとする。
また、本実施形態のX線画像処理装置100は、図1で説明した第1の実施形態と同様に、I/F回路110と、記憶回路120と、入力回路130と、ディスプレイ140と、処理回路150とを備える。また、処理回路150は、第1の実施形態と同様に、取得機能151と、抽出機能152と、出力機能153とを備える。
本実施形態の取得機能151は、第1の実施形態と同様の機能を備える。
本実施形態の抽出機能152は、第1の実施形態の機能を備えた上で、取得したX線画像71から被検体Pの体外にある物体を除外した画像を出力する。
本実施形態においては、判別情報は、X線画像71から被検体Pの体外にある物体を除外した画像であるものとする。また、本実施形態においては、X線画像71から被検体Pの体外にある物体を除外した画像を生成することを、X線画像71から判別情報を抽出する、という。
本実施形態の出力機能153は、第1の実施形態の機能を備えた上で、抽出機能152によって出力されたX線画像71から被検体Pの体外にある物体を除外した画像を、出力する。
ここで、本実施形態における学習フェーズの詳細について説明する。図10は、本実施形態に係る学習データおよび教師データの一例を示す図である。
図7に示す学習用X線画像51は、図3で説明した第1の実施形態と同様である。
また、図7に示す教師データ1061a〜1061n(以下、特に区別しない場合は、単に教師データ1061という)は、学習用X線画像51から被検体Pの体外にある物体を除外(削除)された画像である。また、教師データ1061においては、被検体Pの体内に位置する物体は除外されないものとする。
例えば、教師データ1061aは、学習用X線画像51aに映り込んだ被検体Pの体外に位置する第1の物体8a,8bが除外された画像である。また、学習用X線画像51aに映り込んだ被検体Pの体内に位置する第2の物体9は、教師データ1061においても表示されている。教師データ1061は、例えば、ユーザによって作成されるものとする。
抽出機能152は、例えば、学習用X線画像51が入力される毎に、学習用X線画像51をニューラルネットワークで処理した結果が教師データ1061に近づくように、パラメータデータを更新することにより、学習を行う。
次に、本実施形態における運用フェーズの詳細について説明する。図11は、本実施形態に係る入力データ(X線画像71)、第1の出力データ1081の一例を示す図である。図11に示すX線画像71は、第1の実施形態と同様である。
また、本実施形態の学習済みモデルは、X線画像71に基づいて、X線画像71から被検体Pの体外にある物体を除外した画像を生成する学習済みモデルである。
抽出機能152は、入力されたX線画像71に対して学習済みモデルを用いて処理を実行し、第1の出力データ1081を出力(生成)する。
第1の出力データ1081は、X線画像71から被検体Pの体外にある物体を除外した画像であり、本実施形態における判別情報の一例である。抽出機能152は、生成した第1の出力データ1081を、出力機能153に送出する。
また、出力機能153は、抽出機能152によって生成された第1の出力データ1081を出力する。つまり、第1の出力データ1081は、本実施形態における出力情報の一例でもある。
このように、本実施形態のX線画像処理装置100によれば、X線画像71から被検体Pの体外にある物体を除外した画像を出力するため、第1の実施形態の効果に加えて、被検体Pの体外にある物体によって医師等の読影が妨げられることを低減することができる。
なお、本実施形態においては、X線診断装置300は、第1の実施形態と同様の構成を備えるものとしたが、第2の実施形態と同様の構成を備えるものとしても良い。また、本実施形態においても、第2の実施形態と同様に、学習フェーズおよび運用フェーズにおいてカメラ画像を用いるものとしても良い。
(変形例1)
上述の第1〜第3の実施形態においては、X線画像処理装置100の抽出機能152が学習済みモデルを生成するものとしたが、X線画像処理装置100は、他の装置において予め生成された学習済みモデルを取得するものとしても良い。
上述の第1〜第3の実施形態においては、X線画像処理装置100の抽出機能152が学習済みモデルを生成するものとしたが、X線画像処理装置100は、他の装置において予め生成された学習済みモデルを取得するものとしても良い。
当該構成を採用する場合、X線画像処理装置100の抽出機能152は、他の装置から取得した学習済みモデルを記憶回路120に保存する。この場合、記憶回路120から学習済みモデルを読み込んで処理を実行する。あるいは、X線画像処理装置100の抽出機能152は、他の装置において予め生成された学習済みモデルが予め組み込まれているものとしても良い。
また、X線画像処理装置100の抽出機能152とは異なる機能が学習済みモデルを生成するものとしても良い。例えば、X線画像処理装置100は、学習フェーズにおける抽出機能152の機能として説明した機能を実現する機能を、学習機能として別途備えるものとしても良い。
なお、学習済みモデルは、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの集積回路によって構築されても良い。
(変形例2)
また、上述の第1〜第3の実施形態におけるX線画像処理装置100が実現した機能を、X線診断装置300が実現するものとしても良い。例えば、X線診断装置300のコンソール装置30が、図1に示したX線画像処理装置100の処理回路150の各構成(取得機能151、抽出機能152、出力機能153)を備えるものとしても良い。あるいは、図1に示すX線診断装置300とX線画像処理装置100とを総称して、X線診断装置と称しても良い。
また、上述の第1〜第3の実施形態におけるX線画像処理装置100が実現した機能を、X線診断装置300が実現するものとしても良い。例えば、X線診断装置300のコンソール装置30が、図1に示したX線画像処理装置100の処理回路150の各構成(取得機能151、抽出機能152、出力機能153)を備えるものとしても良い。あるいは、図1に示すX線診断装置300とX線画像処理装置100とを総称して、X線診断装置と称しても良い。
(変形例3)
上述の第1〜第3の実施形態においては、X線診断装置300を図2に示したように固定型のX線一般撮影装置としたが、X線診断装置300は、回診車等の移動型X線撮像装置であっても良い。
上述の第1〜第3の実施形態においては、X線診断装置300を図2に示したように固定型のX線一般撮影装置としたが、X線診断装置300は、回診車等の移動型X線撮像装置であっても良い。
以上説明した少なくとも1つの実施形態によれば、X線画像71に映り込んだ物体が被検体Pの体外と体内のいずれに位置するかを判別可能にすることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
8a,8b 第1の物体
9 第2の物体
10 撮影装置
16 赤外線カメラ
30 コンソール装置
51,51a〜51n 学習用X線画像
52,52a〜52n 学習用カメラ画像
61,61a〜61n,1061,1061a〜1061n 教師データ
71 X線画像
72 カメラ画像
81,1081 第1の出力データ
91 第2の出力データ
100 X線画像処理装置
110 I/F回路
120 記憶回路
130 入力回路
140 ディスプレイ
150 処理回路
151 取得機能
152 抽出機能
153 出力機能
200 ネットワーク
300 X線診断装置
400 X線画像保管装置
P 被検体
9 第2の物体
10 撮影装置
16 赤外線カメラ
30 コンソール装置
51,51a〜51n 学習用X線画像
52,52a〜52n 学習用カメラ画像
61,61a〜61n,1061,1061a〜1061n 教師データ
71 X線画像
72 カメラ画像
81,1081 第1の出力データ
91 第2の出力データ
100 X線画像処理装置
110 I/F回路
120 記憶回路
130 入力回路
140 ディスプレイ
150 処理回路
151 取得機能
152 抽出機能
153 出力機能
200 ネットワーク
300 X線診断装置
400 X線画像保管装置
P 被検体
Claims (12)
- 被検体がX線撮影された画像であるX線画像を取得する取得部と、
前記X線画像と前記X線画像に映り込んだ物体が前記被検体の体外と体内のいずれに位置するかを表す判別情報との対応関係を示す対応情報に基づいて、取得した前記X線画像に対応する前記判別情報を抽出する抽出部と、
前記判別情報に基づく出力情報を出力する出力部と、
を備えるX線画像処理装置。 - 前記出力部は、前記判別情報を前記X線画像に付与した前記出力情報を出力する、
請求項1に記載のX線画像処理装置。 - 前記判別情報は、前記X線画像に映り込んだ物体のうち前記被検体の体外に位置する物体を黒色で表示し、背景画像および前記被検体の体内に位置する物体は表示しない2値画像であり、
前記出力情報は、前記2値画像を前記X線画像に重畳した画像である、
請求項2に記載のX線画像処理装置。 - 前記出力部は、取得した前記X線画像から前記被検体の体外にある物体を除外した画像を出力する、
請求項1に記載のX線画像処理装置。 - 前記取得部は、さらに、前記被検体がカメラによって撮像されたカメラ画像を取得し、
前記抽出部は、前記X線画像および前記カメラ画像に基づいて、取得した前記X線画像に対応する前記判別情報を抽出する、
請求項1から4のいずれか1項に記載のX線画像処理装置。 - 前記カメラ画像は、前記X線画像の撮像時におけるX線の照射範囲と同じ範囲が撮像された画像である、
請求項5に記載のX線画像処理装置。 - 前記対応情報は、X線画像と前記X線画像に映り込んだ物体が前記被検体の体外と体内のいずれに位置するかを表す教師データとに基づいて、前記X線画像と前記判別情報との対応関係を示す学習済みモデルである、
請求項1から4のいずれか1項に記載のX線画像処理装置。 - 前記抽出部は、前記X線画像と、前記教師データとに基づいて、前記X線画像と前記判別情報との対応関係を学習することによって、前記学習済みモデルを生成する、
請求項7に記載のX線画像処理装置。 - 前記対応情報は、X線画像と、カメラ画像と、前記X線画像に映り込んだ物体が前記被検体の体外と体内のいずれに位置するかを表す教師データとに基づいて、前記X線画像と前記判別情報との対応関係を示す学習済みモデルである、
請求項5または6に記載のX線画像処理装置。 - 前記抽出部は、前記X線画像と、前記カメラ画像と、前記教師データとに基づいて、前記X線画像と前記判別情報との対応関係を学習することによって、前記学習済みモデルを生成する、
請求項9に記載のX線画像処理装置。 - 被検体がX線撮影された画像であるX線画像を取得する取得部と、
前記X線画像と前記X線画像に映り込んだ物体が前記被検体の体外と体内のいずれに位置するかを表す判別情報との対応関係を示す対応情報に基づいて、取得した前記X線画像に対応する前記判別情報を抽出する抽出部と、
前記抽出部によって抽出された前記判別情報に基づく出力情報を出力する出力部と、
を備えるX線診断装置。 - 被検体がX線撮影された画像であるX線画像を取得し、
前記X線画像と前記X線画像に映り込んだ物体が前記被検体の体外と体内のいずれに位置するかを表す判別情報との対応関係を示す対応情報に基づいて、取得した前記X線画像に対応する前記判別情報を抽出し、
抽出された前記判別情報に基づく出力情報を出力する、
各処理をコンピュータに実行させるX線画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019030038A JP7175795B2 (ja) | 2019-02-22 | 2019-02-22 | X線画像処理装置、x線診断装置、およびx線画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019030038A JP7175795B2 (ja) | 2019-02-22 | 2019-02-22 | X線画像処理装置、x線診断装置、およびx線画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020130753A true JP2020130753A (ja) | 2020-08-31 |
JP7175795B2 JP7175795B2 (ja) | 2022-11-21 |
Family
ID=72277080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019030038A Active JP7175795B2 (ja) | 2019-02-22 | 2019-02-22 | X線画像処理装置、x線診断装置、およびx線画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7175795B2 (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003339694A (ja) * | 2002-05-22 | 2003-12-02 | Aloka Co Ltd | 断層像処理装置 |
US20100172567A1 (en) * | 2007-04-17 | 2010-07-08 | Prokoski Francine J | System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps |
WO2016171186A1 (ja) * | 2015-04-20 | 2016-10-27 | 株式会社ジョブ | X線検査用のデータ処理装置及びデータ処理方法、並びに、その装置を搭載したx線検査装置 |
WO2016185180A1 (en) * | 2015-05-15 | 2016-11-24 | Helen Davies | Systems and methods to detect and identify medical devices within a biological subject |
JP2016214725A (ja) * | 2015-05-25 | 2016-12-22 | コニカミノルタ株式会社 | 動態解析システム |
US20170193644A1 (en) * | 2015-12-30 | 2017-07-06 | Ebay Inc | Background removal |
JP2017185007A (ja) * | 2016-04-05 | 2017-10-12 | 株式会社島津製作所 | 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法 |
JP2018082767A (ja) * | 2016-11-21 | 2018-05-31 | 東芝エネルギーシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、動体追跡装置および放射線治療システム |
-
2019
- 2019-02-22 JP JP2019030038A patent/JP7175795B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003339694A (ja) * | 2002-05-22 | 2003-12-02 | Aloka Co Ltd | 断層像処理装置 |
US20100172567A1 (en) * | 2007-04-17 | 2010-07-08 | Prokoski Francine J | System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps |
WO2016171186A1 (ja) * | 2015-04-20 | 2016-10-27 | 株式会社ジョブ | X線検査用のデータ処理装置及びデータ処理方法、並びに、その装置を搭載したx線検査装置 |
WO2016185180A1 (en) * | 2015-05-15 | 2016-11-24 | Helen Davies | Systems and methods to detect and identify medical devices within a biological subject |
JP2016214725A (ja) * | 2015-05-25 | 2016-12-22 | コニカミノルタ株式会社 | 動態解析システム |
US20170193644A1 (en) * | 2015-12-30 | 2017-07-06 | Ebay Inc | Background removal |
JP2017185007A (ja) * | 2016-04-05 | 2017-10-12 | 株式会社島津製作所 | 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法 |
JP2018082767A (ja) * | 2016-11-21 | 2018-05-31 | 東芝エネルギーシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、動体追跡装置および放射線治療システム |
Also Published As
Publication number | Publication date |
---|---|
JP7175795B2 (ja) | 2022-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180182102A1 (en) | Automated image evaluation in x-ray imaging | |
CN107252353B (zh) | 医学成像设备的控制方法及医学成像设备 | |
KR102531400B1 (ko) | 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법 | |
JP2019198376A (ja) | 医用画像処理装置、医用画像処理方法、及び医用画像処理システム | |
JP2018130336A (ja) | 放射線撮影装置、放射線撮影システム、放射線撮影方法、及びプログラム | |
CN112006706A (zh) | 放射线摄像系统、放射线摄像控制装置及其控制方法和介质 | |
US20220265228A1 (en) | Radiation imaging system, radiation imaging method, image processing apparatus, and storage medium | |
JP2020044162A (ja) | 医用情報処理装置および医用情報処理システム | |
US20220122257A1 (en) | Medical image processing apparatus and medical image processing system | |
KR101941209B1 (ko) | 인공지능 기반 독립형 자동 질환 진단 시스템 및 방법 | |
WO2019207800A1 (ja) | 眼科画像処理装置および眼科画像処理プログラム | |
JP7223539B2 (ja) | 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法 | |
JP7210175B2 (ja) | 医用情報処理装置、医用情報処理システム及び医用情報処理プログラム | |
EP4186431A1 (en) | X-ray diagnostic apparatus, medical image processing apparatus, and medical image processing method | |
WO2023100926A1 (ja) | 医用情報処理方法及び医用情報処理装置 | |
JP7175795B2 (ja) | X線画像処理装置、x線診断装置、およびx線画像処理プログラム | |
US11836946B2 (en) | Methods and devices for guiding a patient | |
JP2016042876A (ja) | 医用画像処理装置及び医用画像処理方法 | |
CN112446855A (zh) | 信息处理装置、断层摄影装置、信息处理方法及存储介质 | |
Rao et al. | OCTAI: Smartphone-based Optical Coherence Tomography Image Analysis System | |
JP2021069698A (ja) | 放射線撮影装置、放射線撮影システム、放射線撮影方法及びプログラム | |
KR102389628B1 (ko) | 의료영상의 병변 특징에 따른 영상처리 장치 및 방법 | |
CN211213048U (zh) | 一种结肠胶囊内窥镜系统 | |
JP7504585B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
EP4159138A1 (en) | Prospective quality assessment for imaging examination prior to acquisition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7175795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |