JP2022064760A - X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 - Google Patents

X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 Download PDF

Info

Publication number
JP2022064760A
JP2022064760A JP2020173573A JP2020173573A JP2022064760A JP 2022064760 A JP2022064760 A JP 2022064760A JP 2020173573 A JP2020173573 A JP 2020173573A JP 2020173573 A JP2020173573 A JP 2020173573A JP 2022064760 A JP2022064760 A JP 2022064760A
Authority
JP
Japan
Prior art keywords
ray
image
foreign matter
region
identification image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020173573A
Other languages
English (en)
Inventor
尓重 胡
Er Zhong Hu
知宏 中矢
Tomohiro Nakaya
直正 細見
Naomasa Hosomi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2020173573A priority Critical patent/JP2022064760A/ja
Publication of JP2022064760A publication Critical patent/JP2022064760A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】機械学習によって生成された物体検出の学習済みモデルに基づいてX線画像に含まれる手術後の被検体の体内に取り残された異物を検出する場合に、X線画像に含まれる異物を容易に識別することが可能なX線撮影装置、画像処理方法、および、学習済みモデルの生成方法を提供することである。【解決手段】このX線撮影装置100は、X線照射部1と、X線検出部2と、X線画像10を生成するX線画像生成部3と、制御部6と、を備え、制御部6は、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域を検出する物体検出部61と、異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20を生成する識別画像生成部62と、識別画像20を出力する画像出力部63と、を含む。【選択図】図2

Description

本発明は、X線撮影装置、画像処理方法、および、学習済みモデルの生成方法に関し、特に、手術後の被検体の体内に取り残された異物を検出するX線撮影装置、画像処理方法、および、学習済みモデルの生成方法に関する。
従来、手術後の被検者(被検体)の体内に取り残された異物を検出する放射線撮影システム(X線撮影装置)が知られている(たとえば、特許文献1参照)。
上記特許文献1に記載されている放射線撮影システムは、検査目的に応じて、予め設定された処理手順に従って放射線画像の処理を行う。たとえば、開腹手術の後に止血用ガーゼの有無を確認するための処理手順が設定されている場合には、撮影された撮影画像に対して異物強調処理が実行される。そして、上記特許文献1に記載の放射線撮影システムは、被検者の体内の異物(ガーゼ)が見やすいように異物強調処理が実行された腹部画像を表示する。
特開2019-180605号公報
ここで、上記特許文献1に記載されている放射線撮影システムのように、手術後に被検者(被検体)の体内に取り残されている止血用ガーゼ(手術用ガーゼ)などの異物の有無を医師などの作業者が確認するために、物体検出による異物の検出を行うことが考えられる。すなわち、異物を検出するための物体検出のアルゴリズムとして機械学習によって生成された物体検出の学習済みモデルを用いて、撮影された撮影画像(X線画像)のうちから異物に対応する部分を推定することが考えられる。その場合には、医師などの作業者は、物体検出の検出結果によって異物が含まれると推定された部分を参照(確認)しながら、X線画像を確認することによって被検体の体内の異物の有無を確認する。
たとえば、機械学習によって生成された物体検出の学習済みモデルに基づいて、撮影されたX線画像から異物を検出する場合には、X線画像のうちの異物が含まれていると推定される部分が矩形の枠で囲まれて表示される場合がある。この場合に、X線画像のうちから複数の部分が検出された場合には複数の枠が表示される。そのため、X線画像に表示される形状が枠で隠れてしまい見にくくなるため、複数の枠の表示に起因してX線画像自体の視認性が低下する。これにより、撮影されたX線画像に含まれる異物を確認することが困難となる。また、しきい値などを用いて検出する枠の個数が比較的少なくなるように設定された場合には、X線画像のうちの実際に異物が含まれる部分が検出されずに見落とされることが考えられる。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、機械学習によって生成された物体検出の学習済みモデルに基づいてX線画像に含まれる手術後の被検体の体内に取り残された異物を検出する場合に、X線画像に含まれる異物を容易に識別することが可能なX線撮影装置、画像処理方法、および、学習済みモデルの生成方法を提供することである。
上記目的を達成するために、この発明の第1の局面におけるX線撮影装置は、手術後の被検体の体内に取り残された異物を検出するためにX線撮影を行うX線撮影装置であって、被検体にX線を照射するX線照射部と、X線照射部から照射されたX線を検出するX線検出部と、X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、制御部と、を備え、制御部は、機械学習によって生成された物体検出の学習済みモデルに基づいて、X線画像のうちの異物が含まれる領域を検出する物体検出部と、物体検出部によって検出された異物が含まれる領域に対応する部分を色付けすることによって、異物を識別するための識別画像を生成する識別画像生成部と、識別画像生成部によって生成された識別画像を出力する画像出力部と、を含む。
この発明の第2の局面における画像処理方法では、手術後の被検体の体内に取り残された異物を検出するために被検体にX線を照射するステップと、照射されたX線を検出するステップと、検出されたX線の検出信号に基づいてX線画像を生成するステップと、機械学習によって生成された物体検出の学習済みモデルに基づいて、X線画像のうちの異物が含まれる領域を検出するステップと、検出された異物が含まれる領域に対応する部分を色付けすることによって、異物を識別するための識別画像を生成するステップと、生成された識別画像を出力するステップと、を備える。
この発明の第3の局面における学習済みモデルの生成方法では、体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、教師入力用X線画像における異物を示す領域である教師出力用異物領域を取得するステップと、異物が含まれる領域に対応する部分を色付けすることによって異物を識別するための識別画像を生成するために、教師入力用X線画像と教師出力用異物領域とに基づいて、機械学習によってX線画像のうちの異物が含まれる領域を検出する物体検出の学習済みモデルを生成するステップと、を備える。
上記第1の局面におけるX線撮影装置および上記第2の局面における画像処理方法では、機械学習によって生成された物体検出の学習済みモデルに基づいて、X線画像のうちの異物が含まれる領域を検出する。そして、検出された異物が含まれる領域に対応する部分を色付けすることによって、異物を識別するための識別画像を生成する。これにより、異物が含まれていると推定される部分が矩形の枠で囲まれる場合と異なり、X線画像に表示される形状が枠で隠れることなく、色付けされることによって異物に対応するX線画像の部分を識別可能に表示することができる。そのため、複数の領域が検出された場合にも、異物を識別可能に表示しながらX線画像の視認性が低下することを抑制することができる。そして、複数の領域が検出された場合にもX線画像の視認性が低下することを抑制することができるので、しきい値などを用いて検出する個数を少なくする必要がなくなる。そのため、異物が検出されずに見落とされることを抑制することができる。その結果、機械学習によって生成された物体検出の学習済みモデルに基づいてX線画像に含まれる手術後の被検体の体内に取り残された異物を検出する場合に、X線画像に含まれる異物を容易に識別することができる。
また、上記第3の局面における学習済みモデルの生成方法では、異物が含まれる領域に対応する部分を色付けすることによって異物を識別するための識別画像を生成するために、教師入力用X線画像と教師出力用異物領域とに基づいて、機械学習によってX線画像のうちの異物が含まれる領域を検出する物体検出の学習済みモデルを生成する。これにより、機械学習によって生成された物体検出の学習済みモデルに基づいて、X線画像のうちの異物が含まれる領域を容易に検出することができる。そのため、検出された異物が含まれる領域に対応する部分を色付けすることによって、異物を識別するための識別画像を容易に生成することができる。その結果、X線画像に表示される形状が枠で隠れることなく、色付けされることによって異物に対応するX線画像の領域を識別可能に表示することができるため、X線画像に含まれる異物を容易に識別することが可能な学習済みモデルの生成方法を提供することができる。
一実施形態によるX線撮影装置の構成を説明するための図である。 一実施形態によるX線撮影装置の構成を説明するためのブロック図である。 一実施形態による体内に異物が取り残された被検体のX線画像の一例を示す図である。 一実施形態による異物の検出について説明するための図である。 一実施形態による複数の推定領域および判定値を取得する例を説明するための図である。 一実施形態による学習済みモデルの生成について説明するための図である。 一実施形態による分布表示について説明するための図である。 2次元ガウシアン分布に沿った表示について説明するための図である。 推定領域と判定値に基づく複数の分布表示の生成について説明するための図である。 一実施形態による識別画像について説明するための図である。 一実施形態による表示部の表示について説明するための図である。 一実施形態による学習済みモデルの生成方法について説明するためのフローチャート図である。 一実施形態による画像処理方法について説明するためのフローチャート図である。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
(X線撮影装置の全体構成)
図1~図11を参照して、本発明の一実施形態によるX線撮影装置100について説明する。
図1に示すように、X線撮影装置100は、手術後の被検体101の体内に取り残された異物200を検出するためにX線撮影を行う。X線撮影装置100は、手術室内において開腹手術が行われた被検体101に対して、異物200が体内に取り残されているか否かを確認するためのX線撮影を行う。X線撮影装置100は、たとえば、装置全体が移動可能な回診用X線撮影装置である。異物200は、たとえば、手術用ガーゼ、縫合針、および、鉗子(止血鉗子など)を含む。
一般に、開腹手術などの外科手術が行われた場合には、医師などの作業者は、閉創後に手術用ガーゼ、縫合針、および、鉗子などの異物200が被検体101の体内に取り残される(残留する)ことがないように、被検体101に対して確認のためのX線撮影を行う。医師などの作業者は、撮影されたX線画像10(図3参照)を視認することによって、被検体101の体内に異物200が取り残されていないことを確認する。
〈X線撮影装置について〉
図2に示すように、X線撮影装置100は、X線照射部1、X線検出部2、X線画像生成部3、表示部4、記憶部5、および、制御部6を備える。
X線照射部1は、手術後の被検体101にX線を照射する。X線照射部1は、電圧が印加されることによってX線を照射するX線管を含む。
X線検出部2は、被検体101を透過したX線を検出する。そして、X線検出部2は、検出されたX線に基づいて検出信号を出力する。X線検出部2は、たとえば、FPD(Flat Panel Detector)を含む。また、X線検出部2は、ワイヤレスタイプのX線検出器として構成されており、無線信号としての検出信号を出力する。具体的には、X線検出部2は、無線LANなどによる無線接続によって、後述するX線画像生成部3と通信可能に構成されており、X線画像生成部3に対して無線信号としての検出信号を出力する。
X線画像生成部3は、図3に示すように、X線照射部1およびX線検出部2を制御することによって、X線撮影の制御を行う。そして、X線画像生成部3は、X線検出部2によって検出されたX線の検出信号に基づいてX線画像10を生成する。X線画像生成部3は、無線LANなどによる無線接続によってX線検出部2と通信可能に構成されている。X線画像生成部3は、たとえば、FPGA(field-programmable gate array)などのプロセッサを含む。そして、X線画像生成部3は、後述する制御部6に対して生成されたX線画像10を出力する。
X線画像10は、手術後の被検体101の腹部をX線撮影することにより取得された画像である。たとえば、X線画像10には、異物200として手術用ガーゼが含まれる。なお、手術用ガーゼは、手術後のX線撮影によるX線画像10において視認可能なようにX線を透過させにくい造影糸が織り込まれている。
表示部4は、たとえば、タッチパネル式の液晶ディスプレイを含む。そして、表示部4は、撮影されたX線画像10を表示する。また、表示部4は、後述する画像出力部63によって出力された識別画像20(図10参照)を表示する。また、表示部4は、タッチパネルに対する操作に基づいて、医師などの作業者によるX線撮影装置100を操作するための入力操作を受け付けるように構成されている。
記憶部5は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部5は、X線画像生成部3によって生成されたX線画像10および後述する制御部6によって生成された識別画像20(図10参照)などの画像データを記憶する。また、記憶部5は、X線撮影装置100を動作させる各種の設定値を記憶するように構成されている。また、記憶部5は、制御部6によるX線撮影装置100の制御の処理に用いられるプログラムを記憶する。また、記憶部5は、後述する物体検出の学習済みモデル51を記憶する。
制御部6は、たとえば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを含んで構成されたコンピュータである。制御部6は、機能的な構成として、物体検出部61、識別画像生成部62、および、画像出力部63を含む。すなわち、制御部6は、所定の制御プログラムを実行することにより、物体検出部61、識別画像生成部62、および、画像出力部63として機能する。また、物体検出部61、識別画像生成部62、および、画像出力部63は、制御部6の中のソフトウェアとしての機能ブロックであり、ハードウェアとしての制御部6の指令信号に基づいて機能するように構成されている。
(物体検出について)
図4に示すように、本実施形態では、物体検出部61(制御部6)は、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域を検出する。学習済みモデル51は、深層学習を用いた機械学習によって生成される。学習済みモデル51における物体検出のアルゴリズムとして、たとえば、FasterR-CNN(Faster Region-based Convolutional Neural Network)が用いられる。FasterR-CNNを用いた物体検出では、入力画像に対して、1つまたは複数の目標物体が矩形の枠で囲まれて検出される。そして、各々の目標物体の検出(推論)結果に対する信頼度(スコア)も同時に推測される。
本実施形態では、物体検出部61は、学習済みモデル51に基づいて、X線画像10のうちから異物200が含まれると推定される推定領域11を取得するとともに、推定領域11における異物200の確かさの度合いである尤度(信頼度)を判定した判定値12を取得するように構成されている。物体検出部61は、予め生成された物体検出の学習済みモデル51を用いることによって、X線画像10のうちから異物200が含まれると推定される矩形の領域(バウンディングボックス)を推定領域11として検出する。そして、物体検出部61は、学習済みモデル51を用いて、検出された推定領域11についての判定値12を取得する。判定値12は、0以上1以下の数値で表される。判定値12は、数値が大きいほど、推定領域11に異物200が含まれている可能性が高いことを示す。
また、図5に示すように、物体検出部61(制御部6)は、複数の推定領域11を取得するとともに、取得された複数の推定領域11の各々に対応する複数の判定値12を取得するように構成されている。すなわち、物体検出部61は、X線画像10のうちから、異物200が含まれると推定される領域のすべてを推定領域11として取得する。推定領域11は、X線画像10における異物200と推定された領域に応じて大きさ(面積)が変化する。すなわち、推定領域11として取得される矩形の領域のたてとよこの長さ(ピクセル値)は、X線画像10において異物200として検出された部分(領域)の大きさに応じて変化する。そして、物体検出部61は、学習済みモデル51に基づいて、取得された複数の推定領域11の各々に対して、判定値12を取得する。
(学習済みモデルの生成について)
図6に示すように、本実施形態では、物体検出の学習済みモデル51は、X線画像10から手術用ガーゼ、縫合針、および、鉗子を含む異物200が含まれる領域を検出するように機械学習によって生成される。学習済みモデル51は、X線撮影装置100とは別個の学習装置300によって予め生成される。学習装置300は、たとえば、CPU、GPU、ROM、および、RAMなどを含んで構成されたコンピュータである。学習済みモデル51は、教師入力用X線画像310と教師出力用異物領域320とに基づいて、深層学習を用いた機械学習によって生成される。
教師入力用X線画像310は、体内に異物200が取り残された被検体101を撮影したX線画像10を模擬するように学習装置300によって生成される。学習装置300は、たとえば、人体を模した人体ファントムにX線を照射することによって生成された模擬X線画像と、医療用ガーゼ、縫合針、および、鉗子などの異物200をX線撮影することによって生成された異物画像とを取得する。そして、学習装置300は、模擬X線画像と異物画像とを合成することによって教師入力用X線画像310を生成する。学習装置300は、模擬X線画像と異物画像とを合成する場合のパラメータ(角度、濃度、大きさなど)を複数の条件に変更させることによって、複数の教師入力用X線画像310を生成する。なお、教師入力用X線画像310は、実際に人体をX線撮影した画像に異物画像を合成することによって生成されてもよい。また、教師入力用X線画像310は、異物が含まれていない(異物画像が合成されていない)模擬X線画像を含んでいてもよい。
教師出力用異物領域320は、生成された複数の教師入力用X線画像310のうちの異物200に対応する領域を示す情報(アノテーション)である。具体的には、教師出力用異物領域320は、教師入力用X線画像310における異物200を取り囲むように設定された矩形の領域(枠線)の座標を含む。学習装置300は、学習装置300の図示しない操作部に対する入力操作に基づいて、複数の教師入力用X線画像310の各々における異物200の領域が指定されることによって、複数の教師入力用X線画像310の各々に対応する教師出力用異物領域320を取得するように構成されている。また、学習装置300は、異物画像から異物200の領域を検出することによって、複数の教師入力用X線画像310に対応する複数の教師出力用異物領域320を取得するように構成されていてもよい。
学習装置300は、教師入力用X線画像310を入力として、教師出力用異物領域320を出力として、機械学習によって学習を行い、物体検出の学習済みモデル51を生成する。すなわち、学習装置300は、教師入力用X線画像310と教師出力用異物領域320とを教師データ(トレーニングセット)として、機械学習によって学習済みモデル51を生成する。学習装置300は、複数の教師入力用X線画像310と複数の教師出力用異物領域320とを用いて学習を行うことによって、学習済みモデル51を生成する。
生成された学習済みモデル51は、X線撮影を行う前に予めX線撮影装置100の記憶部5に記憶される。学習済みモデル51は、ネットワークを介して学習装置300からX線撮影装置100の記憶部5に記憶されてもよいし、フラッシュメモリなどの記憶媒体を介して記憶部5に記憶されてもよい。
(識別画像の生成について)
図7に示すように、識別画像生成部62(制御部6)は、物体検出部61(制御部6)によって取得された複数の推定領域11の各々において、判定値12に基づいて色づけされる分布表示13を生成する。分布表示13は、たとえば、赤色を基準として、対応する判定値12の値が大きいほど輝度が高く、判定値12の値が小さいほど輝度が低くなるように色付けされる。すなわち、値が大きいほど色が薄く白くなり、値が小さいほど色が濃く黒くなるように分布表示13が生成される。なお、図7では、色の違いをハッチングの違いによって表している。図7では、分布表示13において、0以上1以下の値の範囲において0.2ごとに段階的に色(ハッチング)が変化するように表しているが、段階的(離散的)な色の変化ではなく、徐々に色が変化するようにして分布表示13を生成するようにしてもよい。
また、本実施形態では、識別画像生成部62(制御部6)は、取得された推定領域11と判定値12とに基づいて、2次元ガウシアン分布(正規分布)に沿って色が変化する分布表示13を生成する。
図8に示すように、ガウス関数(ガウシアン関数)によるガウシアン分布(正規分布)は、中心(中央値、平均値)の値が最も大きく、中心から離れるにしたがって徐々に値が小さくなるような釣り鐘型(山型)の分布となる。たとえば、分布表示13における2次元ガウシアン分布は、2変量ともに標準正規分布に基づいて設定される。標準正規分布は、平均が0、分散が1の正規分布である。識別画像生成部62は、たとえば、図8の標準正規分布の分布曲線のうちの-3以上3以下の範囲の分布曲線に基づいて、分布表示13を生成する。
すなわち、識別画像生成部62は、図8の標準正規分布の分布曲線に沿うように色の輝度を変化させて分布表示13を生成する。そして、識別画像生成部62は、推定領域11がたてとよこの長さが互いに異なる長方形の矩形の領域である場合にも、楕円ではなく真円の同心円状に色が変化する表示となるように分布表示13を生成する。したがって、識別画像生成部62は、分布表示13の中心における色が最も輝度が高く、2次元ガウシアン分布に沿って中心から外側に向かって同心円状に輝度が低くなるように分布表示13を生成する。
そして、図9に示すように、本実施形態では、識別画像生成部62(制御部6)は、複数の推定領域11の各々を対応する判定値12に基づいて色付けすることによって、複数の推定領域11の各々における分布表示13を生成する。すなわち、識別画像生成部62は、物体検出部61によって検出された推定領域11ごとに、推定領域11の大きさ(面積)と判定値12とに基づいて、2次元ガウシアン分布に沿って色付けされた分布表示13を生成する。
識別画像生成部62(制御部6)は、取得された矩形の推定領域11の大きさに対応するように分布表示13を生成する。詳細には、識別画像生成部62は、複数の推定領域11の各々において、取得された推定領域11の大きさ(面積)に応じて、分布表示13の大きさ(図9の範囲の幅α)を設定する。
そして、識別画像生成部62は、分布表示13の中心における色の輝度を、対応する推定領域11における判定値12の大きさに基づいて設定する。たとえば、分布表示13における色の輝度は、0以上255以下の256段階の値によって設定される。識別画像生成部62は、0以上1以下の値の範囲である判定値12を、256段階の色の輝度に対応付けるようにして分布表示13における色を設定する。2次元ガウシアン分布の分布曲線の値(分布の高さ)に判定値12を乗算することによって、2次元ガウシアン分布に強度(インテンシティ)が付与される。これにより、識別画像生成部62は、複数の推定領域11のそれぞれの判定値12の大きさに対応するように、分布表示13におけるガウシアン分布の頂点の高さ(図9の高さβ)を設定する。
図10に示すように、本実施形態では、識別画像生成部62(制御部6)は、生成された分布表示13による識別画像20を生成するように構成されている。具体的には、識別画像生成部62は、推定領域11の矩形を示す枠を表示させずに、複数の推定領域11の各々の位置に対応する分布表示13を表示させることによって識別画像20を生成するように構成されている。識別画像生成部62は、たとえば、推定領域11を示す矩形の中心(対角線の交点)と、分布表示13による2次元ガウシアン分布の中心(平均値、中央値)が一致するように、複数の推定領域11に対応する複数の分布表示13による識別画像20を生成する。
識別画像生成部62は、識別画像20において、分布表示13どうしが重なり合って表示される場合には、重なり合う画素(色)における輝度を足し合わせて表示させるように構成されている。なお、識別画像生成部62は、識別画像20において、分布表示13どうしが重なり合って表示される場合には、値が大きい方の輝度を選択して表示させるように構成されていてもよい。また、識別画像20において、推定領域11が検出されなかった部分(領域)は、対応する画素の輝度が0として表示される。
上記のように、本実施形態では、識別画像生成部62(制御部6)は、物体検出部61によって検出された異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20を生成する。すなわち、識別画像生成部62は、物体検出部61によって取得された推定領域11と判定値12とに基づいて色付けすることによって、異物200を識別するための識別画像20を生成するように構成されている。言い換えると、識別画像生成部62は、判定値12に応じて変化するように色付けされたヒートマップ画像(カラーマップ画像)として識別画像20を生成するように構成されている。
(表示部の表示について)
図11に示すように、本実施形態では、画像出力部63(制御部6)は、識別画像生成部62によって生成された識別画像20を出力する。具体的には、画像出力部63は、X線画像10に識別画像20を重畳させて表示部4に表示させるように構成されている。
画像出力部63は、たとえば、識別画像20の透過度を50%にする画像処理を行う。そして、画像出力部63は、透過度が50%の識別画像20を、X線画像10に重畳させて表示部4に表示させる。すなわち、画像出力部63は、X線画像10に、透過処理がされた識別画像20を重畳させて表示部4に表示させる。画像出力部63は、X線画像10の視認性を低下させずに、X線画像10の異物200が含まれると推定された領域が色付けされた状態で視認可能なように、X線画像10に識別画像20を重畳させて表示部4に表示させる。
なお、画像出力部63は、表示部4のタッチパネルに対する入力操作に基づいて、識別画像20をX線画像10に重畳して表示させることと、識別画像20を表示せずX線画像10のみを表示させることとを切り替えるように構成されていてもよい。
(本実施形態による学習済みモデルの生成方法について)
次に、図12を参照して、本実施形態による学習済みモデルの生成方法について説明する。なお、学習済みモデルの生成方法は、学習装置300によって実施される。
まず、ステップ401において、人体ファントムをX線撮影した模擬X線画像と、異物200をX線撮影した異物画像とが取得される。
次に、ステップ402において、体内に異物200が取り残されている手術後の被検体101にX線を照射することによって生成されたX線画像10を模擬するように生成された教師入力用X線画像310が取得される。具体的には、複数の模擬X線画像と複数の異物画像とが、パラメータ(濃度、角度、および、大きさなど)を変更しながら合成されることによって生成された教師入力用X線画像310が取得される。
次に、ステップ403において、教師入力用X線画像310における異物200を示す領域である教師出力用異物領域320が取得される。具体的には、教師入力用X線画像310における異物200を取り囲むように設定された矩形の領域(座標)を含む情報(アノテーション)が教師出力用異物領域320として取得される。
次に、ステップ404において、異物200が含まれる領域に対応する部分を色付けすることによって異物200を識別するための識別画像20を生成するために、教師入力用X線画像310と教師出力用異物領域320とに基づいて、機械学習によってX線画像10のうちの異物200が含まれる領域を検出する物体検出の学習済みモデル51が生成される。具体的には、教師入力用X線画像310を入力として、教師出力用異物領域320を出力として、深層学習による機械学習によって学習が行われ、識別画像20を生成するための物体検出の学習済みモデル51が生成される。
(本実施形態による画像処理方法について)
次に、図13を参照して、本実施形態による画像処理方法に関する制御処理フローについて説明する。また、ステップ501~ステップ503は、X線画像生成部3による制御処理を示し、ステップ504~ステップ506は、制御部6による制御処理を示す。
まず、ステップ501において、手術後の被検体101の体内に取り残された異物200を検出するために被検体101にX線が照射される。次に、ステップ502において、照射されたX線が検出される。次に、ステップ503において、検出されたX線の検出信号に基づいてX線画像10が生成される。
次に、ステップ504において、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域が検出される。具体的には、学習済みモデル51に基づいて、X線画像10のうちから異物200が含まれると推定される推定領域11が取得される。そして、推定領域11における異物200の確かさの度合いである尤度を判定した判定値12が取得される。
次に、ステップ505において、検出された異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20が生成される。具体的には、推定領域11と判定値12とに基づいて、2次元ガウシアン分布に沿って色が変化する分布表示13によるヒートマップ画像としての識別画像20が生成される。
次に、ステップ506において、生成された識別画像20が出力される。具体的には、X線画像10に識別画像20が重畳させられて表示部4に表示させられる。
(本実施形態の効果)
本実施形態では、以下のような効果を得ることができる。
本実施形態のX線撮影装置100では、上記のように、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域を検出する。そして、検出された異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20を生成する。これにより、異物200が含まれていると推定される部分が矩形の枠で囲まれる場合と異なり、X線画像10に表示される形状が枠で隠れることなく、色付けされることによって異物200に対応するX線画像10の部分を識別可能に表示することができる。そのため、複数の領域が検出された場合にも、異物200を識別可能に表示しながらX線画像10の視認性が低下することを抑制することができる。そして、複数の領域が検出された場合にもX線画像10の視認性が低下することを抑制することができるので、しきい値などを用いて検出する個数を少なくする必要がなくなる。そのため、異物200が検出されずに見落とされることを抑制することができる。その結果、機械学習によって生成された物体検出の学習済みモデル51に基づいてX線画像10に含まれる手術後の被検体101の体内に取り残された異物200を検出する場合に、X線画像10に含まれる異物200を容易に識別することができる。
また、上記実施形態では、以下のように構成したことによって、下記のような更なる効果が得られる。
すなわち、本実施形態では、上記のように、物体検出部61(制御部6)は、学習済みモデル51に基づいて、X線画像10のうちから異物200が含まれると推定される推定領域11を取得するとともに、推定領域11における異物200の確かさの度合いである尤度を判定した判定値12を取得するように構成されており、識別画像生成部62(制御部6)は、物体検出部61によって取得された推定領域11と判定値12とに基づいて色付けすることによって、異物200を識別するための識別画像20を生成するように構成されている。このように構成すれば、推定領域11と判定値12とに基づいて色付けされた識別画像20を視認することによって、X線画像10のうちの異物200が含まれると推定された推定領域11と、推定領域11における判定値12とを視覚的に容易に識別することができる。そのため、識別画像20を視認することによって、X線画像10におけるいずれの領域にどの程度の確かさによって異物200が含まれていると推定されたかということを容易に認識することができる。その結果、識別画像20の推定領域11と判定値12とを参照することによって、X線画像10に含まれる異物200をより容易に識別することができる。
また、本実施形態では、上記のように、識別画像生成部62(制御部6)は、判定値12に応じて変化するように色付けされたヒートマップ画像として識別画像20を生成するように構成されている。このように構成すれば、ヒートマップ画像としての識別画像20を視覚的に認識することによって判定値12の分布の様子を容易に識別できるので、X線画像10における判定値12の変化を容易に認識することができる。そのため、ヒートマップ画像としての識別画像20を視覚的に認識することによってX線画像10に含まれる異物200をより一層容易に識別することができる。
また、本実施形態では、上記のように、識別画像生成部62(制御部6)は、取得された推定領域11と判定値12とに基づいて、2次元ガウシアン分布に沿って色が変化する分布表示13による識別画像20を生成するように構成されている。このように構成すれば、取得された推定領域11が一色で塗りつぶされている場合と異なり、2次元ガウシアン分布に沿って色が変化する分布表示13によって、中心から外側に向かって徐々に色を変化させることによって、推定領域11の境界における色の変化を滑らかにすることができる。また、2次元ガウシアン分布の分布曲線に沿って色を変化させるため、分布表示13の中央付近を高い数値とすることができる。そのため、取得された推定領域11における色の強度(輝度、彩度、色相など)を推定領域11の中央(中心)付近において最も大きくすることができる。これにより、推定領域11の中央(中心)付近を最も強調させながら、推定領域11の境界付近では推定領域11の外側と滑らかな色の変化となるように識別画像20を生成することができる。その結果、識別画像20における推定領域11の視認性を向上させることができる。
また、本実施形態では、上記のように、物体検出部61(制御部6)は、学習済みモデル51に基づいて、X線画像10のうちから矩形の推定領域11を取得するように構成されており、識別画像生成部62(制御部6)は、矩形を示す枠を表示させずに、取得された矩形の推定領域11の大きさに対応した分布表示13によって識別画像20を生成するように構成されている。このように構成すれば、物体検出の学習済みモデル51に基づいて矩形の推定領域11が取得される場合にも、矩形を示す枠が表示されないため、枠の表示に起因して識別画像20の視認性が低下することを抑制することができる。また、取得された矩形の推定領域11の大きさに対応するように分布表示13の大きさを設定するため、X線画像10に含まれる異物200の大きさに応じて推定領域11の大きさを変更させることができる。そのため、識別画像20を視認することによってX線画像10に含まれる異物200の大きさを容易に認識することができる。
また、本実施形態では、上記のように、物体検出部61(制御部6)は、学習済みモデル51に基づいて、複数の推定領域11を取得するとともに、取得された複数の推定領域11の各々に対応する複数の判定値12を取得するように構成されており、識別画像生成部62(制御部6)は、複数の推定領域11の各々を対応する判定値12に基づいて色付けすることによって、複数の推定領域11の各々における分布表示13を生成し、複数の推定領域11の各々の位置に分布表示13を表示させることによって識別画像20を生成するように構成されている。ここで、被検体101の体内に含まれる異物200を実際に含む推定領域11の判定値12よりも、被検体101の骨などの身体の構造物を含む推定領域11の判定値12のほうが大きい値となる場合がある。その場合に、判定値12の最も高い1つの推定領域11のみを取得して表示させる場合には、異物200を含む領域が検出されずに見落とされることとなる。これを考慮して、本実施形態では、物体検出部61を、学習済みモデル51に基づいて、複数の推定領域11を取得するとともに、取得された複数の推定領域11の各々に対応する複数の判定値12を取得するように構成する。そして、識別画像生成部62を、複数の推定領域11の各々を対応する判定値12に基づいて色付けすることによって、複数の推定領域11の各々における分布表示13を生成し、複数の推定領域11の各々の位置に分布表示13を表示させることによって識別画像20を生成するように構成する。このように構成すれば、複数の推定領域11の各々における分布表示13を表示させることによって識別画像20を生成することができるので、被検体101の体内に含まれる異物200を実際に含む推定領域11の判定値12が他の推定領域11の判定値12よりも小さい場合にも、異物200を実際に含む推定領域11の分布表示13を生成して表示させることができる。そのため、X線画像10における異物200の視認性が低く判定値12が小さい場合にも、異物200を検出して分布表示13を生成することができる。その結果、X線画像10における異物200の見落としを効果的に抑制することができる。
また、本実施形態では、上記のように、画像出力部63(制御部6)によって出力された識別画像20を表示する表示部4をさらに備え、画像出力部63は、X線画像10に識別画像20を重畳させて表示部4に表示させるように構成されている。このように構成すれば、検出された異物200に対応する部分が色付けされた識別画像20をX線画像10に重畳させて表示部4に表示させるため、表示部4を視認することによって異物200が検出されたX線画像10の領域を容易に確認することができる。そのため、医師などの作業者が、検出結果に基づいてX線画像10を確認および検証する場合に、異物200であると推定されたX線画像10の対応する部分(位置)を容易に識別することができる。
また、本実施形態では、上記のように、異物200は、手術用ガーゼ、縫合針、および、鉗子を含み、物体検出部61(制御部6)は、X線画像10から手術用ガーゼ、縫合針、および、鉗子が含まれる領域を検出するように機械学習によって生成された学習済みモデル51に基づいて、手術用ガーゼ、縫合針、および、鉗子を含む異物200が含まれる領域を検出するように構成されている。このように構成すれば、手術後に被検体101の体内に取り残された手術用ガーゼ、縫合針、および、鉗子が含まれる領域を検出することができるので、検出された手術用ガーゼ、縫合針、および、鉗子に対応する部分が色付けされた識別画像20を視認することによって、X線画像10に含まれる手術用ガーゼ、縫合針、および、鉗子を容易に識別することができる。
[本実施形態による画像処理方法の効果]
本実施形態による画像処理方法では、以下のような効果を得ることができる。
本実施形態の画像処理方法では、上記のように構成することにより、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域を検出する。そして、検出された異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20を生成する。これにより、異物200が含まれていると推定される部分が矩形の枠で囲まれる場合と異なり、X線画像10に表示される形状が枠で隠れることなく、色付けされることによって異物200に対応するX線画像10の部分を識別可能に表示することができる。そのため、複数の領域が検出された場合にも、異物200を識別可能に表示しながらX線画像10の視認性が低下することを抑制することができる。そして、複数の領域が検出された場合にもX線画像10の視認性が低下することを抑制することができるので、しきい値などを用いて検出する個数を少なくする必要がなくなる。そのため、異物200が検出されずに見落とされることを抑制することができる。その結果、機械学習によって生成された物体検出の学習済みモデル51に基づいてX線画像10に含まれる手術後の被検体101の体内に取り残された異物200を検出する場合に、X線画像10に含まれる異物200を容易に識別することが可能な画像処理方法を提供することができる。
[本実施形態による学習済みモデルの生成方法の効果]
本実施形態の学習済みモデルの生成方法では、以下のような効果を得ることができる。
本実施形態の学習済みモデルの生成方法では、上記のように、異物200が含まれる領域に対応する部分を色付けすることによって異物200を識別するための識別画像20を生成するために、教師入力用X線画像310と教師出力用異物領域320とに基づいて、機械学習によってX線画像10のうちの異物200が含まれる領域を検出する物体検出の学習済みモデル51を生成する。これにより、機械学習によって生成された物体検出の学習済みモデル51に基づいて、X線画像10のうちの異物200が含まれる領域を容易に検出することができる。そのため、検出された異物200が含まれる領域に対応する部分を色付けすることによって、異物200を識別するための識別画像20を容易に生成することができる。その結果、X線画像10に表示される形状が枠で隠れることなく、色付けされることによって異物200に対応するX線画像10の領域を識別可能に表示することができるため、X線画像10に含まれる異物200を容易に識別することが可能な学習済みモデルの生成方法を提供することができる。
[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
たとえば、上記実施形態では、物体検出部61(制御部6)は、学習済みモデル51に基づいて、推定領域11と判定値12とを取得するように構成されている例を示したが、本発明はこれに限られない。たとえば、物体検出部61を、推定領域11および判定値12に加えて、検出された異物200の種類(カテゴリ)を取得するように構成してもよい。すなわち、物体検出部61を、取得された推定領域11に含まれると推定された異物200の種類(ガーゼ、針、鉗子など)を取得するように構成してもよい。その場合、識別画像生成部62(制御部6)を、異物200の種類ごとに異なる色相によって色付けすることによって、推定領域11と、判定値12と、異物200の種類とが識別可能なように色付けされた識別画像20を生成するように構成してもよい。
また、上記実施形態では、識別画像生成部62(制御部6)は、2次元ガウシアン分布に沿って色が変化する分布表示13による識別画像20を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、2次元ガウシアン分布に沿わない分布表示によって識別画像20を生成してもよい。すなわち、推定領域11全体を同一の色によって色付けすることによって識別画像20を生成するようにしてもよい。また、ガウシアン分布(正規分布)に沿わずに、推定領域11の中央(中心)付近を同一の色によって色付けするとともに、周囲を徐々に色の輝度を小さくするように変化させるような分布表示によって識別画像20を生成してもよい。
また、上記実施形態では、識別画像生成部62(制御部6)は、取得された矩形の推定領域11の大きさに対応した分布表示13によって識別画像20を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、推定領域11の大きさに拘らず共通の大きさの分布表示13によって識別画像20を生成するようにしてもよい。
また、上記実施形態では、識別画像生成部62(制御部6)は、複数の推定領域11の各々を対応する判定値12に基づいて色付けすることによって識別画像20を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、複数の推定領域11の各々を、判定値12の大きさに拘らず同一の色によって色付けするようにしてもよい。
また、上記実施形態では、画像出力部63(制御部6)は、X線画像10に識別画像20を重畳させて表示部4に表示させるように構成されている例を示したが、本発明はこれに限られない。たとえば、画像出力部63を、X線画像10と識別画像20とを切り替えて表示させるように構成してもよい。
また、上記実施形態では、被検体101の体内に取り残される異物200は、手術用ガーゼ、縫合針、および、鉗子を含む例を示したが、本発明はこれに限られない。たとえば、検出される異物200は、ボルト、および、固定用のクリップなどを含んでいてもよい。
また、上記実施形態では、赤色を基準として、輝度の差異によって、判定値12の分布を識別可能なように識別画像20を生成する例を示したが、本発明はこれに限られない。たとえば、色相を異ならせることによって判定値12の分布を識別可能なように識別画像20を生成するようにしてもよい。すなわち、判定値12が大きい場合は赤色を表示させ、赤、黄、緑、青の順で、判定値12の変化を表すようにしてもよい。
また、上記実施形態では、分布表示13は、推定領域11の形状に拘らずたてよこの長さが等しくなるように生成される例を示したが、本発明はこれに限られない。すなわち、分布表示13を、推定領域11の形状に対応するようにたてとよこの長さを異ならせるように生成してもよい。すなわち、分布表示13における2次元ガウシアン分布をたてとよことで異なる分布曲線とすることによって、分布表示13を、真円状に色が変化するのではなく、楕円状に色が変化するようにしてもよい。
また、上記実施形態では、別個のハードウェアとして構成されたX線画像生成部3と、制御部6とによって、X線画像10の生成についての制御処理と、識別画像20の生成についての制御処理とがそれぞれ行われる例を示したが、本発明はこれに限られない。たとえば、共通の1つの制御部(ハードウェア)によって、X線画像10の生成および識別画像20の生成が行われるように構成されていてもよい。
また、上記実施形態では、物体検出部61、識別画像生成部62、および、画像出力部63が、1つのハードウェア(制御部6)における機能ブロック(ソフトウェア)として構成されている例を示したが、本発明はこれに限られない。たとえば、物体検出部61、識別画像生成部62、および、画像出力部63が、それぞれ別個のハードウェア(演算回路)によって構成されていてもよい。
また、上記実施形態では、X線撮影装置100とは別個の学習装置300によって学習済みモデル51が生成される例を示したが、本発明はこれに限られない。たとえば、X線撮影装置100によって学習済みモデル51が生成されてもよい。
また、上記実施形態では、物体検出の学習済みモデル51(アルゴリズム)として、FasterR-CNNが用いられる例を示したが、本発明はこれに限られない。たとえば、YOLO(You Only Look Once)を物体検出のアルゴリズムとして用いてもよい。また、物体検出のアルゴリズムとして、FastR-CNN、R-CNN、および、SSD(Single Shot MultiBox Detector)などを用いてもよい。
また、上記実施形態では、X線撮影装置100に備えられた表示部4に生成された識別画像20を表示させる例を示したが、本発明はこれに限られない。たとえば、X線撮影装置100とは別個に設けられた外部モニタなどの表示装置に識別画像20を表示させるようにしてもよい。
また、上記実施形態では、256段階の輝度の変化によって色付けすることによって識別画像20を生成する例を示したが、本発明はこれに限られない。たとえば、輝度などの色の変化を4または5段階ほどの変化によって色付けすることによって識別画像を生成するようにしてもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
手術後の被検体の体内に取り残された異物を検出するためにX線撮影を行うX線撮影装置であって、
前記被検体にX線を照射するX線照射部と、
前記X線照射部から照射されたX線を検出するX線検出部と、
前記X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、
制御部と、を備え、
前記制御部は、
機械学習によって生成された物体検出の学習済みモデルに基づいて、前記X線画像のうちの前記異物が含まれる領域を検出する物体検出部と、
前記物体検出部によって検出された前記異物が含まれる領域に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成する識別画像生成部と、
前記識別画像生成部によって生成された前記識別画像を出力する画像出力部と、を含む、X線撮影装置。
(項目2)
前記物体検出部は、前記学習済みモデルに基づいて、前記X線画像のうちから前記異物が含まれると推定される推定領域を取得するとともに、前記推定領域における前記異物の確かさの度合いである尤度を判定した判定値を取得するように構成されており、
前記識別画像生成部は、前記物体検出部によって取得された前記推定領域と前記判定値とに基づいて色付けすることによって、前記異物を識別するための前記識別画像を生成するように構成されている、項目1に記載のX線撮影装置。
(項目3)
前記識別画像生成部は、前記判定値に応じて変化するように色付けされたヒートマップ画像として前記識別画像を生成するように構成されている、項目2に記載のX線撮影装置。
(項目4)
前記識別画像生成部は、取得された前記推定領域と前記判定値とに基づいて、2次元ガウシアン分布に沿って色が変化する分布表示による前記識別画像を生成するように構成されている、項目2または3に記載のX線撮影装置。
(項目5)
前記物体検出部は、前記学習済みモデルに基づいて、前記X線画像のうちから矩形の前記推定領域を取得するように構成されており、
前記識別画像生成部は、矩形を示す枠を表示させずに、取得された矩形の前記推定領域の大きさに対応した前記分布表示によって前記識別画像を生成するように構成されている、項目4に記載のX線撮影装置。
(項目6)
前記物体検出部は、前記学習済みモデルに基づいて、複数の前記推定領域を取得するとともに、取得された前記複数の推定領域の各々に対応する複数の前記判定値を取得するように構成されており、
前記識別画像生成部は、前記複数の推定領域の各々を対応する前記判定値に基づいて色付けすることによって、前記複数の推定領域の各々における前記分布表示を生成し、前記複数の推定領域の各々の位置に前記分布表示を表示させることによって前記識別画像を生成するように構成されている、項目4または5に記載のX線撮影装置。
(項目7)
前記画像出力部によって出力された前記識別画像を表示する表示部をさらに備え、
前記画像出力部は、前記X線画像に前記識別画像を重畳させて前記表示部に表示させるように構成されている、項目1~6のいずれか1項に記載のX線撮影装置。
(項目8)
前記異物は、手術用ガーゼ、縫合針、および、鉗子を含み、
前記物体検出部は、前記X線画像から前記手術用ガーゼ、前記縫合針、および、前記鉗子が含まれる領域を検出するように機械学習によって生成された前記学習済みモデルに基づいて、前記手術用ガーゼ、前記縫合針、および、前記鉗子を含む前記異物が含まれる領域を検出するように構成されている、項目1~7のいずれか1項に記載のX線撮影装置。
(項目9)
手術後の被検体の体内に取り残された異物を検出するために前記被検体にX線を照射するステップと、
照射されたX線を検出するステップと、
検出されたX線の検出信号に基づいてX線画像を生成するステップと、
機械学習によって生成された物体検出の学習済みモデルに基づいて、前記X線画像のうちの前記異物が含まれる領域を検出するステップと、
検出された前記異物が含まれる領域に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成するステップと、
生成された前記識別画像を出力するステップと、を備える、画像処理方法。
(項目10)
体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、
前記教師入力用X線画像における前記異物を示す領域である教師出力用異物領域を取得するステップと、
前記異物が含まれる領域に対応する部分を色付けすることによって前記異物を識別するための識別画像を生成するために、前記教師入力用X線画像と前記教師出力用異物領域とに基づいて、機械学習によって前記X線画像のうちの前記異物が含まれる領域を検出する物体検出の学習済みモデルを生成するステップと、を備える、学習済みモデルの生成方法。
1 X線照射部
2 X線検出部
3 X線画像生成部
4 表示部
6 制御部
10 X線画像
11 推定領域
12 判定値
13 分布表示
20 識別画像
51 学習済みモデル
61 物体検出部
62 識別画像生成部
63 画像出力部
100 X線撮影装置
101 被検体
200 異物
310 教師入力用X線画像
320 教師出力用異物領域

Claims (10)

  1. 手術後の被検体の体内に取り残された異物を検出するためにX線撮影を行うX線撮影装置であって、
    前記被検体にX線を照射するX線照射部と、
    前記X線照射部から照射されたX線を検出するX線検出部と、
    前記X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、
    制御部と、を備え、
    前記制御部は、
    機械学習によって生成された物体検出の学習済みモデルに基づいて、前記X線画像のうちの前記異物が含まれる領域を検出する物体検出部と、
    前記物体検出部によって検出された前記異物が含まれる領域に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成する識別画像生成部と、
    前記識別画像生成部によって生成された前記識別画像を出力する画像出力部と、を含む、X線撮影装置。
  2. 前記物体検出部は、前記学習済みモデルに基づいて、前記X線画像のうちから前記異物が含まれると推定される推定領域を取得するとともに、前記推定領域における前記異物の確かさの度合いである尤度を判定した判定値を取得するように構成されており、
    前記識別画像生成部は、前記物体検出部によって取得された前記推定領域と前記判定値とに基づいて色付けすることによって、前記異物を識別するための前記識別画像を生成するように構成されている、請求項1に記載のX線撮影装置。
  3. 前記識別画像生成部は、前記判定値に応じて変化するように色付けされたヒートマップ画像として前記識別画像を生成するように構成されている、請求項2に記載のX線撮影装置。
  4. 前記識別画像生成部は、取得された前記推定領域と前記判定値とに基づいて、2次元ガウシアン分布に沿って色が変化する分布表示による前記識別画像を生成するように構成されている、請求項2または3に記載のX線撮影装置。
  5. 前記物体検出部は、前記学習済みモデルに基づいて、前記X線画像のうちから矩形の前記推定領域を取得するように構成されており、
    前記識別画像生成部は、矩形を示す枠を表示させずに、取得された矩形の前記推定領域の大きさに対応した前記分布表示によって前記識別画像を生成するように構成されている、請求項4に記載のX線撮影装置。
  6. 前記物体検出部は、前記学習済みモデルに基づいて、複数の前記推定領域を取得するとともに、取得された前記複数の推定領域の各々に対応する複数の前記判定値を取得するように構成されており、
    前記識別画像生成部は、前記複数の推定領域の各々を対応する前記判定値に基づいて色付けすることによって、前記複数の推定領域の各々における前記分布表示を生成し、前記複数の推定領域の各々の位置に前記分布表示を表示させることによって前記識別画像を生成するように構成されている、請求項4または5に記載のX線撮影装置。
  7. 前記画像出力部によって出力された前記識別画像を表示する表示部をさらに備え、
    前記画像出力部は、前記X線画像に前記識別画像を重畳させて前記表示部に表示させるように構成されている、請求項1~6のいずれか1項に記載のX線撮影装置。
  8. 前記異物は、手術用ガーゼ、縫合針、および、鉗子を含み、
    前記物体検出部は、前記X線画像から前記手術用ガーゼ、前記縫合針、および、前記鉗子が含まれる領域を検出するように機械学習によって生成された前記学習済みモデルに基づいて、前記手術用ガーゼ、前記縫合針、および、前記鉗子を含む前記異物が含まれる領域を検出するように構成されている、請求項1~7のいずれか1項に記載のX線撮影装置。
  9. 手術後の被検体の体内に取り残された異物を検出するために前記被検体にX線を照射するステップと、
    照射されたX線を検出するステップと、
    検出されたX線の検出信号に基づいてX線画像を生成するステップと、
    機械学習によって生成された物体検出の学習済みモデルに基づいて、前記X線画像のうちの前記異物が含まれる領域を検出するステップと、
    検出された前記異物が含まれる領域に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成するステップと、
    生成された前記識別画像を出力するステップと、を備える、画像処理方法。
  10. 体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、
    前記教師入力用X線画像における前記異物を示す領域である教師出力用異物領域を取得するステップと、
    前記異物が含まれる領域に対応する部分を色付けすることによって前記異物を識別するための識別画像を生成するために、前記教師入力用X線画像と前記教師出力用異物領域とに基づいて、機械学習によって前記X線画像のうちの前記異物が含まれる領域を検出する物体検出の学習済みモデルを生成するステップと、を備える、学習済みモデルの生成方法。
JP2020173573A 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 Pending JP2022064760A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020173573A JP2022064760A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173573A JP2022064760A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法

Publications (1)

Publication Number Publication Date
JP2022064760A true JP2022064760A (ja) 2022-04-26

Family

ID=81385738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173573A Pending JP2022064760A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法

Country Status (1)

Country Link
JP (1) JP2022064760A (ja)

Similar Documents

Publication Publication Date Title
JP2020110650A (ja) 画像処理方法及び画像処理装置
KR102169948B1 (ko) 의용 장치 및 방법
JP7194143B2 (ja) 肝臓腫瘍例のレビューを容易にするシステムおよび方法
KR20210030351A (ko) 의료영상 장치로부터의 실시간 비디오 처리 및 그 비디오로부터 오브젝트를 검출하기 위한 시스템 및 방법
WO2023103467A1 (zh) 图像处理方法、装置及设备
US20220114729A1 (en) X-ray imaging apparatus, image processing method, and generation method of trained model
JP6563177B2 (ja) 医用画像処理装置及び医用画像処理プログラム
CN105956395A (zh) 医学影像处理方法、装置及系统
JP2021013685A (ja) 放射線画像処理装置、方法およびプログラム
TWI798585B (zh) 喉部異物辨識系統及方法
CN106175931A (zh) 荧光镜视场的标记
US10016175B2 (en) X-ray diagnostic apparatus and image processing apparatus
JP2022064760A (ja) X線撮影装置、画像処理方法、および、学習済みモデルの生成方法
JP2010075549A (ja) 画像処理装置
US10249074B2 (en) Medical image processing device, medical image processing method and computer readable medium for displaying color volume rendered images
JP2022048677A (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
US10631948B2 (en) Image alignment device, method, and program
JP2017225542A (ja) 画像処理装置、及び方法
WO2022215303A1 (ja) X線撮影装置、画像処理装置、および、画像処理プログラム
US20230270500A1 (en) Generating and displaying a rendering of a left atrial appendage
JP2019141478A (ja) 画像処理装置、方法及びプログラム
JP2022048676A (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JPH03228755A (ja) 手術支援装置
JP6393538B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理方法、及び医用画像処理プログラム
JP2002330950A (ja) 異常陰影候補検出装置