JP2022068043A - 医用画像処理装置及び医用画像処理システム - Google Patents

医用画像処理装置及び医用画像処理システム Download PDF

Info

Publication number
JP2022068043A
JP2022068043A JP2020176973A JP2020176973A JP2022068043A JP 2022068043 A JP2022068043 A JP 2022068043A JP 2020176973 A JP2020176973 A JP 2020176973A JP 2020176973 A JP2020176973 A JP 2020176973A JP 2022068043 A JP2022068043 A JP 2022068043A
Authority
JP
Japan
Prior art keywords
image data
model
generation
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020176973A
Other languages
English (en)
Inventor
大悟 奥畑
Daigo Okuhata
達郎 前田
Tatsuro Maeda
陽介 大久保
Yosuke Okubo
恭子 佐藤
Kyoko Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2020176973A priority Critical patent/JP2022068043A/ja
Priority to US17/506,097 priority patent/US12062172B2/en
Publication of JP2022068043A publication Critical patent/JP2022068043A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】学習済みモデルを共有可能にすることである。【解決手段】医用画像処理装置は、第2装置が撮影した画像データを用いて学習した学習済みモデルに用いる画像データを、第1装置が撮影した画像データから生成する医用画像処理装置であって、第1取得部と、第1生成部とを備える。前記第1取得部は、前記第1装置が被検体を撮影した第1被検体画像データを取得する。前記第1生成部は、前記第1被検体画像データから、前記第1装置が撮影した第1画像データの特徴を削除した中間画像データを第1生成モデルにより生成し、当該中間画像データから、前記第2装置が撮影した第2画像データの特徴を有する第2被検体画像データを第2生成モデルにより生成する。【選択図】図5

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置及び医用画像処理システムに関する。
従来、病院などの施設は、施設のモダリティが撮影した画像データを解析させるために、学習済みモデルを生成している。学習済みモデルは、生成に多大なコストがかかるため、複数の施設で共有したいとの要望がある。
しかしながら、画像データは、施設やモダリティごとに異なる条件で撮影されているため、異なる特徴を有している。よって、学習済みモデルに、他の施設で撮影された画像データを使用すると、画像データの特徴が異なっているため解析精度が低下してしまうことがある。このように、学習済みモデルを提供するだけでは、学習済みモデルを共有することができない。そのため、学習済みモデルを共有可能とする技術が求められている。
特開2020-065920号公報
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、学習済みモデルを共有可能にすることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
実施形態に係る医用画像処理装置は、第2装置が撮影した画像データを用いて学習した学習済みモデルに用いる画像データを、第1装置が撮影した画像データから生成する医用画像処理装置であって、第1取得部と、第1生成部とを備える。前記第1取得部は、前記第1装置が被検体を撮影した第1被検体画像データを取得する。前記第1生成部は、前記第1被検体画像データから、前記第1装置が撮影した第1画像データの特徴を削除した中間画像データを第1生成モデルにより生成し、当該中間画像データから、前記第2装置が撮影した第2画像データの特徴を有する第2被検体画像データを第2生成モデルにより生成する。
図1は、本実施形態にかかるモデル共有システムの構成の一例を示すブロック図である。 図2は、本実施形態に係るモデル生成装置の構成の一例を示すブロック図である。 図3は、敵対的生成ネットワークによる第1生成モデルの生成方法の一例を示す図である。 図4は、敵対的生成ネットワークによる第2生成モデルの生成方法の一例を示す図である。 図5は、本実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。 図6は、変換モデルの構成の一例を示すブロック図である。 図7は、学習済みモデルが解析処理を実行するまでの処理の一例を示す図である。 図8は、本実施形態に係る医用画像処理装置が実行する提供実行処理の一例を示すフローチャートである。
以下、図面を参照しながら、本実施形態に関する医用画像処理装置及び医用画像処理システムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。
図1は、本実施形態にかかるモデル共有システム1の構成の一例を示すブロック図である。モデル共有システム1は、ある施設で生成された学習済みモデル246(図7参照)を、他の施設で使用可能にするシステムである。モデル共有システム1において、ネットワーク2を介して、学習済みモデル246を提供する病院などの提供施設の医用画像処理装置30と、提供施設から学習済みモデル246の提供を受ける収受施設の医用画像処理装置30とは通信可能に接続されている。モデル共有システム1は、医用画像システムの一例である。
提供施設は、モダリティ10と、モデル生成装置20とを有している。また、収受施設は、モダリティ10と、モデル生成装置20とを有している。図1に示すモデル共有システム1は、提供施設と収受施設とが接続されているが、3つ以上の施設が接続されていてもよい。また、各施設は、モダリティ10、モデル生成装置20、及び医用画像処理装置30を複数台備えていてもよい。
モダリティ10は、被検体を撮影して画像データを生成する。例えば、モダリティ10は、X線CT(Computed Tomography)装置や、MRI(Magnetic Resonance Imaging)装置、X線診断装置、超音波診断装置等の画像診断装置である。また、モダリティ10は、第1装置及び第2装置の一例である。
提供施設のモダリティ10と、収受施設のモダリティ10とは、同一種類の装置であってもよいし、異なる種類の装置であってもよい。例えば、提供施設のモダリティ10と、収受施設のモダリティ10とは、両方ともX線CT装置であってもよいし、X線CT装置とMRI装置とであってもよい。また、提供施設のモダリティ10と、収受施設のモダリティ10とは、同一種類の装置である場合、メーカや、性能などが異なっている。例えば、提供施設のモダリティ10と、収受施設のモダリティ10とは、両方ともX線CT装置であるが、X線検出素子の列数が異なっている。
モデル生成装置20は、生成モデルを生成する。モデル生成装置20は、パーソナルコンピュータや、サーバ装置等のコンピュータ機器によって実現される。
医用画像処理装置30は、モデル生成装置20が生成した生成モデルにより画像データを生成する。更に詳しくは、医用画像処理装置30は、第2装置が撮影した画像データを用いて学習した学習済みモデル246に用いる画像データを、第1装置が撮影した画像データから生成する。例えば、医用画像処理装置30は、提供施設のモダリティ10が撮影した画像データを用いて学習した学習済みモデル246に用いる画像データを、収受施設のモダリティ10が撮影した画像データから生成する。そして、医用画像処理装置30は、学習済みモデル246により画像データを解析する。医用画像処理装置30は、パーソナルコンピュータや、サーバ装置等のコンピュータ機器によって実現される。ここで、学習済みモデル246とは、判定や推定等の各種処理を行う技術である。学習済みモデル246は、強化学習、教師あり学習、教師なし学習、深層学習(ディープラーニング)等の機械学習により生成される。なお、学習済みモデル246は、これら学習方法に限らず、他の方法により生成されてもよい。
このようなモデル共有システム1において、提供施設の学習済みモデル246を、収受施設のモダリティ10が撮影した画像データで使用する場合を例に説明する。また、提供施設の学習済みモデル246は、提供施設のモダリティ10が撮影した画像データを用いて学習することで生成されているものとする。提供施設のモダリティ10が撮影した画像データと、収受施設のモダリティ10が撮影した画像データとは、画像データにおける特徴が異なっている。ここで、画像データにおける特徴とは、画像データに含まれるノイズや、境界の明確さを示す明確度や、CT値などである。
このように、ノイズなどの画像データの特徴が異なっているため、提供施設の学習済みモデル246に、収受施設のモダリティ10が撮影した画像データを解析させても意図した解析精度にならない場合がある。これに対して、複数の施設間で共同することで共通の学習済みモデル246を生成することにより解析精度の低下を抑制する方策も考えられる。しかしながら、この場合には、管理者などは、学習済みモデル246を生成するために、学習用のデータとして個人情報を施設の外部に持ち出さなければならない。そのため、管理者などは、個人情報を外部に持ち出すための各種手続きや情報漏洩の対策などを実施しなければならず煩雑である。そこで、医用画像処理装置30は、収受施設のモダリティ10が撮影した画像データから、提供施設のモダリティ10が撮影した画像データの特徴を有する画像データを生成する。
具体的には、医用画像処理装置30は、収受施設のモダリティ10が撮影した画像データから、基準画像データの特徴を有する中間画像データを生成する。ここで、基準画像データとは、モデル共有システム1の各モダリティ10が撮影した画像データにおいて、共通の特徴を有する画像データである。言い換えると、基準画像データとは、収受施設のモダリティ10が撮影した第1画像データ及び提供施設のモダリティ10が撮影した第2画像データのそれぞれの特徴がない画像データである。すなわち、基準画像データとは、特徴の一例であるノイズなどが含まれていない画像データである。例えば、基準画像データは、高線量で撮影された画像データや、画像処理によりノイズ等が除去された画像データである。また、基準画像データは、例えば、撮影する装置の性能を評価するための評価用ファントムの画像データである。さらに、モデル共有システム1において、基準画像データは、施設間で共有される同一の画像データである。また、学習済みモデル246が特定の臓器を解析対象にしている場合、評価用ファントムは、対象臓器を模したものであってもよい。この場合、基準画像データが対象臓器の画像データになるため、学習済みモデル246の解析精度をさらに向上させる場合がある。
また、中間画像データとは、モダリティ10が撮影した画像データに対して、基準画像データの特徴が疑似的に再現された画像データである。言い換えると、中間画像データとは、画像データからノイズなどの特徴が削除された画像データである。医用画像処理装置30は、収受施設のモダリティ10が撮影した画像データから中間画像データを生成する。これにより、医用画像処理装置30は、収受施設のモダリティ10が撮影した画像データの特徴が削除された画像データを生成する。
また、医用画像処理装置30は、中間画像データから、提供施設のモダリティ10が撮影した画像データの特徴を有する疑似撮影画像データを生成する。疑似撮影画像データとは、中間画像データに対して、提供施設のモダリティ10が撮影した画像データの特徴が疑似的に再現された画像データである。言い換えると、疑似撮影画像データとは、中間画像データに対してノイズなどの特徴が付加された画像データである。医用画像処理装置30は、画像データにおけるノイズや、境界の明確さを示す明確度などの特徴を有する疑似撮影画像データを生成する。このようにして、医用画像処理装置30は、提供施設のモダリティ10が撮影した画像データの特徴が中間画像データに付加された疑似撮影画像データを生成する。
上述した処理により、医用画像処理装置30は、収受施設のモダリティ10が撮影した画像データの特徴が無く、提供施設のモダリティ10が撮影した画像データの特徴を有する疑似撮影画像データを生成する。言い換えると、医用画像処理装置30は、提供施設のモダリティ10が撮影した画像データを再現した疑似撮影画像データを生成する。よって、医用画像処理装置30は、疑似撮影画像データを提供施設の学習済みモデル246に解析させた場合に、解析精度の低下を抑制することができる。
次に、本実施形態に係るモデル生成装置20の構成について説明する。
図2は、本実施形態に係るモデル生成装置20の構成の一例を示すブロック図である。モデル生成装置20は、通信インターフェース21と、入力インターフェース22と、ディスプレイ23と、記憶回路24と、処理回路25とを有する。
通信インターフェース21は、処理回路25に接続され、ネットワーク2を介して接続された各装置との間で行われる各種データの伝送及び通信を制御する。例えば、通信インターフェース21は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
入力インターフェース22は、処理回路25に接続され、操作者(医療従事者)から受け付けた入力操作を電気信号に変換して処理回路25に出力する。具体的には、入力インターフェース22は、操作者から受け付けた入力操作を電気信号へ変換して処理回路25に出力する。例えば、入力インターフェース22は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース22は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース22の例に含まれる。
ディスプレイ23は、処理回路25に接続され、処理回路25から出力される各種情報及び各種画像データを表示する。例えば、ディスプレイ23は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、タッチパネル等によって実現される。
記憶回路24は、処理回路25に接続され、各種データを記憶する。また、記憶回路24は、処理回路25が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路24は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
処理回路25は、モデル生成装置20全体の動作を制御する。処理回路25は、例えば、第1生成モデル生成機能251、及び第2生成モデル生成機能252を有する。実施形態では、構成要素である第1生成モデル生成機能251、及び第2生成モデル生成機能252にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路24へ記憶されている。処理回路25は、プログラムを記憶回路24から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路25は、図2の処理回路25内に示された各機能を有することになる。
なお、図2においては単一のプロセッサにて、第1生成モデル生成機能251、及び第2生成モデル生成機能252を実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路25を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図2においては、記憶回路24等の単一の記憶回路が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路25は、個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
第1生成モデル生成機能251は、敵対的生成ネットワーク(GAN:Generative Adversarial Network)により、収受施設のモダリティ10が撮影した画像データから基準画像データの特徴を有する中間画像データを生成する第1生成モデル241を生成する。ここで、中間画像データとは、モダリティ10が撮影した画像データに対して、基準画像データの特徴が疑似的に再現された画像データである。言い換えると、中間画像データとは、ノイズなどの特徴が削除された画像データである。
第1生成モデル生成機能251は、第1装置が撮影した第1撮影画像データと、第1撮影画像データ及び第2装置が撮影した第2撮影画像データの特徴がない基準画像データとを用いて敵対的生成ネットワークにより第1生成モデル241を生成する。例えば、第1生成モデル241は、収受施設のモダリティ10が撮影した第1画像データと、収受施設のモダリティ10が撮影した第1画像データ及び提供施設のモダリティ10が撮影した第2画像データのそれぞれの特徴がない基準画像データとを用いて敵対的生成ネットワークにより生成される。第1生成モデル生成機能251は、第1モデル生成部の一例である。
図3は、敵対的生成ネットワークによる第1生成モデル241の生成方法の一例を示す図である。第1生成モデル241は、敵対的生成ネットワークにおける生成器である。すなわち、第1生成モデル241は、収受施設のモダリティ10が撮影した画像データから、中間画像データを生成するニューラルネットワークである。第1識別モデル242は、敵対的生成ネットワークにおける識別器である。すなわち、第1識別モデル242は、基準画像データと、中間画像データとのうち、何れが本物の基準画像データであるかを識別するニューラルネットワークである。
学習時において、第1生成モデル生成機能251は、モダリティ10が撮影した第1撮影画像データを第1生成モデル241に入力する。第1撮影画像データは、性能を評価するための評価用ファントムをモダリティ10などの第1装置が撮影した画像データである。第1撮影画像データは、第1画像データの一例である。第1生成モデル241は、第1撮影画像データから中間画像データを生成する。第1識別モデル242は、基準画像データと、中間画像データとのうち、何れが本物の基準画像データであるかを識別する。
第1識別モデル242により基準画像データが本物の基準画像データであると識別された場合、第1生成モデル生成機能251は、第1生成モデル241のニューラルネットワークのパラメータを更新する。第1生成モデル241は、更新されたパラメータにより、中間画像データを生成する。また、第1識別モデル242は、基準画像データと、中間画像データとのうち、何れが本物の基準画像データであるかを識別する。第1生成モデル生成機能251は、第1識別モデル242による本物の基準画像データを識別する識別精度が閾値以下になるまで繰り返し実行する。これにより、第1生成モデル生成機能251は、第1生成モデル241を生成する。
第2生成モデル生成機能252は、敵対的生成ネットワークにより、基準画像データから提供施設のモダリティ10が撮影した画像データの特徴を有する疑似撮影画像データを生成する第2生成モデル243を生成する。ここで、疑似撮影画像データとは、画像データに対して、提供施設のモダリティ10が撮影した画像データの特徴が疑似的に再現された画像データである。言い換えると、疑似撮影画像データとは、ノイズなどの特徴が付加された画像データである。
更に詳しくは、第2生成モデル生成機能252は、第1撮影画像データ及び第2撮影画像データの特徴がない基準画像データと、第2撮影画像データとを用いて敵対的生成ネットワークにより第2生成モデル243を生成する。例えば、第2生成モデル243は、収受施設のモダリティ10が撮影した第1画像データ及び提供施設のモダリティ10が撮影した第2画像データのそれぞれの特徴がない基準画像データと、提供施設のモダリティ10が撮影した第2画像データとを用いて敵対的生成ネットワークにより生成される。第2生成モデル生成機能252は、第2モデル生成部の一例である。
図4は、敵対的生成ネットワークによる第2生成モデル243の生成方法の一例を示す図である。第2生成モデル243は、敵対的生成ネットワークにおける生成器である。すなわち、第2生成モデル243は、基準画像データから、疑似撮影画像データを生成するニューラルネットワークである。第2識別モデル244は、敵対的生成ネットワークにおける識別器である。すなわち、第2識別モデル244は、提供施設のモダリティ10が撮影した画像データと、疑似撮影画像データとのうち、何れがモダリティ10により撮影された本物の画像データであるかを識別するニューラルネットワークである。
学習時において、第2生成モデル生成機能252は、基準画像データを第2生成モデル243に入力する。第2生成モデル243は、基準画像データから疑似撮影画像データを生成する。第2識別モデル244は、例えば評価用ファントムをモダリティ10が撮影した第2撮影画像データと、疑似撮影画像データとのうち、何れが第2撮影画像データであるかを識別する。第2撮影画像データは、第1撮影画像データの評価用ファントムと同一の評価用ファントムをモダリティ10などの第2装置が撮影した画像データである。ここで、学習時における疑似撮影画像データは、モダリティ10が評価用ファントムを撮影した画像データを再現した画像データである。すなわち、第2識別モデル244は、第2撮影画像データと、疑似撮影画像データとのうち、何れが提供施設のモダリティ10が撮影した撮影画像データであるかを識別する。
第2識別モデル244により第2撮影画像データが本物の撮影画像データであると識別された場合、第2生成モデル生成機能252は、第2生成モデル243のニューラルネットワークのパラメータを更新する。第2生成モデル243は、更新されたパラメータにより、疑似撮影画像データを生成する。また、第2識別モデル244は、第2撮影画像データと、疑似撮影画像データとのうち、何れが本物の撮影画像データであるかを識別する。第2生成モデル生成機能252は、第2識別モデル244による本物の撮影画像データを識別する識別精度が閾値以下になるまで繰り返し実行する。これにより、第2生成モデル生成機能252は、第2生成モデル243を生成する。
ここで、学習済みモデル246が特定の臓器を解析対象にしている場合、第1撮影画像データ及び第2撮影画像データの評価用ファントムは、対象臓器を模したファントムであってもよい。この場合、対象臓器を模したファントムの画像データで学習するため、学習済みモデル246の解析精度をさらに向上させる場合がある。
次に、本実施形態に係る医用画像処理装置30の構成について説明する。
図5は、本実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。医用画像処理装置30は、通信インターフェース31と、入力インターフェース32と、ディスプレイ33と、記憶回路34と、処理回路35とを有する。
通信インターフェース31は、処理回路35に接続され、ネットワーク2を介して接続された各装置との間で行われる各種データの伝送及び通信を制御する。例えば、通信インターフェース31は、ネットワークカードやネットワークアダプタ、NIC等によって実現される。
入力インターフェース32は、処理回路35に接続され、操作者(医療従事者)から受け付けた入力操作を電気信号に変換して処理回路35に出力する。具体的には、入力インターフェース32は、操作者から受け付けた入力操作を電気信号へ変換して処理回路35に出力する。例えば、入力インターフェース32は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース32は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース32の例に含まれる。
ディスプレイ33は、処理回路35に接続され、処理回路35から出力される各種情報及び各種画像データを表示する。例えば、ディスプレイ33は、液晶ディスプレイやCRTディスプレイ、有機ELディスプレイ、プラズマディスプレイ、タッチパネル等によって実現される。
記憶回路34は、処理回路35に接続され、各種データを記憶する。また、記憶回路34は、処理回路35が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路34は、RAM、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
処理回路35は、医用画像処理装置30全体の動作を制御する。処理回路35は、例えば、生成モデル取得機能351、学習済みモデル取得機能352、画像データ取得機能353、画像データ生成機能354、学習済みモデル制御機能355、及び出力機能356を有する。実施形態では、構成要素である生成モデル取得機能351、学習済みモデル取得機能352、画像データ取得機能353、画像データ生成機能354、学習済みモデル制御機能355、及び出力機能356にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路34へ記憶されている。処理回路35は、プログラムを記憶回路34から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路35は、図5の処理回路35内に示された各機能を有することになる。
なお、図5においては単一のプロセッサにて、生成モデル取得機能351、学習済みモデル取得機能352、画像データ取得機能353、画像データ生成機能354、学習済みモデル制御機能355、及び出力機能356を実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路35を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図5においては、記憶回路34等の単一の記憶回路が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路35は、個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD),及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路24、34に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路24、34にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
生成モデル取得機能351は、第1生成モデル241、及び第2生成モデル243を取得する。更に詳しくは、生成モデル取得機能351は、収受施設のモデル生成装置20から第1生成モデル241を取得する。また、生成モデル取得機能351は、提供施設のモデル生成装置20から第2生成モデル243を取得する。
学習済みモデル取得機能352は、提供施設から学習済みモデル246を取得する。学習済みモデル取得機能352は、第2取得部の一例である。
画像データ取得機能353は、第1装置が被検体を撮影した第1被検体画像データを取得する。ここで、第1装置は、例えば、収受施設のモダリティ10である。更に詳しくは、第1装置は、提供された学習済みモデル246の処理対象となる画像データを撮影したモダリティ10である。また、画像データ取得機能353は、第1取得部の一例である。例えば、図1に示す提供施設の医用画像処理装置30が収受施設の学習済みモデル246を使用して解析処理を実行する場合、画像データ取得機能353は、提供施設のモダリティ10が被検体を撮影した画像データを取得する。
画像データ生成機能354は、変換モデル245により第1被検体画像データから、第2被検体画像データを生成する。すなわち、画像データ生成機能354は、第1被検体画像データから、第1装置が撮影した第1画像データの特徴を削除した中間画像データを第1生成モデル241により生成し、中間画像データから、第2装置が撮影した第2画像データの特徴を有する第2被検体画像データを第1生成モデル241により生成する。ここで、第2装置は、提供施設のモダリティ10である。更に詳しくは、第2装置は、学習済みモデル246の学習に用いられた画像データを撮影したモダリティ10である。また、画像データ生成機能354は、第1生成部の一例である。
ここで、図6は、変換モデル245の構成の一例を示すブロック図である。変換モデル245は、第1生成モデル241と、第2生成モデル243とを有している。変換モデル245は、変換対象の撮影画像データとして第1被検体画像データが入力された場合に、第1生成モデル241により第1被検体画像データから中間画像データを生成する。また、変換モデル245は、第2生成モデル243により中間画像データから疑似撮影画像データとして第2被検体画像データを生成する。言い換えると、変換モデル245は、撮影画像データに含まれるノイズなどの特徴が削除された中間画像データを生成し、中間画像データに対してノイズなどの特徴を付加した第2被検体画像データを生成する。
学習済みモデル制御機能355は、学習済みモデル246による解析処理を制御する。例えば、学習済みモデル制御機能355は、学習済みモデル取得機能352が取得した学習済みモデル246に第2被検体画像データを解析させる。学習済みモデル制御機能355は、解析制御部の一例である。
図7は、学習済みモデル246が解析処理を実行するまでの処理の一例を示す図である。画像データ生成機能354は、モダリティ10が被検体を撮影した第1被検体画像データを変換モデル245の変換対象の撮影画像データとして指定する。変換モデル245は、第1被検体画像データから、疑似撮影画像データとして第2被検体画像データを生成する。学習済みモデル制御機能355は、変換モデル245が生成した第2被検体画像データを学習済みモデル246の解析対象に指定する。学習済みモデル246は、指定された第2被検体画像データに対して解析処理を実行する。
出力機能356は、学習済みモデル246による解析処理の実行結果を出力する。ここで、出力機能356は、第2被検体画像データに対する実行結果を加工せずに出力してもよいし、第1被検体画像データに戻して実行結果を出力してもよいし、第1被検体画像データに実行結果を重畳して出力してもよい。
ここで、学習済みモデル246は、他の施設のモダリティ10が撮影した画像データを再現した第2被検体画像データに対して解析処理を実行する。よって、出力機能356が実行結果を加工せずに出力すると、実行結果を読影する医療従事者は、見慣れない第2被検体画像データについて読影しなければならない。そこで、出力機能356は、解析処理の実行結果を含む第2被検体画像データを、解析処理の実行結果を含む第1被検体画像データに変換する。そして、出力機能356は、解析処理の実行結果を含む第1被検体画像データを出力する。
これ以外には、例えば、学習済みモデル246が第2被検体画像データから病変がある位置を検出する解析処理を実行する場合に、出力機能356は、検出した病変の位置を示す実行結果を第1被検体画像データに重畳した画像データを生成する。そして、出力機能356は、生成した画像データを表示させることにより出力してもよい。
次に、医用画像処理装置30が実行する提供実行処理について説明する。提供実行処理は、提供された学習済みモデル246を実行する処理である。図8は、本実施形態に係る医用画像処理装置30が実行する提供実行処理の一例を示すフローチャートである。
生成モデル取得機能351は、第1生成モデル241、及び第2生成モデル243を取得する(ステップS1)。
学習済みモデル取得機能352は、学習済みモデル246を取得する(ステップS2)。
画像データ生成機能354は、第1生成モデル241、及び第2生成モデル243を有する変換モデル245の変更対象の第1被検体画像データを指定する(ステップS3)。言い換えると、画像データ生成機能354は、学習済みモデル246に解析させる解析対象の第1被検体画像データを指定する。
画像データ生成機能354は、変換モデル245に第1被検体画像データから第2被検体画像データを生成させる(ステップS4)。
学習済みモデル制御機能355は、学習済みモデル取得機能352が取得した学習済みモデル246に第2被検体画像データを解析させる(ステップS5)。
出力機能356は、学習済みモデル246による第2被検体画像データの解析結果を出力する(ステップS6)。
以上により、医用画像処理装置30は、提供実行処理を終了する。
以上のように、本実施形態にかかる医用画像処理装置30は、モダリティ10が撮影した画像データから、ノイズなどの画像データの特徴を削除した中間画像データを生成する第1生成モデル241と、中間画像データから、別のモダリティ10が撮影した画像データの特徴としてノイズなどの特徴を有する画像データを生成する第2生成モデル243とを取得する。そして、医用画像処理装置30は、モダリティ10が撮影した第1被検体画像データを第1生成モデル241に入力することにより、別のモダリティ10が撮影した画像データの特徴を有する第2被検体画像データを生成する。よって、医用画像処理装置30は、学習済みモデル246に適した画像データを生成することができる。従って、医用画像処理装置30は、学習済みモデル246を共有可能にすることができる。
さらに、実施形態にかかるモデル共有システム1は、学習済みモデル246を新たに生成する必要はないため、学習用のデータとして個人情報を施設の外部に持ち出す必要がない。よって、システムの管理者などは、各種手続きや情報漏洩の対策などを実施する必要がない。
また、上記実施形態では、第1生成モデル241及び第2生成モデル243は、モデル生成装置20が生成すると説明した。しかしながら、第1生成モデル241及び第2生成モデル243は、医用画像処理装置30が生成してもよい。すなわち、医用画像処理装置30は、第1生成モデル生成機能251及び第2生成モデル生成機能252をそなえていてもよい。
また、上記実施形態では、収受施設の医用画像処理装置30が、第1被検体画像データから第2被検体画像データを生成すると説明した。しかしながら、変換モデル245の生成や、第2被検体画像データを生成するサービスを提供する第3者が有する医用画像処理装置30により、変換モデル245されてもよい。そして、第3者が有する医用画像処理装置30により、第1被検体画像データから第2被検体画像データが生成されてもよい。
また、上記実施形態では、モデル生成装置20は、評価用ファントムの画像データを使用することにより、第1生成モデル241及び第2生成モデル243を生成すると説明した。しかしながら、モデル生成装置20は、被検体などの人体の画像データを使用することにより、第1生成モデル241及び第2生成モデル243を生成してもよい。
すなわち、モデル生成装置20は、人体をモダリティ10などの第1装置が撮影した画像データである第1撮影画像データにより第1生成モデル241を生成する。また、モデル生成装置20は、第1撮影画像データの人体と同一の人体をモダリティ10などの第2装置が撮影した画像データである第2撮影画像データにより第1生成モデル241を生成する。また、MRI装置により画像データを撮影する場合、人体は、X線CT装置などの曝射する装置による撮影とは異なり被曝しないため、より好適である。
また、上記実施形態では、変換モデル245は、中間画像データを1回生成することにより、第1被検体画像データから第2被検体画像データを生成すると説明した。しかしながら、変換モデル245は、中間画像データを複数回生成してもよい。例えば、変換モデル245は、第1被検体画像データから第1中間画像データを生成する。また、変換モデル245は、第1中間画像データから第2中間画像データを生成する。そして、変換モデル245は、第2中間画像データから第2被検体画像データを生成する。このように、変換モデル245は、複数の中間画像データを生成することにより、第1被検体画像データから第2被検体画像データを生成してもよい。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 モデル共有システム
10 モダリティ
20 モデル生成装置
30 医用画像処理装置
251 第1生成モデル生成機能
252 第2生成モデル生成機能
241 第1生成モデル
242 第1識別モデル
243 第2生成モデル
244 第2識別モデル
245 変換モデル
246 学習済みモデル
351 生成モデル取得機能
352 学習済みモデル取得機能
353 画像データ取得機能
354 画像データ生成機能
355 学習済みモデル制御機能
356 出力機能

Claims (10)

  1. 第2装置が撮影した画像データを用いて学習した学習済みモデルに用いる画像データを、第1装置が撮影した画像データから生成する医用画像処理装置であって、
    前記第1装置が被検体を撮影した第1被検体画像データを取得する第1取得部と、
    前記第1被検体画像データから、前記第1装置が撮影した第1画像データの特徴を削除した中間画像データを第1生成モデルにより生成し、当該中間画像データから、前記第2装置が撮影した第2画像データの特徴を有する第2被検体画像データを第2生成モデルにより生成する第1生成部と、
    を備える医用画像処理装置。
  2. 前記第1生成モデルは、前記第1画像データと、前記第1画像データ及び前記第2画像データのそれぞれの特徴がない基準画像データとを用いて敵対的生成ネットワークにより生成される、
    請求項1に記載の医用画像処理装置。
  3. 前記第2生成モデルは、前記第1画像データ及び前記第2画像データのそれぞれの特徴がない基準画像データと、前記第2画像データとを用いて敵対的生成ネットワークにより生成される、
    請求項1に記載の医用画像処理装置。
  4. 前記学習済みモデルに前記第2被検体画像データを解析させる解析制御部を更に備える、
    請求項1から請求項3の何れか一項に記載の医用画像処理装置。
  5. 前記学習済みモデルを取得する第2取得部を更に備え、
    前記解析制御部は、前記第2取得部が取得した前記学習済みモデルに前記第2被検体画像データを解析させる、
    請求項4に記載の医用画像処理装置。
  6. 前記第1画像データは、性能を評価するための評価用ファントムを前記第1装置が撮影した画像データである、
    請求項1から請求項5の何れか一項に記載の医用画像処理装置。
  7. 前記第2画像データは、前記評価用ファントムを前記第2装置が撮影した画像データである、
    請求項6に記載の医用画像処理装置。
  8. 前記第1画像データは、人体を前記第1装置が撮影した画像データである、
    請求項1から請求項5の何れか一項に記載の医用画像処理装置。
  9. 前記第2画像データは、前記人体を前記第2装置が撮影した画像データである、
    請求項8に記載の医用画像処理装置。
  10. 生成モデルを生成するモデル生成装置と、前記生成モデルにより画像データを生成する医用画像処理装置とを備える医用画像処理システムであって、
    前記モデル生成装置は、
    第1装置が撮影した第1画像データと、前記第1画像データ及び第2装置が撮影した第2画像データの特徴がない基準画像データとを用いて敵対的生成ネットワークにより第1生成モデルを生成する第1モデル生成部と、
    前記第1画像データ及び前記第2画像データの特徴がない基準画像データと、前記第2画像データとを用いて敵対的生成ネットワークにより第2生成モデルを生成する第2モデル生成部と、を備え、
    前記医用画像処理装置は、
    前記第1装置が被検体を撮影した第1被検体画像データを取得する第1取得部と、
    前記第1被検体画像データから、前記第1装置が撮影した前記第1画像データの特徴を削除した中間画像データを前記第1生成モデルにより生成し、当該中間画像データから、前記第2装置が撮影した前記第2画像データの特徴を有する第2被検体画像データを前記第2生成モデルにより生成する第1生成部と、
    を備える、
    医用画像処理システム。
JP2020176973A 2020-10-21 2020-10-21 医用画像処理装置及び医用画像処理システム Pending JP2022068043A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020176973A JP2022068043A (ja) 2020-10-21 2020-10-21 医用画像処理装置及び医用画像処理システム
US17/506,097 US12062172B2 (en) 2020-10-21 2021-10-20 Medical image processing apparatus and medical image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176973A JP2022068043A (ja) 2020-10-21 2020-10-21 医用画像処理装置及び医用画像処理システム

Publications (1)

Publication Number Publication Date
JP2022068043A true JP2022068043A (ja) 2022-05-09

Family

ID=81185432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176973A Pending JP2022068043A (ja) 2020-10-21 2020-10-21 医用画像処理装置及び医用画像処理システム

Country Status (2)

Country Link
US (1) US12062172B2 (ja)
JP (1) JP2022068043A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063119A1 (ja) * 2022-09-21 2024-03-28 国立大学法人大阪大学 画像翻訳装置、画像診断システム、画像翻訳方法、制御プログラム、記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11672498B2 (en) * 2020-07-29 2023-06-13 Canon Medical Systems Corporation Information processing method, medical image diagnostic apparatus, and information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783096B2 (en) * 2005-10-17 2010-08-24 Siemens Corporation Device systems and methods for imaging
US11100632B2 (en) 2018-04-13 2021-08-24 Elekta, Inc. Image synthesis using adversarial networks such as for radiation therapy
JP7488037B2 (ja) 2018-10-24 2024-05-21 キヤノンメディカルシステムズ株式会社 医用画像診断装置、医用画像診断方法、およびプログラム
JP7242288B2 (ja) 2018-12-25 2023-03-20 キヤノンメディカルシステムズ株式会社 医用画像診断装置及びモデル学習装置
JP7242409B2 (ja) * 2019-04-26 2023-03-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置、超音波診断装置及び学習済モデルの作成方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063119A1 (ja) * 2022-09-21 2024-03-28 国立大学法人大阪大学 画像翻訳装置、画像診断システム、画像翻訳方法、制御プログラム、記録媒体

Also Published As

Publication number Publication date
US20220122257A1 (en) 2022-04-21
US12062172B2 (en) 2024-08-13

Similar Documents

Publication Publication Date Title
CN112770838B (zh) 使用自关注深度学习进行图像增强的系统和方法
US12062172B2 (en) Medical image processing apparatus and medical image processing system
JP7525248B2 (ja) 医用情報処理装置及び医用情報処理プログラム
JP2019198376A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理システム
KR101518804B1 (ko) 의료 데이터 관리 방법 및 장치
JP2021105960A (ja) 医用情報処理装置
JP7223539B2 (ja) 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法
CN113269849B (zh) 重建磁共振的方法和设备
JP2022112215A (ja) 医用情報処理装置
JP7210175B2 (ja) 医用情報処理装置、医用情報処理システム及び医用情報処理プログラム
WO2019208130A1 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
US11645767B2 (en) Capturing a misalignment
JP7233236B2 (ja) 医用画像処理装置、x線診断装置、およびプログラム
JP7175795B2 (ja) X線画像処理装置、x線診断装置、およびx線画像処理プログラム
WO2020241857A1 (ja) 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
JP2022059493A (ja) モデル生成方法、モデル生成装置、画像処理方法及び画像処理装置
JP2021114171A (ja) 医用画像処理装置、プログラム、および医用画像処理システム
JP2021053256A (ja) 画像処理装置、医用画像診断装置及び画像処理プログラム
JP2020010734A (ja) 検査支援装置、方法およびプログラム
JPWO2019087674A1 (ja) ずれ検出装置、方法およびプログラム
US20240266050A1 (en) Medical information processing device, medical information processing method, and storage medium
JP7555223B2 (ja) 情報処理装置
US20230386113A1 (en) Medical image processing apparatus and medical image processing method
JP2020052627A (ja) 検証システム及び検証装置
US20240265540A1 (en) Medical image processing apparatus, method for operating medical image processing apparatus, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008