JP2021065707A - 医用画像処理装置、学習済みモデルおよび医用画像処理方法 - Google Patents

医用画像処理装置、学習済みモデルおよび医用画像処理方法 Download PDF

Info

Publication number
JP2021065707A
JP2021065707A JP2020175955A JP2020175955A JP2021065707A JP 2021065707 A JP2021065707 A JP 2021065707A JP 2020175955 A JP2020175955 A JP 2020175955A JP 2020175955 A JP2020175955 A JP 2020175955A JP 2021065707 A JP2021065707 A JP 2021065707A
Authority
JP
Japan
Prior art keywords
image data
data
medical image
noise
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020175955A
Other languages
English (en)
Inventor
チャン チュン
Chun Chang
チャン チュン
ジョウ ジエン
Jian Zhou
ジョウ ジエン
アズマ エヴレン
Asma Evren
アズマ エヴレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2021065707A publication Critical patent/JP2021065707A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】画質を向上すること。【解決手段】実施形態に係る医用画像処理装置は、取得部と、処理部とを備える。取得部は、ノイズ除去対象の第1の医用画像データを取得する。処理部は、第1の医用画像データと、学習済みモデルとに基づいて、第1の医用画像データがデノイズされた第2の医用画像データを生成する。学習済みモデルは、第3の画像データを複数のサブデータに分割することにより、第3の画像データに対して複数の第4の画像データを生成し、複数の第4の画像データのうち一の画像データを入力データ、複数の第4の画像データのうち一の画像データ以外の画像データをターゲットデータとして訓練を行うことで生成される。【選択図】図1

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置、学習済みモデルおよび医用画像処理方法に関する。
機械学習を用いて、医用画像におけるノイズ除去を行うことができる。例えば、低画質の画像データを入力データ、高画質な画像データを出力データとして、深層学習畳み込みニューラルネットワーク(Deep learning Convolutional Neural Networks:DCNN)を用いた訓練を行い学習済みモデルを生成し、訓練が行われた当該学習済みモデルに低画質な画像データを入力することで、高画質な画像データを得ることができる。
しかしながら、当該訓練には大量の高画質な画像データを用意する必要があり、十分な数の高画質な画像データを用意するのが難しい場合もある。
C.Chan、J.Zhou、L.Yang、W.Qi、J.KolthammerおよびE.Asma、「Noise Adaptive Deep Convolutional Neural Network for Whole−Body PET Denoising」、IEEE NSS/MIC Conference Record、2018年
本明細書及び図面の開示の実施形態が解決しようとする課題の一つは、画質を向上することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
実施形態に係る医用画像処理装置は、取得部と処理部とを備える。取得部は、ノイズ除去対象の第1の医用画像データを取得する。処理部は、前記第1の医用画像データと、学習済みモデルとに基づいて、前記第1の医用画像データがデノイズされた第2の医用画像データを生成する。学習済みモデルは、第3の画像データを複数のサブデータに分割することにより、前記第3の画像データに対して複数の第4の画像データを生成し、前記複数の第4の画像データのうち一の画像データを入力データ、前記複数の第4の画像データのうち前記一の画像データ以外の画像データをターゲットデータとして訓練を行うことで生成される。
図1は、実施形態に係るN2NEN訓練の処理の一例を示す図である。 図2Aは、実施形態に係るN2NEN訓練の処理のさらなる例を示す図である。 図2Bは、実施形態に係るN2NEN訓練の処理のさらなる例を示す図であり、図2Aの処理を別の形式で表示した図である。 図3Aは、実施形態に係るN2NEN訓練の処理のさらなる例を示す図である。 図3Bは、実施形態に係るN2NEN訓練の処理の一例を示す図である。 図4Aは、実施形態に係るN2NENネットワークの適用例を説明するための図である。 図4Bは、実施形態に係るN2NENネットワークの適用例を説明するための図である。 図4Cは、実施形態に係るN2NENネットワークの適用例を説明するための図である。 図5は、実施形態に係る処理と比較例に係る処理とを比較するための図である。 図6は、実施形態に係る処理と比較例に係る処理とを比較するための図である。 図7Aは、実施形態に係る処理と比較例に係る処理とを比較するための図である。 図7Bは、実施形態に係る処理と比較例に係る処理とを比較するための図である。
以下、図面を参照しながら、医用画像処理装置、学習済みモデルおよび医用画像処理方法の実施形態について詳細に説明する。
ノイズ・ツー・ノイズ・アンサンブル(Noise-To-Noise-ENsemble:N2NEN)訓練方法およびシステムについて、図面を参照して本明細書で説明する。はじめに、実施形態に係る医用画像処理装置の構成の一例について述べると、実施形態における医用画像処理装置は、取得部と、処理部とを備える。取得部は、ノイズ除去対象の第1の医用画像データを取得する。処理部は、当該第1の医用画像データと、学習済みモデルとに基づいて、第1の医用画像データがデノイズされた第2の医用画像データを生成する。取得部および処理部は、例えば後述の処理回路として実現される。学習済みモデルは、第3の画像データを複数のサブデータに分割することにより、第3の画像データに対して複数の第4の画像データを生成し、これらを用いて訓練を行うことで生成される。具体的には、訓練データセット(入力、ターゲット)が、(低品質画像、高品質画像)のペアとして使用される代わりに、1つの低品質なデータセットが、低品質なデータセットの複数の構成要素セットにマップされることによって学習済みモデルの訓練が行われる。ここで、低品質画像/低品質なデータセットとは、例えばノイズなどの表示対象以外の情報が高品質画像/高品質なデータセットよりも多く含まれる画像や、高品質画像/高品質なデータセットと比して不備のある画像等を意味する。一実施形態では、これら全てのデータセットは、同じ平均値およびノイズ分布を共有するが、これらは異なるノイズ実現から引き出されるものである。
続いて、このように訓練が行われると、実施形態に係る医用画像処理装置は、取得部により、ノイズ除去対象の第1の医用画像データを取得し、処理部により、第1の医用画像データと、上述の訓練により生成された学習済みモデルとに基づいて、第1の医用画像データがデノイズされた第2の医用画像データを生成する。
学習済みモデルの説明に戻り、DCNN損失関数最小化は、以下の式(1)のように書くことができる。
Figure 2021065707
または、次の式(2)のようにも書くことができる。
Figure 2021065707
式中Nは、低品質なデータセットxの合計数であり、Kは、低品質なデータセットxiのノイズ実現数の合計であり、Ψは、損失関数であり、Fは、ニューラルネットワークを意味し、θは訓練可能なパラメータを表す。xはi番目の入力データであり、yはi番目のターゲットデータである。また、yji(ここでyはハット付き文字である)は、i番目の入力データに対応するj番目のターゲットデータである。すなわち、一つの入力データに対して、複数のターゲットデータが対応する。xiおよびyji(ここでyはハット付き文字である)の両方は、同じノイズ分布から引き出される。この訓練スキームは、画像領域およびサイノグラム領域の両方に適用することができる。一実施形態では、データセットは同じ平均値および分布を有するが、代替的実施形態では、データセットは、異なる平均値および分布を有する場合がある。
一実施形態では、この技法は、PET画像をノイズ除去する際に使用することができる。別の実施形態では、この技法は、他の画像タイプ、例えば、コンピュータ断層写真撮影法(CT)画像、およびX線、超音波およびMRIのノイズ除去のために使用することができる。
一例として、PET画像ノイズ除去が使用される。一実施形態では、図1は、N個の患者スタディのそれぞれに対する最大カウントレベルに対応する未処理リストモードデータによって表されるN個の患者スタディを用いるN2NEN訓練の基本的なワークフローを示す。一実施形態では、最大カウントレベルは、正規化されるか、またはN個のスタディ全てにわたって同一にされる。代替実施形態では、カウントレベルは、N個のスタディにわたって変動する。各スタディのデータは、K個のノイズ実現に分割される(この際、K>=2である)。すなわち、実施形態に係る医用画像処理装置における学習済みモデルは、それぞれのスタディに係るデータである第3の画像データを複数のサブデータであるK個のノイズ実現に分割することにより、第3の画像データに対して複数の第4の画像データを、K個のノイズ実現として生成する。また、実施形態に係る医用画像処理方法においては、学習済みモデルは、それぞれのスタディに係るデータである第3の画像データを複数のサブデータであるK個のノイズ実現に分割することにより、第3の画像データに対して複数の第4の画像データを、K個のノイズ実現として生成する。処理回路のハードウェア構成については後述する。なお、実施形態における画像データのデータ形式は、上述の未処理リストモードデータ形式に限られず、その他の様々なデータ形式、例えばサイノグラム形式のデータであってもよい。
N2NENは、最大カウントレベルの1つのノイズ実現と、同じ最大カウントレベルの複数のノイズ実現とをペアにする。図1に示すように、ノイズ実現1は低品質なデータセットとして使用され、また他のノイズ実現2からKのそれぞれはターゲットとして別々に使用される。これにより、K−1ペアの集合が生成される。換言すると、実施形態に係る医用画像処理装置においては、複数の第4の画像データのうち一の画像データであるノイズ実現1を入力データ、複数の第4の画像データのうち一の画像データ以外の画像データであるノイズ実現2〜Kをターゲットデータとして訓練を行い、例えば深層ニューラルネットワーク等のニューラルネットワークを用いて学習済みモデルを生成する。また、実施形態に係る画像処理の処理回路は、複数の第4の画像データのうち一の画像データであるノイズ実現1を入力データ、複数の第4の画像データのうち当該一の画像データ以外の画像データであるノイズ実現2〜Kをターゲットデータとして訓練を行い、学習済みモデルを生成する。本明細書で使用する場合、関数Pairs(inputx, [targets])は、inputと、集合[targets]の異なる全ての構成要素との可能な全てのペアを作成するプロセスでの省略表現として使用される。したがって、低品質なデータとしてのノイズ実現1と、他のノイズ実現2からKのそれぞれとの上述のペアは、Pairs(1, [2..K])と表すことができる。この際、[2..K]は、「..」表記を使用して、2からKの全ての要素の集合を表す。同様に、集合表記は、3以外の1からKの要素全てを示す[1..2,4..K]のような区切りを集合内に含んでもよい。
上述のように、図1では、各スタディのデータは、K個のノイズ実現に分割される。一部の実施形態では、ノイズ実現は、実質上独立し、かつ等しく分配される(すなわち、0.05の相関係数を有する)、ほぼ独立し、かつ等しく分配される(すなわち、0.02の相関係数を有する)、事実上独立し、かつ等しく分配される(すなわち、0.01の相関係数を有する)、完全に独立し、かつ等しく分配される(すなわち、0.0の相関係数を有する)のいずれかとなるように生成される。同じ元のデータから生成されたこのようなノイズ実現の集合物の名称は、本明細書では「訓練準備のできた」ノイズ実現と称される。
別の例を、図2Aと図2Bに示す。未処理リストモードデータは、M個のカウントレベルに再構成(複数のサブデータに分割)されて、カウントレベルのそれぞれに対して、K個のノイズ実現が生成される。訓練中、カウントレベルのそれぞれに対して、(Pairs(1, [2..K])に従って)各スタディの訓練ノイズ実現のうち1つ(例えば、実質上独立し、かつ等しく分配されるノイズ実現のうち1つ)が、低品質なデータセットとして使用され、また、(実質上独立し、かつ等しく分配されるノイズ実現に対応する)その他の全てのノイズ実現は、ターゲットとして使用される。あるいは、訓練中に、カウントレベルのそれぞれに対して、訓練ノイズ実現のうち1つ(例えば、完全に独立し、かつ等しく分配されるノイズ実現のうち1つ)が、低品質なデータセットとして使用され、また、(完全に独立し、かつ等しく分配されるノイズ実現に対応する)その他の全てのノイズ実現は、ターゲットとして使用される。図2Aは、N個のスタディのそれぞれでの、カウントレベルのうち1つに対するPairs(1, [2..K])の図による表現を示す。本明細書で使用する場合、用語Pairscountlevel=1(inputx, [targets])は、第1カウントレベル(カウントレベル=1を指す)での、Pairs(inputx, [targets])のペアを作成するプロセスで省略表現として使用される。M個のカウントレベルを用いる一実施形態では、システムは、スタディごとに、M個のペアの集合を利用することができ、これは、省略表現Pairscountlevel=1..M(inputx, [targets])で表される場合があり、また、N個のスタディのそれぞれに関して図2Aでは図を用いて示され、かつ図2Bでは、説明的に示されている。
同様に、他のノイズ除去用途では、複数のサブデータへの分割プロセスは、複数のノイズ実現を生成するために、シミュレートされたノイズを加えることによって置き換えることが可能である。
続いて、実施形態に係る医用画像処理装置においては、取得部により、ノイズ除去対象の第1の医用画像データを取得し、処理部により、第1の医用画像データと、上述の訓練により生成された学習済みモデルとに基づいて、第1の医用画像データがデノイズされた第2の医用画像データを生成する。また、実施形態に係る医用画像処理方法においては、
ノイズ除去対象の第1の医用画像データを取得し、第1の医用画像データと、上述の訓練により生成された学習済みモデルとに基づいて、第1の医用画像データがデノイズされた第2の医用画像データを生成する。
なお、ここで生成された学習済みモデルは、第1の医用画像データを、訓練時と同様に仮に複数のサブデータに分割したと仮定した場合の画素の平均値に対応する値を出力することでデノイズされた第2の医用画像データを生成するものになっている。ここで、ノイズは、第1の医用画像データを複数のサブデータに分割したと仮定した場合の複数のサブデータの画素の平均値(または中央値)を中心として分布すると考えられるので、これらの複数のサブデータの平均値のデータは、本来の画素値より画素値が大きくなるノイズと、本来の画素値より画素値が小さくなるノイズとが打ち消しあい、ノイズが小さくなったデータと考えられる。このため、当該学習済みモデルにより出力される第2の医用画像データは、ノイズが除去された高画質な画像となると考えられる。
代替的実施形態では、訓練サンプルの数をさらに増加させるために、各ノイズ実現は、ノイズが多い入力およびターゲットとして、入力とターゲットとを順次入れ替えつつ動作する場合がある。例えば、図3Aに示すように、スタディ(スタディ1からスタディN)のそれぞれでは、各スタディは、ノイズ実現1からノイズ実現Kを有し、DCNN訓練の際に、第1ノイズ実現(例えば、ノイズ実現1)は、低品質なデータセットとして使用され、また残りのノイズ実現(例えば、ノイズ実現2..K)は、ターゲットとして使用されるが、これは、Pairs(1, [2..K])によって実現される。次に、第2ノイズ実現(例えば、ノイズ実現2)が、低品質なデータセットとして使用され、また残りのノイズ実現(例えば、ノイズ実現1、およびノイズ実現3..K)が、ターゲットとして使用されるが、これは、Pairs(2, [1, 3..K])によって実現される。このパターンは、追加の訓練サンプルが必要な場合に、スタディのそれぞれに対する各ノイズ実現が、低品質なデータセットとして使用される(その一方で、残りのノイズ実現はターゲットである)ように繰り返される場合がある。すなわち、Pairs(1, [2..K])からPairs(K, [1..K-1])のそれぞれが使用される場合があり、これは、省略表現AllPairs(1, K)で表すことができる。換言すると、実施形態に係る医用画像処理装置においては、複数の第4の画像データであるノイズ実現1〜Kのうち一の画像データであるノイズ実現1とは異なる画像データでああるノイズ実現2等を入力データ、複数の第4の画像のうち当該異なる画像データ以外の画像データ(例えば、ノイズ実現1、3〜K)をターゲットデータとしてさらに訓練を行うことで学習済みモデルが生成される。
訓練向けにレトロスペクティブに既存の医用データを使用するために、十分な数の複数のノイズ実現に再構成するのに未処理リストモードデータが十分に長くない場合、各イベントが、一定の確率で置き換えられ、結果として生じる複数のノイズ実現間の相関関係が増加しているといった結果を伴って引き出されるように、「ブートストラップ」技法が使用されてもよい。例えば、「ブートストラップ」技法に従って、訓練向けに、5分データが、複数のカウントレベル、および訓練準備のできたノイズ実現(相関関係が増加した)、例えば、5(ノイズ実現)×1分、5×2分、5×3分、および/または5×4分データセットに再構成される。この方法により、訓練データセットの数を大幅に増やすことができ、これは、訓練で使用される高品質画像を必要とすることなく、既存のデータセットから生成することができる。
換言すると、実施形態に係る医用画像処理装置においては、前述の複数の第4の画像データは、複数のカウントレベルについて生成されたデータであり、複数のカウントレベルのそれぞれにおいて、入力データおよびターゲットデータを設定して訓練が行われることにより学習済みモデルが生成されてもよい。なお、実施形態に係る医用画像処理装置においては、当該複数の第4の画像データのうち前述の一の画像データとは異なる画像データであって、複数のカウントレベルのそれぞれで互いに異なる画像データを入力データ、複数の第4の画像データのうち当該異なる画像データ以外の画像データを出力データとしてさらに訓練を行うことにより学習済みモデルが生成されてもよい。
上述のように、全てのスタディは、最大カウントレベルに対してデータがペアにされる閾値期間よりそれら全てが長いのであれば、最初に同じ時間長である必要はない。例えば、5個のスタディがあり、かつ、それらが5分以上(例えば、5、6、5.5、7および6.5分)の間で動作するデータを有している場合、5分以下(例えば、1分、2分、3分、4分および5分)のデータセットに、元のデータが再構成されるのであれば、それら全てのスタディは使用することができる。
図4A、図4B、図4Cは、異なるコントラスト(5:1および3:1)の2つの肝臓病変を用いて挿入される実際の患者の18F−FDGスタディ(2分)に適用されたN2NENネットワークの例を示す。図4Aは、入力として2分間取得されたノイズの多いPET画像を示す。図4Bは、ターゲットとして、高品質画像を使用した8個の患者スタディを用いて訓練されたDCNNのノイズ除去結果を示す([Chan 2018:C.Chan、J.Zhou、L.Yang、W.Qi、J.KolthammerおよびE.Asma、「Noise Adaptive Deep Convolutional Neural Network for Whole−Body PET Denoising」、IEEE NSS/MIC Conference Record、2018年]を参照されたい)。図4Cは、1個のノイズ実現を別の4個のノイズ実現にマップすることによって訓練された、提案されるN2NENネットワークを示す。N2NENネットワークを使用した場合、病変の両方は維持されたままで、効率的にノイズが抑制されていることが分かる。
深層残留ネットワークアーキテクチャが、3つの訓練スキームで適用かつ比較されている。この際の3つのスキームとは、(1)高カウントターゲット訓練(HCターゲット)、(2)ノイズ・ツー・ノイズ(Noise2Noise:N2N)訓練、および(3)N2NEN訓練であった([Chan 2018]を参照)。
高カウントターゲット訓練(HCターゲット)に従って、18F−FDGスキャンの2ベッドに対する高カウントデータ(14分/ベッド)が、ターゲットとして使用された。高カウントリストモードデータは、ノイズの多いサンプルとして、ベッドごとに30秒から420秒の間で8個のカウントレベルに再構成(サブサンプリング)された。訓練データセットは、8個のこのような患者スタディで構成され、合計64のペアにされた訓練データセットを得た。
ノイズ・ツー・ノイズ(N2N)訓練に従って、1個の患者スタディが使用されて、14分リストモードデータが、ベッドごとに120秒、168秒、210秒の3カウントレベルに再構成された。カウントレベルのそれぞれに対して、1個のノイズ実現が、別のノイズ実現とペアにされて、合計3つの訓練ペアを得た。
ノイズ・ツー・ノイズ・アンサンブル(N2NEN)訓練に従って、同じ患者スタディが、120秒、168秒、および210秒を含む3個のカウントレベルに再構成された。カウントレベルのそれぞれに対して、4個の実現が生成された。この際、1個の実現が、ノイズの多い入力として使用され、また3個の他のノイズ実現が、ターゲットとして使用されて9つの訓練ペアを得た。
まず、14分/ベッドリストモードデータを2分/ベッドに再構成して、低いカウントデータを生成することによって、訓練の際に含まれなかった確証データセットで異なる訓練スキームが比較された。次に、4分/ベッドが2分/ベッドにさらに再構成されたものに対して取得された別の2つのテスト患者スタディで方法の全てが評価された。このテストデータセットでは、5:1のコントラストの10mmの肝臓病変が、患者の減衰マップと共にGeant4アプリケーション断層撮影照射(Geant4 Application for Tomographic Emission:GATE)を使用してシミュレートされた。シミュレートされた病変リストモードは、患者のリストモードデータと連結された。逐次部分集合期待値最大化法(Ordered Subset Expectation Maximization:OSEM)を使用して、3回の繰り返しと10個の部分集合を用いて全ての画像が再構成され、挿入された病変の病変コントラスト回復(Contrast Recovery:CR)対肝臓変動係数(Coefficient of Variation:CoV)が定量的評価のために測定された。再構成のそれぞれに対する4、6、および8全幅半値(Full Width Half Maximum:FWHM)でのガウスフィルタが、比較のために適用された。
図5は、確証患者スタディのサンプル体軸横断スライスを示す。ノイズ除去2分/ベッド画像が、参照としての14分/ベッドOSEM再構成と比較されている。スペックルノイズ50が、N2N結果に見られる。N2NENは、自然なノイズテクスチャを伴ってHCターゲット訓練と類似の結果を得ている。
図6は、シミュレートされた肝臓病変の中心のスライスを示している患者スタディ1(2分/ベッド)のサンプル体軸横断スライスを示す。N2Nは、スペックルノイズおよび歪んだ病変形状を得ている一方で、N2NENはHCターゲットノイズ除去と類似の結果を得ている。
図7Aおよび図7Bは、第1患者および第2患者に対して、それぞれシミュレートされた肝臓病変の病変CR対肝臓CoVを示す。ガウスフィルタリング(Gaussian Filtering:GF)の曲線が、4mmから8mmでFWHMを変化させることによって生成された。
結果を分析して、図5は、異なる方法で比較された確証スタディのサンプル体軸横断スライスを示している。N2Nノイズ除去は、ある程度のノイズをノイズ除去しているが、ノイズ除去された画像にはスペックルノイズが残っており、また、ノイズテクスチャがクラスタ化していることが分かる。対照的に、N2NENは、自然なノイズテクスチャを維持しながらHCターゲットノイズ除去よりも視覚的に滑らかな結果を得ている。さらに、図6は、シミュレートされた肝臓病変を用いる患者スタディ1のサンプル体軸横断スライスを示している。N2N結果では、スペックルノイズを観察することができ、また病変の形状が歪んでいるが、その一方で、HCターゲットおよびN2NENは、類似の結果を得ている。図7Aおよび図7Bは、CR対肝臓CoV測定値を示している。全ての訓練方法が、比較可能な肝臓CoVを得ていることが分かる。N2NENは、N2Nよりも高い病変コントラストを得ており同時に、HCターゲット訓練は、最良のパフォーマンスを得ており、これは、訓練中に非常に多くのデータセットが含まれることが要因である可能性がある。
結果は、訓練中に単一のスタディを使用している場合であっても、N2NEN訓練は、自然なノイズテクスチャを伴って(例えば、PET画像で)効率的にノイズを抑制し、それにより、訓練向けの高品質データを取得するといった要求タスクを著しく容易なものにすることができることを実証している。
上述のように、本明細書のプロシージャは、単一のカウントレベルまたは複数のカウントレベルを利用することができる。さらに、一実施形態では、訓練に使用されるカウントレベルの範囲は、臨床診療において一般的に使用されると予想されるものよりも広い。
本開示は、画像データ分割を実施し、かつ人工ニューラルネットワークを利用して類似の画像条件下で撮影される後の画像の画像データからノイズを除去する画像処理方法およびシステムに関し、かつ、一実施形態では、N個のスタディ(例えば、PETスキャンスタディ)からN個の画像データセットを処理し、かつN個のスタディのそれぞれに対して、N個の画像データセットをK個のデータセットに変換する画像処理方法およびシステムに関する。K個のデータセットは、次に、低品質なデータセットおよびターゲットデータセットにそれぞれ分割され、かつ類似の画像条件下で撮影される画像からノイズを除去するために、それら低品質なデータセットおよびターゲットデータセットを使用して、人工ニューラルネットワークが訓練される。
低品質入力から高品質画像を予測するニューラルネットワークの訓練の代わりに、ネットワークは、1つのノイズ実現を、その全てが同じ平均値を共有するノイズ実現のアンサンブルにマップするように訓練される。したがって、ニューラルネットワークは、解釈の平均値を出力するように学習し、それにより、より正確でロバストな解を得て、PET画像の複雑な空間的非定常ノイズ分布を捕捉することができる。
本明細書で記載する方法およびシステムは、いくつかの技術に実装することが可能であるが、概して、人工ニューラルネットワークを訓練および実装する処理回路に関する。一実施形態では、処理回路は、単独で、または特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、汎用の論理アレイ(Generic Array of Logic:GAL)、プログラマブル論理アレイ(Programmable Array of Logic:PAL)、(例えば、ヒューズを使用する)論理ゲートの1回限りのプログラムを可能にする回路、または再プログラマブル論理ゲートの組み合わせで実装される。さらに、処理回路は、コンピュータプロセッサを含む場合があり、コンピュータプロセッサを制御して、本明細書に記載される処理を実施するコンピュータ命令(バイナリ実行可能命令および/または解釈されたコンピュータ命令)を記憶する埋め込みおよび/または外部不揮発性コンピュータ可読メモリ(例えば、RAM、SRAM、FRAM(登録商標)、PROM、EPROMおよび/またはEEPROM)を有する。コンピュータプロセッサ回路は、各々が、シングルスレッドまたはマルチプルスレッドをサポートし、かつ各々がシングルコアまたはマルチコアを有する単一のプロセッサまたはマルチプロセッサを実装する場合がある。人工ニューラルネットワークを訓練するために使用される処理回路は、本明細書に記載される画像ノイズ除去を実施する訓練済み人工ニューラルネットワークを実装するために使用される処理回路と同じである必要はない。例えば、処理回路およびメモリが、訓練済み人工ニューラルネットワーク(例えば、相互接続および重みによって定義された)を作成するのに使用され、FPGAが、訓練済み人工ニューラルネットワークを実装するのに使用されてもよい。さらに、訓練済み人工ニューラルネットワークの訓練および使用には、性能を向上するために、シリアル実装形態またはパラレル実装形態(例えば、グラフィックプロセッサアーキテクチャなどのパラレルプロセッサアーキテクチャに訓練済みニューラルネットワークを実装することによって)を用いてもよい。
医用スタディ(例えば、PETスキャンデータセット)のデータセットの使用に関して、本明細書で一部の説明が行われてきたが、本発明は、医用画像の画像ノイズ除去に限定されず、他の種類の画像でのノイズ除去にも使用されてよい。
以上説明した少なくとも1つの実施形態によれば、画質を向上することができる。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
50 スペックルノイズ

Claims (9)

  1. ノイズ除去対象の第1の医用画像データを取得する取得部と、
    前記第1の医用画像データと、学習済みモデルとに基づいて、前記第1の医用画像データがデノイズされた第2の医用画像データを生成する処理部と、を備え、
    前記学習済みモデルは、第3の画像データを複数のサブデータに分割することにより、前記第3の画像データに対して複数の第4の画像データを生成し、前記複数の第4の画像データのうち一の画像データを入力データ、前記複数の第4の画像データのうち前記一の画像データ以外の画像データをターゲットデータとして訓練を行うことで生成される、
    医用画像処理装置。
  2. 前記学習済みモデルは、前記第1の医用画像データを複数のサブデータに分割したと仮定した場合の画素の平均値に対応する値を出力することでデノイズされた前記第2の医用画像データを生成する、請求項1に記載の医用画像処理装置。
  3. 前記学習済みモデルは、前記複数の第4の画像データのうち前記一の画像データとは異なる画像データを入力データ、前記複数の第4の画像データのうち前記異なる画像データ以外の画像データをターゲットデータとしてさらに訓練を行うことで生成される、請求項1に記載の医用画像処理装置。
  4. 前記複数の第4の画像データは、複数のカウントレベルについて生成されたデータであり、
    前記学習済みモデルは、前記複数のカウントレベルのそれぞれについて、前記入力データおよび前記ターゲットデータを設定して訓練を行うことで生成される、請求項1に記載の医用画像処理装置。
  5. 前記学習済みモデルは、前記複数の第4の画像データのうち前記一の画像データとは異なる画像データであって、前記複数のカウントレベルのそれぞれで互いに異なる画像データを入力データ、前記複数の第4の画像データのうち前記異なる画像データ以外の画像データを出力データとしてさらに訓練を行うことで生成される、請求項4に記載の医用画像処理装置。
  6. ニューラルネットワークを用いて前記学習済みモデルを生成する、請求項1〜5のいずれか一つに記載の医用画像処理装置。
  7. 前記ニューラルネットワークは、深層ニューラルネットワークである、請求項6に記載の医用画像処理装置。
  8. 第1の画像データを複数のサブデータに分割することにより、前記第1の画像データに対して複数の第2の画像データを生成し、前記複数の第2の画像データのうち一の画像データを入力データ、前記複数の第2の画像データのうち前記一の画像データ以外の画像データをターゲットデータとして訓練を行うことで生成される、
    学習済みモデル。
  9. ノイズ除去対象の第1の医用画像データを取得し、
    前記第1の医用画像データと、学習済みモデルとに基づいて、前記第1の医用画像データがデノイズされた第2の医用画像データを生成することを含む医用画像処理方法であって、前記学習済みモデルは、第3の画像データを複数のサブデータに分割することにより、前記第3の画像データに対して複数の第4の画像データを生成し、前記複数の第4の画像データのうち一の画像データを入力データ、前記複数の第4の画像データのうち前記一の画像データ以外の画像データをターゲットデータとして訓練を行うことで生成される、
    医用画像処理方法。
JP2020175955A 2019-10-20 2020-10-20 医用画像処理装置、学習済みモデルおよび医用画像処理方法 Pending JP2021065707A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962923593P 2019-10-20 2019-10-20
US62/923,593 2019-10-20
US17/013,104 2020-09-04
US17/013,104 US11961209B2 (en) 2019-10-20 2020-09-04 Noise to noise ensemble learning for pet and CT image and data denoising

Publications (1)

Publication Number Publication Date
JP2021065707A true JP2021065707A (ja) 2021-04-30

Family

ID=75492098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175955A Pending JP2021065707A (ja) 2019-10-20 2020-10-20 医用画像処理装置、学習済みモデルおよび医用画像処理方法

Country Status (2)

Country Link
US (1) US11961209B2 (ja)
JP (1) JP2021065707A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11540798B2 (en) 2019-08-30 2023-01-03 The Research Foundation For The State University Of New York Dilated convolutional neural network system and method for positron emission tomography (PET) image denoising
US20220138911A1 (en) * 2020-11-05 2022-05-05 Massachusetts Institute Of Technology Neural network systems and methods for removing noise from signals

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129987A (ja) 2014-01-06 2015-07-16 国立大学法人三重大学 医用高解像画像形成システムおよび方法。
US10685429B2 (en) * 2017-02-22 2020-06-16 Siemens Healthcare Gmbh Denoising medical images by learning sparse image representations with a deep unfolding approach
US11580410B2 (en) * 2018-01-24 2023-02-14 Rensselaer Polytechnic Institute 3-D convolutional autoencoder for low-dose CT via transfer learning from a 2-D trained network
EP3629240B1 (en) * 2018-09-07 2023-08-23 Panasonic Intellectual Property Corporation of America Generative adversarial networks for local noise removal from an image
US20210290191A1 (en) * 2020-03-18 2021-09-23 The Regents Of The University Of California Method and system for denoising ct images using a neural network

Also Published As

Publication number Publication date
US11961209B2 (en) 2024-04-16
US20210118098A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR102229853B1 (ko) 환자 특정적 딥러닝 이미지 잡음제거 방법들 및 시스템들
Liao et al. ADN: artifact disentanglement network for unsupervised metal artifact reduction
US11727569B2 (en) Training a CNN with pseudo ground truth for CT artifact reduction
Kang et al. Deep convolutional framelet denosing for low-dose CT via wavelet residual network
Zhang et al. Convolutional neural network based metal artifact reduction in x-ray computed tomography
US11610346B2 (en) Image reconstruction using machine learning regularizers
CN107610193B (zh) 使用深度生成式机器学习模型的图像校正
JP7187476B2 (ja) 深層学習に基づくトモグラフィ再構成
CN110461228B (zh) 使用多对比度和深度学习改进医学图像的质量
CN106683144B (zh) 一种图像迭代重建方法及装置
CN110728729B (zh) 一种基于注意机制的无监督ct投影域数据恢复方法
WO2018126396A1 (en) Deep learning based estimation of data for use in tomographic reconstruction
WO2016106990A1 (zh) Ct成像方法和系统
AU2019271915A1 (en) Method and system for motion correction in CT imaging
CN111815735B (zh) 一种人体组织自适应的ct重建方法及重建系统
Gajera et al. CT-scan denoising using a charbonnier loss generative adversarial network
JP2021065707A (ja) 医用画像処理装置、学習済みモデルおよび医用画像処理方法
CN111340903A (zh) 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统
KR20200025598A (ko) 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법
Bousse et al. Systematic review on learning-based spectral CT
Mangalagiri et al. Toward generating synthetic CT volumes using a 3D-conditional generative adversarial network
WO2022174152A1 (en) Generalizable image-based training framework for artificial intelligence-based noise and artifact reduction in medical images
US20230052595A1 (en) Deep learning-based image quality enhancement of three-dimensional anatomy scan images
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
KR102342954B1 (ko) 인공지능 기반의 단층촬영 영상 인공음영 제거 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240424