JP2022188750A - 画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体 - Google Patents

画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2022188750A
JP2022188750A JP2022081054A JP2022081054A JP2022188750A JP 2022188750 A JP2022188750 A JP 2022188750A JP 2022081054 A JP2022081054 A JP 2022081054A JP 2022081054 A JP2022081054 A JP 2022081054A JP 2022188750 A JP2022188750 A JP 2022188750A
Authority
JP
Japan
Prior art keywords
resolution
medical image
image
neural network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022081054A
Other languages
English (en)
Inventor
ツァイ リヤン
Liang Cai
ジョウ ジエン
Jian Zhou
ユウ ジョウ
Zhou Yu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2022188750A publication Critical patent/JP2022188750A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】画質を向上させること。【解決手段】実施形態に係る画像処理装置は、処理回路を備える。処理回路は、第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する。【選択図】図1

Description

本明細書及び図面に開示の実施形態は、画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体に関する。
医用イメージングにおける一貫した目標として、データ収集時間を短縮しつつ画質を高めることがある。このことは、放射線に基づく画像モダリティを用いる場合には緊急ともいえる課題である。被検体への放射線照射量を減らす簡単な(ただしデメリットのある)解決手段は画質の閾値を下げることである。このため、多くの手法によって、低解像度の医用画像を高解像度の医用画像に変換することにより、画像(または一連の画像)の取得に必要な放射線量を低下しつつ、画質の低下を伴う診断品質の低下を回避する、多くの方法が試みられている。
しかし、このような「超解像」法はあらゆる画像状況に適用できるわけではない。例えば、放射線に基づく手法には、画像解像度の空間的変動によって性能が落ちていくものがある。見落とされがちであるが、高画質を得るためにはこの空間的変動に対処する必要がある。また、この見落としによって、従来の超解像法が、画像解像度延いては画質を向上する一般的手法として適用されにくいものになっている。したがって、画像解像度を高める新たな手法が必要とされている。
米国特許出願公開第2007/0083114号明細書 米国特許出願公開第2014/0205166号明細書
本明細書及び図面の開示の実施形態が解決しようとする課題の一つは、画質を向上させることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
実施形態に係る画像処理装置は、処理回路を備える。処理回路は、第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する。
図1は、本開示の一実施形態例に係る、コンピュータ断層撮影画像を向上させる方法の例示的フローチャートである。 図2は、本開示の一実施形態例に係る、コンピュータ断層撮影画像を向上させる方法のフローチャートである。 図3は、本開示の一実施形態例に係る、コンピュータ断層撮影画像を向上させる方法のサブプロセスのフローチャートである。 図4は、本開示の一実施形態例に係る、コンピュータ断層撮影画像を向上させる方法の実施段階の例のフローチャートである。 図5は、本開示の一実施形態例に係る、コンピュータ断層撮影画像を向上させる方法のトレーニング段階のフローチャートである。 図6は、本開示の一実施形態例に係る、ニューラルネットワークのトレーニングのフローチャートである。 図7は、本開示の一実施形態例に係る、人工ニューラルネットワークの実施態様の概括的フローチャートである。 図8は、本開示の一実施形態例に係る、畳み込みニューラルネットワークの実施態様のフローチャートである。 図9Aは、フィードフォワード人工ニューラルネットワークの一例を示す図である。 図9Bは、本開示の一実施形態例に係る、畳み込みニューラルネットワークの一例を示す図である。 図10は、本開示の一実施形態例に係る、CTスキャナの一実施態様の模式図である。
以下、図面を参照しながら、画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体の実施形態について詳細に説明する。
本明細書で用いる用語「ある1つの」は1つ以上を意味するものとする。本明細書で用いる用語「複数」は2以上を指すものとする。本明細書で用いる用語「別の」は2番目以降を指すものとする。本明細書で用いる用語「含む」および/または「有する」は「備える」)と同義とする(すなわちオープンランゲージである)。本明細書全体を通して「一実施形態」、「所定の実施形態」、「ある実施形態」、「一実施態様」、「一実施例」、またはこれらと類似の用語が意味するのは、当該実施形態(実施態様、実施例)に関連して述べた特定の特徴、構造、または特性は本開示の少なくとも1つの実施形態に含まれるということである。したがって、本明細書全体を通して様々な箇所でこれらの表現が出現しても必ずしも全てが同じ実施形態を指すとは限らない。さらに、前記特定の特徴、構造、または特性は、制限されることなく任意の適当な方法で1つ以上の実施形態と組み合わせることができる。
コンピュータ断層撮影(Computed Tomography:CT)に係る場合、高空間解像度を有する医用画像が臨床治療従事者にとって好適である。空間解像度は、CTスキャナの形状、CT検出器の画素サイズ、回転ビューサンプリングレート、焦点、再構成アルゴリズムなどに基づいて決定される。画像収集時間と被検体への放射線露光とを低減するために、臨床治療従事者は、低解像度の医用画像を高解像度の医用画像に変換することによって診断品質の画像を形成する技術を探求してきた。
このために、いくつかの従来法では、サイノグラムドメインと画像ドメインとの両方で実行可能なプロセスである、「超解像」法がCTデータに適用されている。しかし、この超解像法を実施することは簡単ではなく、低情報画像から高解像度情報を得ることは未だきわめて困難である。このため、超解像はコンピュータビジョンの分野において何年にもわたって継続されている研究テーマとなっている。これまでの取組みは4つのカテゴリの超解像アルゴリズムに分類される。すなわち、予測モデルに基づくモデル、エッジに基づくモデル、画像統計に基づくモデル、および用例に基づくモデルである。最近、超解像が画像ドメインに関連していることから、畳み込みニューラルネットワーク(Convolution Neural Network:CNN)が異なるコンピュータビジョンの領域での超解像の問題に適用されるようになっている。CNNを用いて、異なるニューラルネットワークのフレームワークの下で低解像度画像を高解像度画像にマッピングすることができる。
一般に、高解像度画像が利用可能である場合、低解像度画像Iは以下の式(1)で表される劣化Dの出力値としてモデル化される。
Figure 2022188750000002
式中、Dは劣化マッピング関数を表し、Iは対応する高解像度画像であり、δは劣化プロセスのパラメータ(例えば、スケーリング係数やノイズなど)である。しかし、一般に、劣化プロセス(すなわち、Dおよびδ)は未知であり、(診断用医用画像の場合に想像できるような)低解像度画像のみが得られる。この場合、グラウンドトルースの高解像度画像Iyの高解像度近似Iy(ハット記号)を、以下の式(2)で示されるように低解像度画像Ixから得る必要がある(ブラインド超解像ともいわれる)。
Figure 2022188750000003
式(2)中、Fは超解像モデルで、θはFのパラメータを表す。
劣化のプロセスは不明で、様々な因子(例えば、圧縮アーチファクト、異方性劣化、センサノイズ、およびスペックルノイズなど)の影響を受けるが、劣化マッピングをモデル化する取組みは依然として行われている。ほとんどの取組みでは、以下の式(3)で示されるとおり劣化Dは単一のダウンサンプリング処理として直接モデル化される。
Figure 2022188750000004
式(3)中、↓はスケーリング係数sを用いたダウンサンプリング処理である。実際に、一般的な超解像用のほとんどのデータセットはこのパターンに基づいて構成され、もっともよく用いられるダウンサンプリング処理はアンチエイリアシングを伴う双三次補間である。しかし、他の取組みでは、劣化を数種の操作の組み合わせとしてモデル化している。すなわち、以下の式(4)が成り立つ。
Figure 2022188750000005
式(4)中、Iy(直積記号)kは、ブラーカーネルkと高解像度画像Iyとの畳み込みを表し、nσは標準偏差σを有する加算性白色ガウス雑音である。式(3)の単純な定義と比べて、式(4)の結合性劣化パターンは実際のケースに近く、超解像に対してメリットがより高いことが表されている。
このために、超解像の対象は以下の式(5)のように表される。
Figure 2022188750000006
式(5)中、L(Iy(ハット記号),Iy)は形成された高解像度画像Iy(ハット記号)とグラウンドトルース画像Iyとの間の損失関数を表し、Φ(θ)は正規化項で、λはトレードオフパラメータである。
深層学習に基づく超解像法はCTとの関連においても探求されてきた。これらの取組みにおいて、CT画像は自然画像として扱われ、深層学習に基づくニューラルネットワークはエンドツーエンドのマッピングアーキテクチャになっている。ある事例におけるデータによれば、深層畳み込みニューラルネットワークに基づく超解像法は、優れた画質を生成する(例えば、画像の解像度を高める)と共に、従来の方法と比べて処理速度が速く、結果として診断価値の高い高グレードの画像が形成される。
しかし、ほとんどのCTシステムでは、「ファンビーム」形状のために、低解像度画像と高解像度画像との内在的な空間解像度は正確には同じでない。例えば、「アイソセンタ」領域は周辺領域よりも多くサンプリングされるために情報量が多い。
したがって、前述の戦略のいずれが選択されるかに係らず、上記のような手法は、ハードウェアの制約によって導入される解像度の空間的変動を無視しがちであると理解できる。例えば、前述の式(4)は固定のブラーカーネルkを含んでいる。このような手法では、画像中の異なる領域でのぼけの違いを説明できない。言い換えると、この手法では、システムの点広がり関数の空間的変動を考慮に入れることができない。
多くの場合、あるシステムの点広がり関数の空間的変動を処理するもっとも簡単な方法はその変動を無視することである。シャープな中心部の形が画像全体にわたって変動しているが、ブロードな周辺部はおおよそ同一のままの回折限界のシステムを想像することができる。別の手法として、画像を分割して、各分割画像の点広がり関数(Point Spread Function:PSF)を局所的に処理することがある。これにより、各セグメントのPSFを一定とみなすことができる。この手順は好意的に表現しても冗長であり、かつそれらセグメントを結合したときに不連続性が生じる。このため依然として全ての必要な位置で満足のいくように点広がり関数を表す方法を見出す必要がある。
したがって、本開示は、点広がり関数の空間的変動を考慮しつつ、低解像度画像から高解像度画像を作成する方法を提供する。空間的に変動する点広がり関数を導入することによって、内在的な物理的性質情報を用いてニューラルネットワーク内で従来の手法を拡張することができる。
システムの点広がり関数を考慮して説明することができないことから、一般に従来のニューラルネットワークは空間的に変動する画像の解像度の向上には適用されない。言い換えると、そのようなニューラルネットワークは未だ効率が悪くて実施困難である場合があり、上記のような設定で適用できるニューラルネットワークを形成するには大量のトレーニングデータが必要になる。
本開示では、超解像フレームワークを、高解像度CT画像と低解像度CT画像との内在的な物理的関係を説明する方法と結合する。これにより、ニューラルネットワークの超解像フレームワークが、そのままではトレーニングデータベース内の低解像度画像によって制限される特徴依存性を減少しつつ、システムの点広がり関数(PSF)モデルを用いて所望の解像度の向上を学習する。さらに、超解像を1つのニューラルネットワークの内部の空間変動PSFと結合させることによって、計算負荷が減少し、処理速度が高まる。例えば、結合された1つのニューラルネットワークが、画像処理システムまたは他の計算システムのグラフィックスプロセッシングユニット(Graphics Processing Unit:GPU)上で実行されてもよい。
低空間解像度の画像と高空間解像度の画像との内在的なPSF関係は近似的にP(X)=Xで表される。Pは(式(1)で概示されたとおり)高解像度画像と低解像度画像との変換処理として扱われる。ここでPはPSFの空間変動モデルとしてもよいと理解することができる。逆に、本実施態様などにおいては、Xは未知である。したがって、低解像度画像と高解像度画像との関係はX=M(X)で表される。Mは低解像度画像と高解像度画像との間のマッピング処理である。いずれの場合も、処理PとMとは空間変動する。
一実施形態において、エンドツーエンドのネットワークトレーニングと対照的に、本開示のニューラルネットワークは、低解像度画像と高解像度画像との関係を決定する内在的な物理的性質を含んでいる。また、PとMとが空間変動することは明らかであるため、本提案のネットワーク構造は、異なるシステムにわたって一般化するためには特に有用である。本開示では、一般に適用できるニューラルネットワークを形成するために、未だ制御の難しい場合のある、計算負荷の高いトレーニングを必要とせず、マッピング処理MまたはPを介してニューラルネットワーク内に直接統合可能な、物理的性質に基づく内在的な解像度相違情報が与えられる。
以下、図面を参照する。図1は、CT画像の解像度を高める方法の例示的フローチャートである。図1の方法100はCTを参照して説明されるが、この技術は、空間変動PSFを有する、あらゆるイメージングモダリティや、診察などに適用できると理解することができる。
図1に、本開示の方法の高いレベル(抽象化されたレベル)での実施態様を示す。方法100のステップ105で、第1解像度を有する第1医用画像(本明細書では低解像度医用画像と呼ぶ)がイメージングモダリティから取得される。この低解像度医用画像は、被検体の身体の任意の領域かつ任意の視点からの2Dスライスまたは3D画像ボリュームであってもよい。一例では、低解像度医用画像は、イメージングモダリティとしてのCTスキャナから取得された低解像度CT画像である。
ステップ105で取得された低解像度CT画像は次に、方法100のサブプロセス110から始まるニューラルネットワーク130に送られる。低解像度CT画像(すなわち劣化画像)はニューラルネットワーク130の層の第1サブセット(以下、第1層サブセット)に送られ、CTスキャナのインスタンスのPSFの空間変動モデルに基づいて、第2解像度を有する第2医用画像(本明細書では中間画像または「粗」高解像度画像と呼ぶ)に変換される。すなわち、第1層サブネットは、固定値のパラメータにより構成される。
サブプロセス110については図2および図3を参照してより詳細に説明する。一実施形態において、第2医用画像の第2解像度は第1医用画像の第1解像度よりも高い。
方法100のサブプロセス110でニューラルネットワーク130の第1層サブセットによって形成された「粗」高解像度画像は、次に方法100のサブプロセス115でニューラルネットワーク130の層の第2サブセット(以下、第2層サブセット)に送られる。ニューラルネットワーク130の第2層サブセットは超解像法を含んでもよい。超解像法は、多層パーセプトロン手法またはU-net手法(多くの場合、これらの手法は医用画像の分割と分類とに用いられる)の構造を有していてもよい。すなわち、第2層サブネットは、例えば畳み込みニューラルネットワークに基づき、学習により更新されるパラメータにより更新される。ニューラルネットワーク130の第2層サブセットによって処理された後、第3解像度を有する第3医用画像(本明細書では「精細」高解像度画像とも呼ぶ)が形成される。すなわち、後述の図10に示される再構成装置1064に含まれる処理回路は、第1解像度を有する第1医用画像から第2医用画像を生成する第1層サブセットと、第2医用画像から第3解像度を有する第3医用画像を生成する第2層サブセットを含むニューラルネットワークを第1医用画像に適用し第3医用画像を出力する。一実施形態において、第3医用画像の第3解像度は第2医用画像の第2解像度より高い。
方法100のステップ120で、作成された方法100のサブプロセス115の「精細」解像度画像が医用観察および診断機能向けに出力される。
以下、図2を参照して方法100を方法200として説明する。方法200のステップ205で、劣化医用画像(例えば、CT画像)が取得される。本開示のニューラルネットワークが劣化画像に適用され、方法200がサブプロセス210から始まる。方法200のサブプロセス210で、ニューラルネットワークの第1層サブセットが劣化画像に適用される。この第1層サブセットは、ニューラルネットワーク中の1つ以上の層からなってもよい。第1層サブセットは、システムPSFの内在的かつ空間変動するモデルを用いて、低解像度画像(すなわちXLR)から「粗」高解像度画像(すなわちX* HR)を作成してもよい。すなわち、ニューラルネットワークの第1層サブネットは、点広がり関数の内在的物理的性質に基づくモデル、例えばガウス分布に基づくモデルなどの空間変動モデルに基づいて前記第2医用画像を作成する。「粗」高解像度画像は中間画像である。変換された「粗」高解像度画像は、イメージングシステムから導入された空間的変動を無くすための処理を受けているが、診断品質の高解像度画像とみなされるようにはアップサンプリングされていない。このアップサンプリングについては方法200のサブプロセス215を参照して説明する。言い換えると、「粗」高解像度画像によって、CTスキャナの所定の解像度限界を超えた画像が得られる。
一実施形態において、低解像度画像と「粗」高解像度画像との関係は明確であってもよい。例えば、この関係はX HR=M(XLR)で定義されてもよい。Mは低解像度画像と「粗」高解像度画像との間のマッピング処理である。この状況では、ニューラルネットワークの1つ以上の層における少なくとも1回の行列演算によって、低解像度画像は「粗」高解像度画像に直接変換される。
別の実施形態(図3を参照)では、低解像度画像と「粗」高解像度画像との関係は明確でなくてもよい。例えば、この関係はP(X* HR)=XLRで定義される。Pは低解像度画像と「粗」高解像度画像との間のマッピング処理であってもよい。この状況では、XHR *は反復的に解かれる。
例えば、PSFが既知であるので、Pは一組の線形方程式として表現され、「粗」高解像度画像は反復プロセスにより取得される。次にXHR *が、例えばヤコビ法によって解かれる。言い換えると、反復アルゴリズムは真のオブジェクトを推定すると共に、PSFモデルを用いて、観察データと直接比較可能な画像がどのように現れるかをシミュレートする。誤差のメトリックを用いて再びぼやけたデータの精度を判定する。また差分を用いて真のオブジェクトについてより正確な推定を行う。このプロセスは、適切な結果になるまで複数回繰り返される。当業者に自明のとおり、過剰な回数の反復は、アルゴリズムを観察データに過剰適合させることになると共に、疑似構造として現れる雑音を生じさせる。
これを解決するために、サブプロセス210のステップ311でのニューラルネットワークの第1層サブセットの入力層に入力された劣化医用画像の受け取りに続いて、システムPSF(P)の空間変動モデルに基づいて、サブプロセス210のステップ312で反復計算が行われて「粗」高解像度画像が形成されてもよい。この反復計算は加算と乗算とからなり、ニューラルネットワークの1つ以上の層内の一連の行列演算として実行されてもよく、以下の式(6)の計算を含んでいる。
Figure 2022188750000007
式(6)中、tは経験的に与えられる数で、kは反復回数である。実際には、計算速度を速めるように、限定された数の反復(例えば、5-6回の反復)が行われてもよい。あるいは、満足のいく結果を確認するために停止基準を定めてもよい。
一実施形態において、システムPSFであるPの空間変動モデルはガウス分布に基づくモデルまたは類似のモデルである。
一実施形態において、前述のとおり、上述の反復法は、ニューラルネットワークの第1層サブセット内の1つ以上のネットワーク層として実施される。例えば、この反復法は、畳み込み層、加算/減算層などの組み合わせで構成される。これらの方法(特に、内在的な物理的性質のPSF)をニューラルネットワーク内で統合することによって、GPUに利用可能な計算能力を用いつつ、ニューラルネットワークをより普遍的に用いることができる。
この他に、「精細」高解像度画像をぼかすことによって「粗」高解像度画像を得ることで推定「粗」高解像度画像を得ることもできる。ぼかした画像をXLRと比較して、両者間の補正更新を規定した後その補正更新を用いて以降の画像のためのより良好に推定されたX HRを作成する。
次いで「粗」高解像度画像がサブプロセス210のステップ313で出力されて、方法200のサブプロセス215でニューラルネットワークの第2層サブセットに送られてもよい。
図2に戻る。方法200のサブプロセス215で、ニューラルネットワークの第2層サブセットが作成された「粗」高解像度画像に適用されてもよい。一実施形態において、前記第2層サブセットは畳み込みニューラルネットワークに基づいてもよく、方法200のサブプロセス210で作成された「粗」高解像度画像から「精細」高解像度画像の推定像を作成するようにトレーニングされてもよい。ニューラルネットワークの第2層サブセットのトレーニングについては図5を参照して後に述べる。一実施形態において、前記第2層サブセットは超解像法に基づいて設計されてもよい。
例えば、図4に示すとおり、超解像法はU-netアーキテクチャに基づいていてもよい。別の例では、超解像法は、限定はしないが、超解像畳み込みニューラルネットワーク(Super-Resolution Convolutional Neural Network:SRCNN)と、高速超解像畳み込みニューラルネットワーク(Fast Super-Resolution Convolutional Neural Network:FSRCNN)と、超超解像(Very Deep Super Resolution:VDSR)とを含むグループから選択された、畳み込みニューラルネットワーク超解像法に基づいていてもよい。別の例では、超解像法は、特には超解像敵対的生成ネットワーク(Super-Resolution Generative Adversarial Network:SRGAN)などの、敵対的生成ネットワーク超解像法に基づいていてもよい。また別の例では、超解像法は、効率的サブピクセル畳み込みニューラルネットワーク超解像法(Efficient Sub-Pixel Convolutional Neural Network Super-Resolution Method:ESPCN)に基づいている。
方法200のサブプロセス215で作成された「精細」高解像度画像は方法200のステップ220に送られて、観察用および(適切であれば)診断用画像として出力される。
図4を参照して方法200の実施態様例を以下に述べる。最初に、劣化医用画像405がニューラルネットワーク430に受け取られる。劣化医用画像405は、ニューラルネットワーク430の第1層サブセット410に与えられ、システムPSFのモデルの空間変動の原因となる「粗」高解像度医用画像が上述の方法にしたがって形成される。「粗」高解像度医用画像は、ニューラルネットワーク430の第2層サブセット415に与えられる。第2層サブセット415は、超解像法を「粗」高解像度医用画像に適用して、診断観察に適した「精細」高解像度医用画像420を形成する。
一実施形態において、ニューラルネットワーク430の第2層サブセット415はU-netアーキテクチャ416に基づいている。
一例において、Uーnetアーキテクチャ416は、ダウンサンプリング経路(左側)とアップサンプリング経路(右側)とを有していてもよい。図4のイラスト化されたU-netアーキテクチャ416はニューラルネットワーク層、深さ、および特徴などに関するものであるため縮尺通りではない場合があると理解すべきであり、ニューラルネットワーク430の第2層サブセット415内で用いられる超解像法の種類を表しているに過ぎないと考えるべきものである。ダウンサンプリング経路は、典型的な畳み込みネットワークのアーキテクチャに倣ったものである。ダウンサンプリング経路は、2つの3×3の畳み込みであって、それぞれの後に正規化線形ユニット(Rectified Linear Unit:ReLU)と2×2のプーリング処理とが続く畳み込みからなる。畳み込みはパディングなしの畳み込みであってもよく、プーリング処理はstride=2の最大プーリング処理であってもよい。各ダウンサンプリングステップにおいて、特徴チャネルの数は2倍になっている。アップサンプリング経路の各ステップは、特徴チャネルの数を半分にする2×2の畳み込みが続く特徴マップのアップサンプリングと、収束経路から相応にトリミングされた特徴マップを有する連結操作と、それぞれの後にReLUが続く2つの3×3の畳み込みとからなる。トリミングが必要なのは、畳み込みの度に境界画素のロスが生じるためである。U-netアーキテクチャ416の最終層で、1×1の畳み込みを用いて各64成分の特徴ベクトルが所望の数のクラスにマッピングされる。合計して、本例のネットワークは23の畳み込み層を有している。
図5に、本開示の一実施形態例に係るニューラルネットワークとしての、畳み込みニューラルネットワークに基づくニューラルネットワークのトレーニングと最適化とを表すプロセス525のフローチャートを示す。使用されたニューラルネットワーク、すなわち人工ニューラルネットワークの種類はアプリケーションに応じて変化し得るが、特には残差ネットワークと、畳み込みニューラルネットワークと、エンコーダ/デコーダネットワークとである。
トレーニングの間に、ニューラルネットワーク530は、トレーニングデータ531から取得された劣化医用画像を入力データとして受け取り、「精細」高解像度医用画像532の推定像を出力データとして作成する。「精細」高解像度医用画像532の推定像は、基準すなわち目標高解像度医用画像533に対して最小にされてもよい。
一実施形態において、トレーニングデータ531は、被検体から取得された医用画像であってもよい。プロセス525は反復性であるため、トレーニングデータ531のある所定のインスタンスは被検体から取得されたある所定の医用画像を参照して記述されると理解できる。1つ以上の劣化医用画像と目標高解像度画像とが複数の被検体から取得される。あるトレーニングシナリオでは、マッチング用劣化医用画像と目標高解像度画像とが所定の被検体に対して利用可能かつ取得される。別のトレーニングシナリオでは、劣化医用画像だけが利用可能である。また別のトレーニングシナリオでは、目標高解像度医用画像が利用可能で、劣化医用画像はその目標高解像度医用画像から作成する必要がある。例えば、劣化医用画像を作成するために、目標高解像度医用画像をぼやかすか、またはノイズが目標高解像度医用画像に加えられる。ジェイペグ(Joint Photographic Experts Group:JPEG)および量子化アーチファクトを導入して劣化医用画像を作成することもできる。PSFの空間変動が考慮されていないと、合成劣化医用画像を作成するためにさらなる修正は必要でない。しかし、PSFの空間変動があらかじめ考慮されている場合は、一般化されたPSFを有する目標高解像度医用画像の畳み込みによって空間変動画像の解像度が与えられる。場合によっては、双一次補間または双三次補間などのアップサンプリング法を導入することができる。
ニューラルネットワーク530のトレーニング(特に、超解像法)は、トレーニングデータをニューラルネットワーク530の(入力層である)第1層サブセット510に与えることから始まる。一例において、第1層サブセット510と第2層サブセット515とを含む、ニューラルネットワーク530の1つ以上の層は隠れ層であってもよい。図3を参照して前述したとおり、第1層サブセット510は劣化医用画像を処理して「粗」高解像度医用画像を作成する。例えば、劣化医用画像と「粗」高解像度医用画像との関係は明確でなくてもよい。この関係はP(X HR)=XLRで定義されてもよい。Pは劣化医用画像と「粗」高解像度医用画像との間のマッピング処理である。したがって、X* HRは反復的に解かれる。この反復計算は、前述したとおり、システムPSF(P)の空間変動モデル(例えば、固有PSFモデル511)に基づいて実行されて「粗」高解像度医用画像が作成されてもよい。この反復計算は加算と乗算とからなり、以下の式(7)を計算することを含んでもよい。
Figure 2022188750000008
tは経験的に定められた数で、kは反復回数である。実際には、速度を速めるように、限定された数の反復だけが行われる。あるいは、満足のいく結果を確認するために停止基準を定めてもよい。
次に「粗」高解像度医用画像がニューラルネットワーク530の第2層サブセット515の「入力層」に与えられる。この「入力層」は、所定のサイズのフィルタによる畳み込みと活性化とを受ける。一実施形態例において、活性化はReLUである。次に、「入力層」の出力データすなわち特徴マップが、n層中の次の層(すなわち、次の隠れ層)の入力データとなる。第1後続層において、特徴マップが、例えば、畳み込み、バッチ正規化、およびReLUによる活性化を通じてさらに修正される。一実施形態において、次に第1後続層の出力特徴マップが第2後続層の入力特徴マップになる。第2後続層は、例えばプーリング層であって、前記特徴マップをダウンサンプリングして計算速度を高めるプーリング層である。第1後続層、第2後続層、および任意の数aの後続層がダウンサンプリングを表してもよいが、ニューラルネットワーク530の第2層サブセット515はさらに、ダウンサンプリング層は2層のみ存在するとの仮定の下で、「精細」高解像度医用画像を推定するために特徴マップをアップサンプリングする一連の層を備えてもよい。例えば、第2後続層がアップサンプリング処理を含み、第3後続層がコンカチネーションと畳み込みとを含み、さらに第4後続層がコンカチネーションと畳み込みとを含み得る。この場合、第4後続層の出力データが出力層の入力データになる。例えば、出力層は完全結合層であってもよく、所定のトレーニングデータについての推定「精細」高解像度医用画像532を表現してもよい。
一実施形態において、次に出力層からの推定「精細」高解像度医用画像532が、同時に取得されたおよび/または作成された目標高解像度医用画像533と比較されて、両者間の損失関数が最小になるようにされる。損失関数により、推定「精細」高解像度医用画像532と目標高解像度医用画像533との差異が評価されてもよい。ステップ534での損失関数の評価と得られた値の基準値との比較結果に応じて、基準が満たされて損失関数が最小にされた場合(すなわち、推定「精細」高解像度医用画像と目標高解像度医用画像との相違が許容できるものである場合)、ニューラルネットワーク530の第2層サブセット515は十分にトレーニングされて、未知の劣化データを用いて実行できる状態と判定される。あるいは、ステップ534で基準が満たされずかつ損失関数が最小にされていないと判定されると、プロセスはニューラルネットワーク530の第2層サブセット515に戻り、各層の重み/係数の更新が行われる。
一実施形態において、図5のステップ534が実行されると、損失関数は、目標高解像度医用画像533と推定「精細」高解像度医用画像532との相違によって単純に定義される。言い換えると、最適化関数は次の式(8)で定義される。
Figure 2022188750000009
この目的関数において、fθはニューラルネットワーク530の第2層サブセット515を定義し、Lは損失関数を定義し、XLR|P,MはPまたはMのいずれかによって処理された後の「粗」高解像度画像を表し、Θ(ハット)は損失関数Lを最小にするために最適化されるパラメータセットを定義している。
一例において、損失関数は、特に確率的勾配降下法などの、古典的深層学習最適化法を用いて最小化される。上述の損失関数については後節で詳細に述べる。
以下、図5のニューラルネットワークの第2層サブセットの反復トレーニングについて図6を参照してより詳細に説明する。当業者に自明のとおり、この説明は一般化され得るものである。
図6に、「精細」高解像度医用画像の推定の間に行われたニューラルネットワークの第2層サブセットのトレーニングプロセス625の一実施態様のフローチャートを示す。トレーニングプロセス625において、トレーニングデータデータベースからの代表データをトレーニングデータとして用いてニューラルネットワークの第2層サブセットをトレーニングする。ここで用語「データ」はトレーニング画像データベース中の1画像を指す。一例において、データとしてのトレーニング画像を用いて、オフラインのトレーニングプロセスにより多数のトレーニング画像であって、多種多様な被検体、条件、および身体領域を全体的に反映したCT医用画像、または特定の被検体、条件、および身体領域に特化して適合させたCT医用画像であってもよいトレーニング画像を用いてニューラルネットワークの第2層サブセットがトレーニングされる。CT医用画像は、低解像度医用画像と高解像度医用画像とに整合した画像であってもよい。
トレーニングプロセス625において、トレーニングデータベースがアクセスされて複数のデータセットが取得され、ニューラルネットワークの第2層サブセットが反復的に更新されて推定画像と目標画像との誤差(例えば、損失関数によって得られる値)が減少される。ここでニューラルネットワークの第2層サブセットを更新することは、ニューラルネットワークの第2層サブセットによって処理されたデータが、トレーニングデータから得た目標高解像度医用画像に次第に一致するように、ニューラルネットワークの第2層サブセットの各層で例えばネットワーク係数の値を反復的に更新することを含む。言い換えると、ニューラルネットワークの第2層サブセットによってトレーニングデータに示されたマッピングが推測され、コスト関数によって、グランドトルースデータから得たデータと、ニューラルネットワークの第2層サブセットの現在の反復の推定医用画像出力との不一致に関する誤差値が得られる。例えば、ある実施態様では、コスト関数が平均二乗誤差を用いて平均平方誤差を最小にする。多層パーセプトロン(Multilayer Perceptron:MLP)ニューラルネットワークの場合は、誤差逆伝播法アルゴリズムを用いて、(確率的)勾配降下法により平均二乗誤差に基づくコスト関数を最小にすることによって、ネットワークをトレーニングする。以下、図7を参照してネットワーク係数の更新をより詳細に説明する。
ニューラルネットワークのモデルのトレーニングは、基本的に、コスト基準(すなわち、コスト関数を用いて算出された誤差値)を最小にする、許容モデルのセットから1つのモデルを選択すること(または、ベイジアンフレームワークでは、許容モデルのセットにわたる分散を決定すること)を意味する。一般に、ニューラルネットワークの第2層サブセットは、ニューラルネットワークのモデルを(例えば、最適化理論と統計的推定とを適用することによって)トレーニングする厖大なアルゴリズムのいずれかを用いてトレーニングされる。
例えば、最適化関数を最小にするためのニューラルネットワークの第2層サブセットのトレーニングに用いた最適化法は、誤差逆伝播法を含むある種の勾配降下法を用いて実際の勾配を計算する。この計算は、ネットワークパラメータに関する損失関数の導関数を取り上げ、次いで当該ネットワークパラメータを勾配関連方向に変化させることによって行われる。誤差逆伝播法トレーニングアルゴリズムとして、最急降下法(例えば、可変学習レートを用いた方法、可変学習レートおよびモメンタムを用いた方法、および弾力的誤差逆伝播法など)、準ニュートン法(例えば、ブロイデンフレッチャーゴールドファーブシャンノ法、ワンステップ割線、およびレーベンバーグマーカート法など)、または共役勾配法(例えば、Fletcher-Reevesアップデート、Polak-Ribiereアップデート、Powell-Bealeリスタート、およびスケール共役勾配法など)がある。さらに、遺伝子発現プログラミング、焼きなまし法、期待値最大化法、ノンパラメトリック法、および粒子群最適化法などの発展的方法もまた、ニューラルネットワークの第2層サブセットのトレーニングに使用される。
再び図6を参照する。このフローチャートは、トレーニングデータを用いてニューラルネットワークの第2層サブセットをトレーニングするトレーニングプロセス625の一実施態様の非限定的例である。トレーニングデータのデータは、トレーニングデータベース内のトレーニングデータセットのいずれかから得られたデータである。
トレーニングプロセス625のステップ680で、ニューラルネットワークの第2層サブセットの係数の初期推定が行われる。例えば、初期推定は、イメージングされる領域についての先験的知識、または1つ以上の例示的ノイズ除去法、エッジ検出法、および/またはブロッブ検出法に基づくものである。さらに、初期推定は、ルカン初期化、ザビエル初期化、およびKaiming初期化のいずれかに基づくものである。
ステップ681~685は、ニューラルネットワークの第2層サブセットをトレーニングする最適化方法の非限定的例を示している。トレーニングプロセス625のステップ681で、目標高解像度医用画像と高解像度医用画像の推定をインスタンス化した画像との間の相違の測度(例えば、距離測度)を表す誤差が(例えば、損失関数またはコスト関数を用いて)計算される。この誤差は、任意の既知の損失関数、または前述のコスト関数を含む、画像データ間の距離測度を用いて計算される。さらに、ある実施態様では、誤差関数および/または損失関数を、ヒンジ損失と交差エントロピ損失とのいずれかまたは両方を用いて計算される。一例では、損失関数は、ニューラルネットワークの第2層サブセットの出力と目標高解像度医用画像との平均二乗誤差、すなわち次の式(9)で定義される。
Figure 2022188750000010
式(9)中、HRtargetは目標高解像度医用画像のトレーニングデータ、HRestはニューラルネットワークの第2層サブセットによって作成された高解像度医用画像の推定、nはトレーニングされる被検体の数である。前述したとおり、この損失は、特に確率的勾配降下法などの、最適化法を用いて最小にされる。
さらに、損失関数を正規化手法と組み合わせて、ネットワークがトレーニングデータ中に表れた特定のインスタンスに過剰適合することを避けることができる(式(5)と同様)。また、正規化により、機械学習問題における過剰適合を防ぐことができる。過剰に長くトレーニングされて、モデルが十分な表現力を有するようになると、ネットワークは当該データセットに特有の特徴を学習するようになる。これを過剰適合と呼ぶ。過剰適合の場合、ニューラルネットワークの第2層サブセットは一般化されにくくなり、データセット間での特徴の変化のために変動が大きくなる。バイアスと変動との合計が最小になると、合計誤差は最小になる。したがって、トレーニングデータ中の特徴に特有の解ではなく、トレーニングされたネットワークが一般解を表す尤度を最大にする、可能なもっとも簡単な方法でデータを説明する極小値に達することが望ましい。この目標は、例えば、早期停止、重みの正規化、lasso正規化、リッジ正規化、またはエラスティックネット正規化によって達成される。
ある実施態様では、ニューラルネットワークの第2層サブセットが誤差逆伝播法を用いてトレーニングされる。誤差逆伝播法はニューラルネットワークのトレーニングに使用可能な方法で、勾配降下最適化法と併せて用いられる。フォワードパスの間に、このアルゴリズムは、例えば重み/係数などの、現在のパラメータに基づいてネットワークの予測行列を計算する。次に推定高解像度医用画像が損失関数に入力されて、対応するグラウンドトルースデータ(すなわち、目標高解像度医用画像)と比較される。バックワードパスの間に、このモデルは、現在のパラメータに対する損失関数の勾配を計算し、その後所定サイズのステップサイズを損失を最小にする方向にとることによって、パラメータ(すなわち、Θ)を更新する(例えば、ネステロフの加速勾配法および様々な適応的手法などの加速手法においては、ステップサイズはより迅速に収束して損失関数を最適にするように選択される)。
誤差逆伝播法が実行される最適化法では、勾配降下法、バッチ勾配降下法、確率的勾配降下法、およびミニバッチ確率的勾配降下法の内の1つ以上が用いられる。さらに、この最適化法は、深層ネットワークにおいて確率的勾配降下法のより高速な収束率が得られる、最適化法における1つ以上のモメンタムアップデート手法を用いて加速される。該モメンタムアップデート手法として、例えば、ネステロフのモメンタム手法、または適応型劣勾配法、適応型劣勾配法のAdadeltaまたはRMSPropパラメータのアップデートバリエーション、およびAdam適応型最適化手法などの適応的手法がある。この最適化法では、ヤコビ行列をアップデートステップに組込むことによって二次手法を適用することもある。
フォワードパスとバックワードパスとが、ニューラルネットワークの第2層サブセットの各層を介して累進的に実行される。フォワードパスでは、この実行は、第1層を介して入力データを送り、それにより次層のための出力活性化を作成することで始まる。このプロセスは、最終層の損失関数に到達するまで繰り返される。バックワードパスの間、最終層は、それ自身の学習可能なパラメータがある場合はそのパラメータに対する勾配と、前の層の上流導関数として機能する、それ自身の入力データとに対する勾配とを計算する。このプロセスは、入力層に到達するまで繰り返される。
図6に示した非限定的例に戻る。トレーニングプロセス625のステップ682では、誤差の変化が、ニューラルネットワークの第2層サブセットのパラメータの変化の関数と決定される。デルタ誤差(例えば、誤差勾配)が計算され、この誤差の変化を用いて、ニューラルネットワークの第2層サブセットの重み/係数の次の変化の方向とステップサイズとが選択される。このような誤差の勾配の計算は、ある実施態様での勾配降下最適化法に一致する。他の実施態様では、当業者に自明のとおり、このステップは、省略される、かつ/または他の最適化アルゴリズム(例えば、焼きなまし法や遺伝的アルゴリズムのような非勾配降下最適化アルゴリズム)による他のステップに置換される。
トレーニングプロセス625のステップ683で、新しい係数のセットがニューラルネットワークの第2層サブセットに対して決定される。例えば、勾配降下最適化法または過剰緩和加速法と同様に、ステップ682で算出された変化を用いて重み/係数が更新される。
トレーニングプロセス625のステップ684で、ニューラルネットワークの第2層サブセットの更新された重み/係数を用いて新しい誤差値が算出される。
トレーニングプロセス625のステップ685で、所定の停止基準を用いて、ニューラルネットワークの第2層サブセットのトレーニングが完了したかどうかが判定される。例えば、所定の停止基準は、新たな誤差および/または実行された反復の総数が所定の値を越えているかどうかを評価することである。例えば、この停止基準は、新たな誤差が所定の閾値を下回る場合、または最大反復数に達した場合のいずれかの場合に満たされる。停止基準が満たされない場合、トレーニングプロセス625で実行されるトレーニングプロセスは、ステップ682に戻って新しい重みと係数とを用いてステップ682を繰り返すことにより反復ループを再開する(反復ループはステップ682と、683と、684と、685とを含む)。停止基準が満たされると、トレーニングプロセス625で実行されるトレーニングプロセスは完了する。
図7と図8とはそれぞれ、トレーニングプロセス625に従うニューラルネットワークの第2層サブセットの一部の実施態様のフローチャートである。図7は、フィードフォワード人工ニューラルネットワーク(Artificial Neural Network:ANN)の、例えば、完全結合層を含む、あらゆる種類の層に対して一般化された図である。これに対し、図8は、CNNと本記載のニューラルネットワークの第2層サブセットとに見られるような、畳み込み層と、プーリング層と、バッチ正規化層と、ReLu層とに特化された図である。図8は、本記載のニューラルネットワークの第2層サブセットの一部のみを表したもので、ニューラルネットワークの第2層サブセットのアップサンプリング経路は別途実施されるべきであることを理解されたい。
ステップ787で、ニューロン(すなわちノード)間の接続に対応する重み/係数が、例えばトレーニング画像の画素に対応する各入力データに与えられる。
ステップ788で、重み付け入力データが合算される。次層の所定のニューロンに接続している非ゼロの重み/係数だけが前の層に表れた画像中に局在している場合、ステップ787とステップ788との組み合わせは本質的に畳み込み処理を行うことに等しい。
ステップ789で、閾値がそれぞれのニューロンの加重和に与えられる。
プロセス790で、重み付け、加算、および閾値処理の諸ステップが後続の層毎に繰り返される。
図8は、トレーニングプロセス625に従うニューラルネットワークの第2層サブセットの一部の別の実施態様のフローチャートである。図8に示したトレーニングプロセス625の実施態様は、ニューラルネットワークの第2層サブセットの非限定的実施態様を用いて隠れ層でトレーニング画像を処理することに対応している。
ステップ891で、当業者の畳み込み層についての理解に基づいて、前述したとおりに畳み込み層についての計算が行われる。
ステップ892で、当業者に自明のとおり、前の層の出力の変動を考慮に入れるために、次の畳み込みである、バッチ正規化が行われる。
ステップ893で、当業者が理解するところのものである活性化に従って、前述の活性化の説明のとおりに次のバッチ正規化である活性化が行われる。一例では、活性化関数は正規化活性関数、すなわち、例えば、前述のReLUである。
別の実施態様では、ステップ893のReLU層がステップ892のバッチ正規化層の前に実行されてもよい。
ステップ894で、バッチ正規化と活性化とに続いて、畳み込み層からの出力データがプーリング層への入力データになり、プーリング層は、当業者のプーリング層についての理解に基づいて前述のプーリング層の説明のとおりに実施される。
プロセス895で、畳み込み層、プーリング層、バッチ正規化層、およびReLU層についての諸ステップの全部または一部(所定数の層)が繰り返される。上述の諸層に続いて(または入り交じって)、ReLU層からの出力データが、「アップサンプリング経路」内の所定数の層に送られる。
図9Aと図9Bとはそれぞれ、ニューラルネットワーク内で、特にニューラルネットワークの第2層サブセット内の層間の相互接続の例を示した図である。ニューラルネットワークの第2層サブセットは、前述および後述の、完全結合層、畳み込み層、プーリング層、バッチ正規化層、活性化層、コンカチネーション層、およびアップサンプリング層を含む。ニューラルネットワークの第2層サブセットの好適な実施態様において、畳み込み層は入力層に近接して置かれ、アップサンプリング層と高度な推論を行う完全結合層とは損失関数に向かってアーキテクチャの下流側に置かれる。プーリング層は畳み込み層の後に挿入されており、ダウンサンプリング経路上に位置するときにフィルタの空間範囲を狭める縮小を行って学習パラメータの量を減少させる。バッチ正規化層は、外れ値に対する勾配の乱れを調整して学習プロセスを加速する。さらに活性化関数を様々な層中に組込んで非線形性を導入することでネットワークに複雑な予測関係を学習させることができる。活性化関数として、飽和活性化関数(例えば、シグモイド活性化関数または双曲線正接活性化関数)または正規化活性化関数(例えば、前述のReLU)がある。コンカチネーション層およびアップサンプリング層もまたアップサンプリング経路に含まれる。
図9Aは、N個の入力層と、K個の隠れ層と、3つの出力層とを有する一般的な人工ニューラルネットワーク(ANN)であって、その構成要素が本明細書に包含される場合がある人工ニューラルネットワークの一例を示す図である。各層は複数のノード(ニューロンとも呼ばれる)で構成され、各ノードは入力データの加重和を求め、その加重和の結果を閾値と比べて出力データを作成する。ANNは、関数のクラスであって、該クラスのメンバーは、閾値、結合重み、またはノードの数および/または連結度などのアーキテクチャの特徴を変化させることによって取得される、関数のクラスを構成する。ANN内のノードはニューロン(またはニューロンノード)とも呼ばれる。ニューロンはANNシステムの異なる層間の相互連結部を有している。もっとも単純なANNは3つの層を有するものでオートエンコーダと呼ばれる。本開示のニューラルネットワーク(特にニューラルネットワークの第2層サブセット)は4層以上のニューロンを有すると共に、入力ニューロンと同数の出力ニューロンxN(チルダー)を有している(Nは、例えばトレーニング画像中の画素数である)。シナプス(すなわち、ニューロン間の連結部)は、計算においてデータを処理する、「重み」(「係数」または「重み付き係数」とも呼ぶ)と呼ばれる値を保存する。ANNの出力データは、3種類のパラメータすなわち、(1)異なるニューロン層間の相互連結パターン、(2)相互連結の重みを更新する学習プロセス、(3)ニューロンの重み付き入力をその出力活性化に変換する活性化関数、に依存するデータである。
数学的には、ニューロンのネットワーク関数m(x)は複数の他の関数ni(x)の合成として定義される。該他の関数がさらに他の関数の合成としても定義されることもある。このことは、図9Aおよび図9Bに示すとおり、変数間の依存性を表す矢印を用いて、ネットワーク構造として好便に表現できる。例えば、ANNは、m(x)=K(Σiwini(x))である、非線形加重和を用いる。K(一般に活性化関数と呼ぶ)は、双曲線正接などの、ある所定の関数である。
図9Aにおいて(同様に図9Bにおいて)、ニューロン(すなわちノード)は、閾値関数の周囲の円で描かれている。図9Aに示した非限定的例では、入力層は線形関数の周囲の円で描かれ、矢印はニューロン間の有向通信を表す。ある実施態様では、ニューラルネットワークの第2層サブセットはフィードフォワードネットワークである。
本開示のニューラルネットワークの第2層サブセットは、特定のタスクであって、一連の観察結果を用いて、学習する関数Fのクラス内をサーチすることによって高解像度医用画像を推定して、何らかの意味で(例えば、前述の停止基準で)最適に前記特定のタスクを解決する、m*∈Fを見出すことなどの、タスクを行うように動作する。例えば、ある実施態様では、このことは、最適解m*の場合、すべてのm∈Fに対して、C(m*)≦C(m)(すなわち、最適解のコストより少ないコストの解はない)であるように、損失関数C:F→mを定義することによって達成される。コスト関数Cは、解決すべき問題(例えば、誤差)に対する、ある特定の解が最適解からどれだけ離れているかの基準になる。学習アルゴリズムは、解空間中を反復的にサーチして、可能な最小のコストを有する関数を見出す。ある実施態様では、コストはデータ(すなわちトレーニングデータ)のサンプルによって最小にされる。
図9BはCNNの非限定的例を示している。CNNは、画像処理に対して好便な性質を有するANNの一種であるため、画像処理のアプリケーションに特に適している。CNNは、フィードフォワードANNであって、ニューロン間の連結性パターンが画像処理における畳み込みを表しているフィードフォワードANNを用いている。例えば、CNNは、受容野と呼ばれる、入力画像の部分を処理する、複数層の細かいニューロンの集合体を用いることによって、画像処理の最適化に使用される。次いでこれらニューロン集合体の出力データがオーバラップするようにタイル状に配置されて、元の画像がより良好に表示されるようにされる。この処理パターンは、図示のように、畳み込み層991とプーリング層994とを有する複数の層にわたって繰り返され、バッチ正規化層と活性化層とを含む。
以上概括したとおり、CNNは、畳み込み層991の後に、畳み込み層中のニューロンクラスタの出力データを結合する、局所的および/または包括的なプーリング層994を含む。さらに、ある実施態様では、CNNは、各層の終端または後に点別の非線形性を付与された、畳み込み層と全結合層との様々な組み合わせを含む。
本開示の一実施形態によれば、前述の被検体固有のイメージングプロトコルでの方法は、CT装置またはCTスキャナからのデータに適用されつつ実行される。図10に、CT装置またはCTスキャナに設けられたラジオグラフィガントリの一実施態様を示す。図10に示すとおり、ラジオグラフィガントリ1050(側面視で表されている)は、X線管1051と、環状フレーム1052と、多列すなわち2次元アレイ方式のX線検出器1053とを備えている。X線管1051とX線検出器1053とは、回転軸RAの周囲で回転可能に支持された、環状フレーム1052上の被検体OBJを挟んで反対位置に搭載されている。被検体OBJが軸RAに沿って(図示の頁に対して垂直方向に)移動させられる間に、回転ユニット1057が環状フレーム1052を0.4秒/回転といった高速で回転させる。
本発明に係るX線CT装置の一実施形態を添付図面を参照して以下に述べる。なお、X線CT装置として様々な種類の装置があり、例えば、回転/回転型装置であって、X線管とX線検出器とが検査対象の被検体の周囲を同時に回転する装置、および固定/回転型装置であって、多数の検出素子がリング状または平面状に並んで、X線管だけが検査対象の被検体の周囲を回転する装置がある。本発明はいずれの種類にも適用可能である。ここでは、現在主流である回転/回転型装置を例に挙げて説明を行う。
このマルチスライス型X線CT装置はさらに高電圧発生器1059であって、X線管1051がX線を発生するようにスリップリング1058を介してX線管1051に印加される管電圧を発生する高電圧発生器1059を備えている。X線は、被検体OBJ(断面領域を円で表す)に向けて放出される。例えば、X線管1051が第1スキャンの間に有する平均X線エネルギは第2スキャンの間に有する平均X線エネルギより小さい。したがって、異なるX線エネルギに対応する2つ以上の走査像が得られる。X線検出器1053は被検体OBJを挟んでX線管1051の反対側に位置して被検体OBJを透過した放出X線を検出する。X線検出器1053はさらに個別の検出器素子またはユニットを備えており、光子計数型検出器であってもよい。第4世代の形状システムでは、X線検出器1053は、被検体OBJの周囲に360度配置で配列された複数の検出器の内の1つであってもよい。
さらにCT装置はX線検出器1053からの検出信号を処理する他の装置を備えている。データ取得回路すなわちデータ取得システム(Data Acquisition System:DAS)1054がチャネル毎にX線検出器1053から出力された信号を電圧信号に変換し、その電圧信号を増幅し、さらに増幅された信号をデジタル信号に変換する。X線検出器1053とDAS1054とは、所定の1回転当たりの投影総数(Total Number of Projections per Rotation:TPPR)を処理するように構成される。
前述のデータは、非接触データ送信器1055を介して、ラジオグラフィガントリ1050の外部のコンソールに収容された前処理装置1056に送られる。前処理装置1056は、感度補正などの補正を未処理データに施す。メモリ1062が、得られたデータ(再構成処理の直前の段階では投影データとも呼ばれる)を保存する。メモリ1062は、再構成装置1064、入力装置1065、および表示装置1066と共に、データ/制御バス1061を介してシステムコントローラ1060に接続されている。システムコントローラ1060は、電流をCTシステムの駆動に十分なレベルに制限する電流調整器1063の制御を行う。
検出器は、CTスキャナシステムの様々な世代間で被検体に対して回転および/または固定されてきた。一実施態様において、前述のCTシステムは、第3世代形状システムと第4世代形状システムとを組み合わせたシステムの一例である。第3世代システムでは、X線管1051とX線検出器1053とは環状フレーム1052上の反対位置に搭載され、環状フレーム1052が回転軸RAの周囲を回転するのに伴い被検体OBJの周囲を回転するようになっている。第4世代形状システムでは、検出器は被検体の周囲に固定され、X線管が被検体の周囲で回転する。別の実施形態では、ラジオグラフィガントリ1050が、Cアームとスタンドとに支えられた環状フレーム1052上に配列された複数の検出器を備えている。
メモリ1062は、X線検出器1053の位置のX線の放射強度を表す測定値を保存する。さらに、メモリ1062は、本記載のCT画像再構成方法と「精細」高解像度医用画像推定方法とを実行するための専用プログラムを保存する。
再構成装置1064は、前述した本記載の方法を実行する。再構成装置1064は、1つ以上の最適化画像再構成パラメータに応じて再構成を行う。さらに、再構成装置1064は、ボリュームレンダリング処理および必要に応じて画像差分処理などの、事前再構成処理画像処理を実行してもよい。
前処理装置1056によって行われる投影データの事前再構成処理には、例えば、検出器のキャリブレーションと、検出器の非直線性と、極性効果とを補正することが含まれている。
再構成装置1064によって行われる再構成後処理には、画像のフィルタリングおよびスムージングと、ボリュームレンダリング処理と、必要に応じて画像差分処理とが含まれている。画像再構成処理は、上記導出された最適画像再構成パラメータを実施してもよい。画像再構成処理は、フィルタ逆投影法、反復画像再構成法、または確率的画像再構成法を用いて実行される。再構成装置1064はメモリを用いて、例えば、投影データ、順投影トレーニングデータ、トレーニング画像、無修正画像、キャリブレーションデータ並びにパラメータ、およびコンピュータプログラムを保存する。
再構成装置1064は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、または他の結合プログラム可能論理回路(Complex Programmable Logic Device:CPLD)となる、ディスクリートのロジックゲートとして実装される中央演算処理装置(Central Processing Unit:CPU)(処理回路)を含む。FPGAまたはCPLDの実装は、VHDL、Verilog、または他のハードウェア記述言語でコード化されてもよく、そのコードはFPGAまたはCPLDに内蔵された電子メモリ、または別体の電子メモリに保存されてもよい。さらに、メモリ1062は、ROM、EPROM(登録商標)、EEPROM(登録商標)、またはフラッシュメモリ(登録商標)などの不揮発性メモリであってもよい。メモリ1062はスタティックRAMまたはダイナミックRAMなどの揮発性メモリでもよい。また、マイクロコントローラまたはマイクロプロセッサなどのプロセッサを設けて電子メモリの制御並びにFPGAまたはCPLDとメモリとの相互作用の制御を行ってもよい。一実施形態において、再構成装置1064は、CPUと、再構成画像を処理して形成するグラフィックスプロセッシングユニット(GPU)とを備えている。GPUは、CPUとリソースを共有する専用グラフィックスカードまたは統合グラフィックスカードであってもよく、NVIDIA(登録商標) Tesla(登録商標)やAMD(登録商標) FireStream(登録商標)などの、様々な人工知能に特化したタイプのGPUの1つであってもよい。
あるいは、再構成装置1064内のCPUが、本記載の機能を実行する、一組のコンピュータ可読命令を含むコンピュータプログラムであって、前述の非一時的電子メモリのいずれか、および/またはハードディスクドライブ、CD、DVD、フラッシュドライブ、または任意の他の公知の記憶媒体に保存されたプログラムを実行する。さらに、コンピュータ可読命令はユーティリティアプリケーション、バッググラウンドデーモン、オペレーティングシステムのコンポーネント、またはそれらの組み合わせとして与えられ、米国インテル(登録商標)製のXeon(登録商標)プロセッサや米国AMD(登録商標)製のOpteron(登録商標)プロセッサなどのプロセッサ、並びにマイクロソフト(登録商標)Windows(登録商標)10、UNIX(登録商標)、Solaris(登録商標)、LINUX(登録商標)、Apple(登録商標)、MAC-OS(登録商標)およびその他の当業者に公知のオペレーティングシステムとの協働で実行されてもよい。さらに、CPUは、並列協調動作により命令を実行する複数プロセッサとして実装されることもある。
一実施態様において、再構成画像は表示装置1066に表示される。表示装置1066は、LCDディスプレイ、CRTディスプレイ、プラズマディスプレイ、OLED、LED、または当業者に周知の任意の他の表示装置である。
メモリ1062は、ハードディスクドライブ、CD-ROMドライブ、DVDドライブ、フラッシュドライブ、RAM、ROM、または当業者に公知の他の各種電子記憶装置である。
上記の知見を鑑みて多くの修正と変形とがあり得ることは明らかである。したがって、添付した請求項の範囲内で、本明細書に具体的に述べた態様以外の態様で本発明を実施可能であると理解されたい。
本開示の実施形態は、以下の付記に示すように定められてもよい。
(1)コンピュータ断層撮影の画像の解像度を高める装置であって、第1解像度を有する第1医用画像を受け取り、第1層サブセットとそれに続く第2層サブセットとを含むニューラルネットワークであって、前記ニューラルネットワークの第1層サブセットは、前記第1医用画像から第2解像度を有する第2医用画像を作成するように構成され、前記ニューラルネットワークの第2層サブセットは、前記第2医用画像から第3解像度を有する第3医用画像を作成するように構成される前記ニューラルネットワークを前記第1医用画像に適用し、前記第3医用画像を出力するように構成された処理回路を備え、前記第1解像度は前記第2解像度より低く、前記第2解像度は前記第3解像度より低い、装置。
(2)(1)記載の装置において、ニューラルネットワークの第1層サブセットは、点広がり関数の内在的な物理的性質に基づくモデルに基づいて第2医用画像を作成する、装置。
(3)(1)または(2)に記載の装置において、点広がり関数の内在的な物理的性質に基づくモデルは空間変動モデルである装置。
(4)(1)-(3)のいずれかに記載の装置において、空間変動モデルはガウス分布に基づくモデルである装置。
(5)(1)-(4)のいずれかに記載の装置において、ニューラルネットワークの第2層サブセットは畳み込みニューラルネットワークに基づく、装置。
(6)コンピュータ断層撮影の画像の解像度を高める方法であって、処理回路によって第1解像度を有する第1医用画像を受け取ることと、第1層サブセットとそれに続く第2層サブセットとを含むニューラルネットワークであって、前記ニューラルネットワークの第1層サブセットは、前記第1医用画像から第2解像度を有する第2医用画像を作成し、前記ニューラルネットワークの第2層サブセットは、前記第2医用画像から第3解像度を有する第3医用画像を作成する前記ニューラルネットワークを前記処理回路によって前記第1医用画像に適用することと、前記処理回路によって前記第3医用画像を出力することと、を含み、前記第1解像度は前記第2解像度より低く、前記第2解像度は前記第3解像度より低い、方法。すなわち、第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する、画像処理方法。
(7)(6)記載の方法において、ニューラルネットワークの第1層サブセットは、点広がり関数の内在的な物理的性質に基づくモデルに基づいて第2医用画像を作成する、方法。
(8)(6)または(7)に記載の方法において、点広がり関数の内在的な物理的性質に基づくモデルは空間変動モデルである方法。
(9)(6)-(8)のいずれかに記載の方法において、空間変動モデルはガウス分布に基づくモデルである方法。
(10)(6)-(9)のいずれかに記載の方法において、ニューラルネットワークの第2層サブセットは畳み込みニューラルネットワークに基づく、方法。
(11)コンピュータ可読命令を保存する非一時的コンピュータ可読記憶媒体であって、コンピュータにより実行されると、該コンピュータにコンピュータ断層撮影の画像の解像度を高める方法を実行させ、前記方法は、第1解像度を有する第1医用画像を受け取ることと、第1層サブセットとそれに続く第2層サブセットとを含むニューラルネットワークであって、前記ニューラルネットワークの第1層サブセットは、前記第1医用画像から第2解像度を有する第2医用画像を作成し、前記ニューラルネットワークの第2層サブセットは、前記第2医用画像から第3解像度を有する第3医用画像を作成する前記ニューラルネットワークを前記第1医用画像に適用することと、前記第3医用画像を出力することと、を含み、前記第1解像度は前記第2解像度より低く、前記第2解像度は前記第3解像度より低い、非一時的コンピュータ可読記憶媒体。すなわち、第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する手順を、コンピュータに実行させるためのプログラムを保存する、非一時的コンピュータ可読記憶媒体。
(12)(11)記載の非一時的コンピュータ可読記憶媒体において、ニューラルネットワークの第1層サブセットは、点広がり関数の内在的な物理的性質に基づくモデルに基づいて第2医用画像を作成する、非一時的コンピュータ可読記憶媒体。
(13)(11)または(12)に記載の非一時的コンピュータ可読記憶媒体において、点広がり関数の内在的な物理的性質に基づくモデルは空間変動モデルである非一時的コンピュータ可読記憶媒体。
(14)(11)-(13)のいずれかに記載の非一時的コンピュータ可読記憶媒体において、空間変動モデルはガウス分布に基づくモデルである非一時的コンピュータ可読記憶媒体。
(15)(11)-(14)のいずれかに記載の非一時的コンピュータ可読記憶媒体において、ニューラルネットワークの第2層サブセットは畳み込みニューラルネットワークに基づく、非一時的コンピュータ可読記憶媒体。
以上説明した少なくとも1つの実施形態によれば、画質を向上することができる。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1062 メモリ
1064 再構成装置
1065 入力装置
1066 表示装置

Claims (9)

  1. 第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する処理回路を備える、画像処理装置。
  2. 前記ニューラルネットワークの前記第1層サブセットは、点広がり関数の内在的物理的性質に基づくモデルに基づいて前記第2医用画像を作成する、請求項1に記載の画像処理装置。
  3. 前記点広がり関数の前記内在的物理的性質に基づくモデルは、空間変動モデルである、請求項2に記載の画像処理装置。
  4. 前記空間変動モデルは、ガウス分布に基づくモデルである、請求項3に記載の画像処理装置。
  5. 前記ニューラルネットワークの前記第2層サブセットは、畳み込みニューラルネットワークに基づく、請求項1に記載の画像処理装置。
  6. 固定値のパラメータにより構成され、第1医用画像から第2医用画像を生成する第1層サブセットと、学習により更新されるパラメータにより構成される、前記第2医用画像から第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する処理回路を備える、画像処理装置。
  7. 前記ニューラルネットワークの前記第1層サブセットは、点広がり関数の内在的物理的性質に基づくモデルに基づいて前記第2医用画像を作成する、請求項6に記載の画像処理装置。
  8. 第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する、画像処理方法。
  9. 第1解像度を有する第1医用画像から、前記第1解像度より高い第2解像度を有する第2医用画像を生成する第1層サブセットと、前記第2医用画像から、前記第2解像度より高い第3解像度を有する第3医用画像を生成する第2層サブセットとを含むニューラルネットワークを前記第1医用画像に適用し前記第3医用画像を出力する手順を、コンピュータに実行させるためのプログラムを保存する、非一時的コンピュータ可読記憶媒体。
JP2022081054A 2021-06-09 2022-05-17 画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体 Pending JP2022188750A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/343,519 2021-06-09
US17/343,519 US11984218B2 (en) 2021-06-09 2021-06-09 Apparatus, method, and non-transitory computer-readable storage medium for enhancing computed tomography image resolution

Publications (1)

Publication Number Publication Date
JP2022188750A true JP2022188750A (ja) 2022-12-21

Family

ID=84390057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022081054A Pending JP2022188750A (ja) 2021-06-09 2022-05-17 画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体

Country Status (2)

Country Link
US (1) US11984218B2 (ja)
JP (1) JP2022188750A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220405880A1 (en) * 2021-06-17 2022-12-22 Nvidia Corporation Generative neural networks with reduced aliasing
US20220405980A1 (en) * 2021-06-17 2022-12-22 Nvidia Corporation Fused processing of a continuous mathematical operator
CN118297802B (zh) * 2024-04-09 2024-10-01 哈尔滨工业大学 一种基于空间变化模型的超声高分辨率成像改进方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
US9058656B2 (en) 2012-01-23 2015-06-16 Eiffel Medtech Inc. Image restoration system and method
JP7002213B2 (ja) 2017-05-01 2022-01-20 日本放送協会 空間・階調超解像装置及びプログラム

Also Published As

Publication number Publication date
US11984218B2 (en) 2024-05-14
US20220399101A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
JP7433883B2 (ja) 医用装置及びプログラム
JP7337679B2 (ja) 医用処理装置、医用処理方法及び記憶媒体
US10475214B2 (en) Tomographic reconstruction based on deep learning
US11126914B2 (en) Image generation using machine learning
EP3716214B1 (en) Medical image processing apparatus and method for acquiring training images
JP7334048B2 (ja) X線ctシステム及び方法
JP7432356B2 (ja) 医用装置及びプログラム
EP3726460B1 (en) Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images
US10925568B2 (en) Apparatus and method using physical model based deep learning (DL) to improve image quality in images that are reconstructed using computed tomography (CT)
EP3608877A1 (en) Iterative image reconstruction framework
JP2022188750A (ja) 画像処理装置、画像処理方法及び非一時的コンピュータ可読記憶媒体
US12062153B2 (en) Apparatus, method, and non-transitory computer-readable storage medium for improving image quality of a medical image volume
JP7475979B2 (ja) X線システム及び撮像プログラム
EP3869401A1 (en) Out-of-distribution detection of input instances to a model
JP2021013729A (ja) X線システム、画像処理装置及びプログラム
Cheng et al. Learned full-sampling reconstruction from incomplete data
Bazrafkan et al. Deep neural network assisted iterative reconstruction method for low dose ct
US12125198B2 (en) Image correction using an invertable network
US20240331222A1 (en) Mri reconstruction based on reinforcement learning
Tóth et al. Controlling TV regularization with deep learning
US20230079353A1 (en) Image correction using an invertable network
Jung et al. Penalized-Likelihood Image Reconstruction for Transmission Computed Tomography Using Adaptive Median Regularization
Tanveera et al. Interior photon-counting CT data denoising via multi-agent reinforcement learning