JP7039153B2 - 敵対的生成ネットワークを使用した画像強調 - Google Patents

敵対的生成ネットワークを使用した画像強調 Download PDF

Info

Publication number
JP7039153B2
JP7039153B2 JP2020560263A JP2020560263A JP7039153B2 JP 7039153 B2 JP7039153 B2 JP 7039153B2 JP 2020560263 A JP2020560263 A JP 2020560263A JP 2020560263 A JP2020560263 A JP 2020560263A JP 7039153 B2 JP7039153 B2 JP 7039153B2
Authority
JP
Japan
Prior art keywords
image
model
cbct
training
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560263A
Other languages
English (en)
Other versions
JP2021521993A (ja
JP2021521993A5 (ja
Inventor
ジャオホウ シュ
シャオ ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elekta Inc
Original Assignee
Elekta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elekta Inc filed Critical Elekta Inc
Publication of JP2021521993A publication Critical patent/JP2021521993A/ja
Publication of JP2021521993A5 publication Critical patent/JP2021521993A5/ja
Application granted granted Critical
Publication of JP7039153B2 publication Critical patent/JP7039153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Description

[0001]
本特許出願は、2018年7月24日に出願された米国出願第16/044,245号明細書の優先権の利益を主張し、これは、2018年4月26日に出願された米国仮特許出願第62/662,933号明細書「IMAGE QUALITY ENHANCEMENT FOR CONE-BEAM CT(CBCT)」と題された米国仮特許出願第62/662,933号明細書の優先権の利益を主張し、これらのそれぞれは、その全体が参照により本明細書に組み込まれる。
(技術分野)
[0002]
本開示の実施形態は、一般に、コーンビームコンピュータ断層撮影(CBCT)撮像、コンピュータ断層撮影および人工知能処理技術に関する。特に、本開示は、CBCTおよびコンピュータ断層撮影画像およびシステム操作で使用するために適合された敵対的生成ネットワーク(GAN)におけるデータモデルの生成および使用に関する。
[0001]
X線コーンビームコンピュータ断層(CBCT)撮影は、放射線治療において、患者のセットアップや適応的な再計画のために使用されている。状況によっては、歯科用画像診断やインプラントの計画などの診断目的にもCBCT撮影が採用されている。また、X線CBCT撮影は、マイクロコンピュータ断層撮影をはじめとする撮影関連の多くのアプリケーションに採用されている。しかし、CBCT画像の画質は、医学物理学者、医師、研究者が観察しているように、かなり低い。一般に、CBCT画像は、異なるタイプのアーチファクト(調査中の実際の物体には存在しない様々なタイプのノイズまたは再構成データ中の可視化された構造を含む)を含む可能性がある。
[0002]
CBCT画像中のアーチファクトやノイズは、適応的治療の再計画を妨害したり、診断に影響を与えたり、(画像のセグメンテーションのような)他の多くの画像処理ステップを困難にしたり、不可能にしたりする可能性がある。それぞれのアーチファクトは、1つまたはそれ以上の異なる要因によって引き起こされ得るので、異なる方法により異なるアーチファクトを抑制する。放射線治療および他の臨床用途では、一般に、(毎日取得され得る)CBCT画像の他に、1つまたはそれ以上の他のコンピュータ断層(CT)画像データセットが(例えば、計画CT画像と)一緒に利用可能であり得る。一般的にCT画像は、コントラストなどの情報がより正確で、アーチファクトが少ない画像品質の方がより高品質であるとされている。CBCT画像中のアーチファクトを低減するために、研究者は多くの研究を行い、いくつかの関連する手法を開発してきたが、現在のところ、一般的なアーチファクトのすべてまたは大部分を抑制することができる簡単で効率的な手法は存在していない。そのため、CBCT画像中のアーチファクトやノイズを抑制・除去するための、新規で効率的かつ簡便な手法の開発が求められている。
[0003]
本開示は、入力されたCBCT画像に対応するか、またはそれを表す模擬的または合成的なCT画像を生成するための人工知能(AI)処理技術を開発、訓練、および利用するための手順を含む。このようなAI処理技術は、敵対的生成ネットワーク(GAN)、サイクル敵対的生成ネットワーク(CycleGAN)、畳み込みニューラルネットワーク(CNN)、深層畳み込みニューラルネットワーク(DCNN)、および他の形態の機械学習(ML)実装を含む。本開示は、特に、アーチファクトフリーまたは実質的にアーチファクトフリーのCBCT画像または実質的にアーチファクトの数が減少したCBCT画像を強化して生成するために、ペアのCBCT画像および実CT画像のモデルを学習するために、GANまたはCycleGAN内で動作する識別器モデルおよび生成器モデルの使用に関連したいくつかの例示的な例を含む。GANまたはCycleGAN(および他の開示されたAIおよびML技法)の一部としての画像データ(例えば、CBCT画像)の本明細書に記載された使用および分析は、様々な診断、評価、解釈、または治療の設定のために使用される他の医療ワークフローに組み込まれ得ることが明らかになるであろう。
[0004]
いくつかの実施形態では、訓練されたモデルを使用して強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのコンピュータ実装方法が提供される。被検体のCBCT画像を受け取る。CBCT画像に対応する合成コンピュータ断層撮影(sCT)画像が、生成モデルを用いて生成される。生成モデルが、敵対的生成ネットワーク(GAN)で訓練され、生成モデルは、更に、入力としてCBCT画像を処理し、出力としてsCT画像を提供するように訓練される。被検体の医学的分析のためにsCT画像を提示する。
[0005]
いくつかの実施形態では、敵対的生成ネットワークは、識別モデルを使用して生成モデルを訓練するように構成されている。生成モデルと識別モデルが適用する値は、識別モデルと生成モデルの間の敵対的訓練を用いて確立される。生成モデルおよび識別モデルによって適用される値が、識別モデルと生成モデルの間の敵対的訓練を使用して確立される。生成モデルと識別モデルは、それぞれ畳み込みニューラルネットワークを有する。
[0006]
いくつかの実施形態では、敵対的訓練は、与えられたCBCT画像から与えられたsCT画像を生成するために生成モデルを訓練することと、与えられたsCT画像を合成または実CT画像として分類するために識別モデルを訓練することとを有する。生成モデルの出力は、識別モデルを訓練するために使用され、識別モデルの出力は、生成モデルを訓練するために使用される。
[0007]
いくつかの実施形態では、敵対的生成ネットワークは、生成モデルと識別モデルからなるサイクル敵対的生成ネットワーク(CycleGAN)を使用して訓練される。生成モデルは第1の生成モデルであり、識別モデルは第1の識別モデルであり、CycleGANは、所定のCT画像を入力として処理し、所定の合成(sCBCT)画像を出力として提供するように訓練された第2の生成モデルと、所定のsCBCT画像を合成CBCT画像または実CBCT画像として分類するように訓練された第2の識別モデルとを有する。
[0008]
いくつかの実施形態では、CycleGANは、第1の生成モデルを訓練するための第1の部分と第2の部分を有する。第1の部分は、実CT画像とペアになった訓練CBCT画像を取得し、訓練されたCBCT画像を、第1の生成モデルの入力に送信して、所定の合成CT画像を出力し、所定の合成CT画像を第1の識別モデルの入力で受け取り、所定の合成CT画像を合成CT画像または実CT画像として分類し、サイクル整合性損失を計算するためのサイクルCBCT画像を第2の生成モデルの入力で生成するように訓練される。第2の部分は、実CT画像を第2の生成モデルの入力に送信し、所定の合成CBCT画像を生成し、所定の合成CBCT画像を第2の識別モデルの入力で受け取り、所定の合成CBCT画像を合成CBCT画像又は実CBCT画像として分類し、サイクル整合性損失を計算するためのサイクルCT画像を第1の生成モデルの入力で生成するように訓練される。
[0009]
いくつかの実施形態では、第1の生成モデルは、複数の合成CT画像とそれぞれペアになった実CT画像との間の差の期待値を表す第1の画素ベース損失項を最小化または減少させるように訓練され、第2の生成モデルは、複数の合成CBCT画像とそれぞれペアになった実CBCT画像との間の差の期待値を表す第2の画素ベース損失項を最小化または減少させるように訓練される。
[0010]
いくつかの実施形態では、CycleGANは、第1の画素ベース損失項と第2の画素ベース損失項にメトリックを適用するように訓練され、メトリックは、CBCT画像と実CT画像のペアと同じサイズを有するマップに基づいて生成され、その結果、マップ内の各ピクセル値が、所定のCBCT画像と、所定のCBCT画像とペアになった所定の実CT画像との間の類似度レベルを表す。
[0011]
いくつかの実施形態では、CycleGANは、メトリックに閾値を適用するように訓練され、その結果、類似度レベルが閾値を超える場合、メトリックが第1の画素ベース損失項と第2の画素ベース損失項に適用され、そうでない場合、ゼロ値が第1の画素ベース損失項と第2の画素ベース損失項に適用される。
[0012]
いくつかの実施形態では、敵対的生成ネットワークは、敵対的損失項とサイクル整合性損失項と画素ベース損失項に基づく目的関数に従って訓練される。
[0013]
いくつかの実施形態では、強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのモデルを訓練するためのコンピュータ実装方法が提供される。生成モデルの入力として被験体のCBCT画像を受け取る。CBCT画像を処理して、生成モデルの出力としてCBCT画像に対応する合成コンピュータ断層撮影(sCT)画像を提供するために、生成モデルを敵対的生成ネットワーク(GAN)で訓練する。
[0014]
いくつかの実施形態では、敵対的生成ネットワークは、生成モデルと識別モデルを有するサイクル敵対的生成ネットワーク(CycleGAN)を使用して訓練される。生成モデルは第1の生成モデルであり、識別モデルは第1の識別モデルであり、入力として所定のCT画像を処理し、出力として所定の合成(sBCT)画像を提供するため、第2の生成モデルを訓練することと、所定のsCBCT画像を合成CBCT画像または実CBCT画像として分類するため、第2の識別モデルを訓練することとを有する。
[0015]
いくつかの実施形態では、CycleGANは、第1の生成モデルを訓練するための第1の部分と第2の部分を有する。実CT画像と対となっている訓練CBCT画像を取得する。訓練CBCT画像を第1の生成モデルの入力に送信し、所定の合成CT画像を出力する。所定の合成CT画像を第1の識別モデルの入力で受け取る。第1の識別モデルを用いて、所定の合成CT画像を合成CT画像または実CT画像として分類する。所定の合成CT画像を第2の生成モデルの入力で受け取り、周期整合性損失を計算するためのサイクルCBCT画像を生成する。実CT画像を第2の生成モデルの入力に送信し、合成訓練CBCT画像を出力する。合成訓練CBCT画像を第2の識別モデルの入力で受け取り、合成訓練CBCT画像を合成CBCT画像または実CBCT画像として分類し、サイクル整合性損失を計算するためのサイクルCT画像を第1の生成モデルの入力で生成する。複数の合成CT画像と、それぞれペアになっている実CT画像との間の差の期待値を表す第1の画素ベース損失項を最小化または減少させるために第1の生成モデルを訓練する。複数の合成CT画像と、それぞれペアになっている実CBCT画像との間の差の期待値を表す第2の画素ベース損失項を最小化または減少させるために第2の生成モデルを訓練する。
[0016]
いくつかの実施形態では、訓練されたモデルを使用して強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのシステムが提供される。システムは、少なくとも1つのプロセッサを有する処理回路と、少なくとも1つのプロセッサにより実行されたとき、被検体のCBCT画像を受け取るステップと、生成モデルを使用して、CBCT画像に対応する合成コンピュータ断層撮影(sCT)画像を生成するステップであって、生成モデルは、敵対的生成ネットワーク(GAN)で訓練され、生成モデルは、CBCT画像を入力として処理し、sCT画像を出力として提供するように更に訓練されているステップと、被検体の医学的分析のためにsCT画像を提示するステップとをプロセッサに実行させる命令を有する記憶媒体とを有する。
[0017]
いくつかの実施形態では、敵対的生成ネットワークは、識別モデルを使用して生成モデルを訓練するように構成されており、生成モデルと識別モデルによって適用される値が、識別モデルと生成モデルの間の敵対的な訓練を使用して確立されており、生成モデルと識別モデルは、それぞれ畳み込みニューラルネットワークで構成されている。敵対的訓練は、所定のCBCT画像から所定のsCT画像を生成するために生成モデルを訓練することと、所定のsCT画像を合成画像または実CT画像として分類するために識別モデルを訓練することとを有する。識別モデルの出力は識別モデルの訓練に使用され、識別機モデルの出力は生成モデルを訓練するために使用される。
[0018]
いくつかの実施形態では、敵対的生成ネットワークは、生成モデルと識別モデルを有するサイクル敵対的生成ネットワーク(CycleGAN)を使用して訓練され、生成モデルは第1の生成モデルであり、識別モデルは第1の識別モデルである。CycleGANは、所定のCT画像を入力として処理し、所定の合成(sBCT)画像を出力として提供するように訓練された第2の生成モデルと、所定のsCBCT画像を合成CBCT画像または実CBCT画像として分類するために訓練された第2の識別モデルとを更に有する。
[0019]
いくつかの実施形態では、CycleGANは、第1の生成モデルを学習するための第1の部分と第2の部分とを有する。第1の部分は、実CT画像と対である訓練CBCT画像を取得し、訓練CBCT画像を第1の生成モデルの入力に送信して、所定の合成CT画像を出力し、所定の合成CT画像を第1の識別モデルの入力で受け取り、所定の合成CT画像を合成CT画像または実CT画像として分類し、第2の生成モデルの入力でサイクル整合性損失を計算するためのサイクルCBCT画像を生成するように訓練される。第2の部分は、第2の生成モデルの入力に実CT画像を送信して、所定の合成CBCT画像を出力し、所定の合成CBCT画像を第2の識別モデルの入力で受け取り、所定の合成CBCT画像を合成CBCT画像または実CBCT画像として分類し、第1の生成モデルの入力でサイクル整合性損失を計算するためのサイクルCT画像を生成するように訓練される。
[0020]
いくつかの実施形態では、第1の生成モデルは、複数の合成CT画像とそれぞれペアになった実CT画像との間の差の期待値を表す第1の画素ベース損失項を最小化または低減するように訓練され、第2の生成モデルは、複数の合成CBCT画像とそれぞれペアになった実CBCT画像との間の差の期待値を表す第2の画素ベース損失項を最小化または低減するように訓練される。
[0021]
いくつかの実施形態では、CycleGANは、第1の画素ベース損失項と第2の画素ベース損失項にメトリックを適用するように訓練され、メトリックは、CBCT画像と実CT画像の対と同じサイズを有するマップに基づいて生成され、その結果、マップ内の各ピクセル値が、所定のCBCT画像と、所定のCBCT画像とペアになった所定の実CT画像との間の類似度レベルを表す。
[0022]
いくつかの実施形態では、CycleGANは、メトリックに閾値を適用するように訓練され、その結果、類似度レベルが閾値を超える場合、メトリックが第1の画素ベース損失項と第2の画素ベース損失項に適用され、そうでない場合、ゼロ値が第1の画素ベース損失項と第2の画素ベース損失項に適用される。
[0023]
いくつかの実施形態では、敵対的生成ネットワークは,逆襲損失,サイクル整合性損失,ピクセルベースの損失項に基づく目的関数に従って学習される。
[0024]
以上の概要は、本特許出願の主題の概要を提供することを目的としている。本発明の排他的または網羅的な説明を提供することを意図したものではない。発明の詳細な説明には、本特許出願についての更なる情報を提供することが含まれる。
[0025]
必ずしも縮尺で描かれていない図面において、同様の数字は、いくつかの図面全体にわたって実質的に類似した構成要素を表す。異なる文字の接尾辞を持つ数字のようなものは、実質的に類似した構成要素の異なる実例を表す。図面は、本明細書で論じられている様々な実施形態を一般的に例示しているが、これに限定されるものではない。
[0026]
図1は、いくつかの実施例による治療計画生成処理を実行するために適合された例示的な放射線治療システムを示す。
[0027]
図2A及び図2Bは、本開示のいくつかの実施例による例示的な画像誘導放射線治療装置を示す。
[0028]
図3A及び図3Bは、本開示のいくつかの実施例による、受け取られたCBCT画像からsCT画像を生成および識別するために適合した例示的な畳み込みニューラルネットワークモデルを示す。
[0029]
図4は、本開示のいくつかの実施例による、受け取られたCBCT画像からsCT画像を生成するために適合された敵対的生成ネットワークの訓練および使用のための例示的なデータフローを示す。
[0030]
図5は、本開示のいくつかの実施例による、受け取られたCBCT画像からsCT画像を生成するための生成的逆境ネットワークの訓練を示す。
[0031]
図6は、本開示のいくつかの実施例による、受け取られたCBCT画像からsCT画像を生成するためのサイクル生成的な敵対的ネットワークの訓練および使用を示す。
[0032]
図7は、本開示のいくつかの実施例による、受け取られたCBCT画像からのsCT画像の訓練および生成に関連して使用される解剖学的領域情報および入力画像のバリエーションを示す。
[0033]
図8は、本開示のいくつかの実施例による、受け取られたCBCT画像からsCT画像を出力するために適合された生成モデルを訓練するための例示的な操作のフローチャートを示す。
[0034]
本開示は、sCT画像(受け取ったCBCT画像を表す合成または模擬CT画像)を生成することによってCBCT画像を改善および強化するための様々な技術を含み、CBCT画像を改善するための手動(例えば、人間が指示した、人間にアシストされた、または人間にガイドされた)および従来のアプローチよりも技術的な利点を提供する方法を含む。これらの技術的利点には、強化されたCBCT画像またはsCT画像を生成するためのコンピューティング処理時間の短縮、CBCT画像中のアーチファクトの除去、および強化されたCBCT画像、ならびにCBCT画像およびsCT画像の生成および強化に使用される処理、メモリ、およびネットワークリソースの改善が含まれる。これらの改善されたCBCT画像またはsCT画像は、このような改善されたCBCT画像またはsCT画像を支援するためにデータを管理するデータ管理、可視化および制御システムの改善に加えて、様々な医療および診断の設定およびそのような設定で使用される情報技術システムに適用することができる。したがって、本技術は、これらの技術的利点に加えて、多くの見かけ上の医療上の利点(放射線治療の治療精度の向上、意図しない放射線への被曝の低減などを含む)をもたらす可能性がある。
[0035]
本明細書でさらに議論されるように、教師付き人工知能(AI)機械学習の一形態である敵対的生成ネットワーク(GAN)の以下の使用および展開は、学習モデルを介してsCT画像を生成することにより、CBCT画像の精度および有用性の向上を可能にする。一実施例では、本技術は、(例えば、人間の被検体の)入力されたCBCT画像に対応する合成CT画像を出力し、実際の、真の、または現実の(real, true or actual)CT画像データと一致する、または匹敵する精度を有するピクセル値を含むことができる(そのようなCT画像は、全体を通して、実際の、真の、または現実のCT画像と称されることがある)。また、本明細書で議論される学習モデルは、元の低画像品質のCBCT画像から優れた高画像品質の合成CT画像(sCT)を生成することができる。このようなsCT画像は、元のCBCT画像内の解剖学的構造を保存し、正確で正しいHU値を有する高画質を得るために、全てまたは実質的に全ての散乱、ストリーキングアーテファクトおよび他のノイズアーチファクトを取り除く、または除去することができる。sCT画像は、リアルタイムにオンザフライで生成することができる(例えば、開示されたモデルは、CBCT画像を受け取ると、CBCT画像を生成し、増強することができる)。
[0036]
一実施例において、学習されたモデルは、GANまたはCycleGAN、すなわち、訓練データを記述する確率分布の推定値を生成する生成器(「生成モデル」とも呼ばれる)、および生成器のサンプルを生成器または学習データに属するものとして分類する識別器(「識別モデル」とも呼ばれる)で動作する一対の深層畳み込みニューラルネットワークを使用して生成される。生成器は、学習データのデータ分布を可能な限り完全にエミュレートし、それによって識別器を最大に混乱させることを目的としている。その結果、予測モデリングにおける回帰の結果を最大化するように訓練された(本質的には「調整された」)生成器が生成される。
[0037]
一実施例では、GANは、CBCT画像と実CT画像とのペアのセットで訓練され、CBCT画像が与えられたsCT画像を生成するためのモデルを訓練する。CBCT画像は、実CT画像と共に登録することができる。GANの2つのネットワーク(生成器と判別器)アーキテクチャは、ニューラルネットワークにおける教師付きMLの先行アプローチを含む先行実装およびDNNアーキテクチャよりも優れた、受け取られたCBCT画像に対応するsCT画像を生成する訓練された生成モデルを生成するために使用することができる。さらに、本技術によるCycleGANを使用することは、sCT画像を作成するために使用される生成器の訓練を改善するための追加的な改善をもたらすことができる。このような技術的で機能的な利点は、次のセクションで明らかになるだろう。
[0038]
本明細書で議論されるアプローチは、CBCT画像および実CT画像の特性を発見して、CBCT画像が受け取られると同時にリアルタイムで新しいsCT画像を生成することを可能にする。これらのアプローチは、CBCT画像と実CT画像の間のリンクのより詳細なモデルを得るためにGANによって採用された一種の統計的学習を使用している。
[0039]
あるアプローチでは、CBCT画像を改善するための深層学習ネットワークの基本的な利用法を探ってきた。このようなアプローチは、出願中であり、同じ譲受人による米国特許出願第15/964,983号、2018年4月27日に出願され、発明の名称「IMPROVING IMAGE QUALITY IN CONE BEAM COMPUTED TOMOGRAPHY IMAGES USING DEEP CONVOLUTIONAL NEURAL NETWORKS」の特許出願(代理人整理番号:4186.018US1)により記述されており、その全体は参照により本明細書に組み込まれる。しかし、このアプローチでも、不鮮明で、不完全な、限られた精度のCBCT画像に直面する可能性がある。特に、この先行アプローチでは、DCNN構造を学習するために非線形マッピングを用いており、このようなマッピングは、通常、手動で確立された目的関数を用いて学習される。このような関数は、改善されたCBCT画像が実CT画像と一致するように促すため、CBCT画像と実CT画像との間の差分のL1-ノルムまたはL2-ノルム、L1-ロスおよびL2-ロスと称してもよいが、これらをそれぞれ最小化することができる。しかし、このような最小化では、手動で確立された目的関数を使用しても、ぼやけた、または過度に滑らかになったCBCT画像が生成され、その結果、CBCT画像内の微細または微妙な構造が失われることになりうる。
[0040]
また、DCNN型のアプローチでは、訓練中にCBCT画像と実CT画像の対応する位置の画素のペアに対して非線形マッピングを学習するため、訓練データのペアごとの画像対応精度に依存している。L1またはL2の損失関数では、画像の画素ごとに差分を計算して合計することができる。しかし、CBCT画像と実CT画像の対応する位置の画素のペアが、不完全なマッチングにより実際には同じ解剖学的構造を表していない場合には、その誤差が学習過程に伝播し、そのような位置ではファジー画像のように見える不確かな予測結果になってしまう可能性がある。従来のシステムでは、CycleGAN(例えば、画像マップまたは画像アライメント制約を含む)の使用など、GANの動作および精度を向上させる方法は研究されていなかった。
[0041]
図1は、本明細書で議論される1つまたはそれ以上のアプローチを使用して放射線治療計画の処理操作を実行するように適合された例示的な放射線治療システム100を示す。これらの放射線治療計画の処理動作は、撮影された医用画像データの特定の側面と治療線量計算とに基づいて、放射線治療システムが患者に放射線治療を提供することを可能にするために実行される。具体的には、画像処理ロジック120によって実行される画像生成ワークフロー130及び画像生成訓練ワークフロー140の一部として、以下の処理動作を実行する。しかしながら、データ検証、可視化、および他の医学的評価および診断の設定を含む、以下の訓練されたモデルおよび画像処理ロジック120の多くのバリエーションおよび使用例が提供されてもよいことが理解されるであろう。放射線治療システム100は、受け取ったCBCT画像からsCT画像を生成するためにGANを使用することができる。sCT画像は、実CT画像に似たシャープなエッジを持つ改良されたCBCT画像を表している可能性がある。したがって、放射線治療システム100は、被検体の領域を撮影した低品質のCBCT画像を使用して、リアルタイムで医療分析のためのsCTタイプの画像を生成することができる。
[0042]
放射線治療システムは、画像処理ロジック120を主催する放射線治療処理計算システム110を含む。放射線治療処理計算システム110は、ネットワーク(図示せず)に接続することができ、そのようなネットワークは、インターネットに接続することができる。例えば、ネットワークは、放射線治療処理計算システム110を、1つまたはそれ以上の医療情報源(例えば、放射線学情報システム(RIS)、医療記録システム(例えば、電子カルテ(EMR)/電子健康記録(EHR)システム)、腫瘍学情報システム(OIS))、1つまたはそれ以上の画像データソース150、画像取得装置170(例えば、撮像モダリティ)、治療装置180(例えば、放射線治療装置)、および治療データソース160と接続することができる。一実施例として、放射線治療処理計算システム110は、治療装置180によって使用され、および/または装置146の出力のために使用される、改良されたCBCT画像を生成するための操作の一部として、画像処理ロジック120からの命令またはデータを実行することによって、被検体のCBCT画像を受け取り、CBCT画像に対応するsCT画像を生成するように構成することができる。
[0043]
放射線治療処理計算システム110は、処理回路112と、メモリ114と、記憶装置116と、ユーザインターフェース142と、通信インタフェース(図示せず)などの他のハードウェアおよびソフトウェア操作可能な機能を含むことができる。記憶装置116は、オペレーティングシステム、放射線治療計画(例えば、訓練CBCT画像、実CT画像、訓練画像と実CT画像を関連付けるペアリング情報、生成されたsCT画像、適応または修正されたCBCT画像など)、ソフトウェアプログラム(例えば、画像処理ソフトウェア、画像または解剖学的可視化ソフトウェア、DLモデル、MLモデル、ニューラルネットワークなどによって提供されるようなAI実装およびアルゴリズムなど)、および処理回路112によって実行される他の任意のコンピュータ実行可能な命令を記憶することができる。
[0044]
一実施例では、処理回路112は、マイクロプロセッサ、中央処理装置(CPU)、グラフィックス処理装置(GPU)、加速処理装置(APU)などの1つまたはそれ以上の汎用処理装置などの処理装置を含むことができる。より具体的には、処理回路112は、複雑命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、非常に長い命令ワード(VLIW)マイクロプロセッサ、他の命令セットを実装するプロセッサ、または命令セットの組み合わせを実装するプロセッサであってもよい。また、処理回路112は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、システムオンチップ(SoC)などの1つまたはそれ以上の特別目的処理装置によって実装されてもよい。当業者には理解されるであろうが、いくつかの例では、処理回路112は、汎用プロセッサではなく、特殊用途プロセッサであってもよい。処理回路112は、Intel(登録商標)によって製造されたPentium(登録商標)、Core(登録商標)、Xeon(登録商標)、またはItanium(登録商標)ファミリー、AMD(登録商標)によって製造されたTurion(登録商標)、Athlon(登録商標)、Sempron(登録商標)、Opteron(登録商標)、FX(登録商標)、Phenon(登録商標)ファミリー、Sun Microsystemsによって製造された様々なプロセッサのいずれかのような1つまたはそれ以上の既知の処理装置を含むことができる。処理回路112は、Nvidia(登録商標)によって製造されたGeForce(登録商標)、Quadro(登録商標)、Tesla(登録商標)ファミリー、Intel(登録商標)によって製造されたGMA、Iris(登録商標)ファミリー、またはAMD(登録商標)によって製造されたRadeon(登録商標)ファミリーのような、グラフィック処理ユニットを含むことができる。処理回路112は、Intel(登録商標)によって製造されたXeon Phi(登録商標)ファミリーのような、加速処理ユニットを含むことができる。開示された実施形態は、本明細書に開示された方法を実行するために、大量のデータを特定し、分析し、維持し、生成し、および/または提供し、またはそのようなデータを操作するというコンピューティング要求を満たすように構成された任意のタイプのプロセッサ(複数可)に限定されるものではない。さらに、「プロセッサ」という用語は、複数の物理的(回路ベースの)またはソフトウェアベースのプロセッサ、例えば、マルチコア設計または複数のプロセッサのそれぞれがマルチコア設計を有するプロセッサを含んでもよい。処理回路112は、メモリ114に記憶され、記憶装置116からアクセスされる、一過性または非一過性のコンピュータプログラム命令のシーケンスを実行して、以下でより詳細に説明する様々な操作、プロセス、方法を実行することができる。システム100内の任意のコンポーネントは、別個に実装され、独立した装置として動作してもよく、本開示に記載された技術を実行するために、システム100内の任意の他のコンポーネントに結合されてもよいことが理解されるべきである。
[0045]
メモリ114は、読み出し専用メモリ(ROM)、相変化ランダムアクセスメモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、同期DRAM(SDRAM)などのダイナミックランダムアクセスメモリ(DRAM)、電気的に消去可能なプログラム可能な読み出し専用メモリ(EEEPROM)、スタティックメモリ(例えば、フラッシュメモリ、フラッシュディスク、静的ランダムアクセスメモリ)、および他のタイプのランダムアクセスメモリ、キャッシュ、レジスタ、コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多目的ディスク(DVD)または他の光ストレージ、カセットテープ、他の磁気記憶装置、または画像、データ、または処理回路112または他のタイプのコンピュータ装置によってアクセスされることが可能な一過性または非一過性のコンピュータ実行可能命令(例えば、任意の形式で格納されているもの)を含む情報を格納するために使用され得る他の非一過性の媒体を含み得る。例えば、コンピュータプログラム命令は、処理回路112によってアクセスされ、ROM、または他の任意の適切なメモリ位置から読み出され、処理回路112によって実行されるためにRAMにロードすることができる。
[0046]
記憶装置116は、本明細書に記載された方法論または機能(様々な例では、治療処理ロジック120およびユーザインターフェース142を含む)のうちの任意の1つまたはそれ以上の方法論または機能を具現化または利用する1つまたはそれ以上の一組の、一過性または非一過性の機械読み取り可能な媒体を含む駆動装置を構成してもよい。命令は、また、放射線治療処理計算システム110による実行中に、メモリ114内および/または処理回路112内に、完全にまたは少なくとも部分的に存在してもよく、メモリ114および処理回路112は、また、一過性または非一過性の機械可読媒体を構成することができる。
[0047]
メモリ114および記憶装置116は、非一過性のコンピュータ読み取り可能な媒体を構成することができる。例えば、メモリ114および記憶装置116は、コンピュータ読み取り可能な媒体上に、1つまたはそれ以上のソフトウェアアプリケーションのための一過性または非一過性の命令を記憶またはロードすることができる。メモリ114および記憶装置116に記憶またはロードされたソフトウェアアプリケーションは、例えば、一般的なコンピュータシステム用のオペレーティングシステムおよびソフトウェア制御装置用のオペレーティングシステムを含むことができる。また、放射線治療処理計算システム110は、画像処理ロジック120およびユーザインターフェース142を実装するためのソフトウェアコードからなる様々なソフトウェアプログラムを動作させることができる。さらに、メモリ114および記憶装置116は、処理回路112によって実行可能なソフトウェアアプリケーション全体、ソフトウェアアプリケーションの一部、またはソフトウェアアプリケーションに関連付けられたコードまたはデータを記憶またはロードすることができる。更なる実施例では、メモリ114および記憶装置116は、1つまたはそれ以上の放射線治療計画、画像データ、セグメンテーションデータ、治療可視化、ヒストグラムまたは測定値、AIモデルデータ(例えば、重みおよびパラメータ)、ラベルおよびマッピングデータなどを記憶し、ロードし、操作することができる。ソフトウェアプログラムは、記憶装置116およびメモリ114だけでなく、ハードドライブ、コンピュータディスク、CD-ROM、DVD、ブルーレイDVD、USBフラッシュドライブ、SDカード、メモリスティック、または任意の他の適切な媒体などの取り外し可能なコンピュータ媒体に格納することができ、そのようなソフトウェアプログラムは、ネットワークを介して通信または受信することができる。
[0048]
図示されていないが、放射線治療処理計算システム110は、通信インターフェース、ネットワークインターフェースカード、および通信回路を含むことができる。例示的な通信インターフェースは、例えば、ネットワークアダプタ、ケーブルコネクタ、シリアルコネクタ、USBコネクタ、パラレルコネクタ、高速データ伝送アダプタ(例えば、ファイバ、USB 3.0、サンダーボルトなど)、無線ネットワークアダプタ(例えば、IEEE 802.11/Wi-Fiアダプタなど)、通信アダプタ(例えば、3G、4G/LTE、5G、ネットワークなどと通信するためのもの)などを含むことができる。このような通信インターフェースは、機械がネットワークを介して、遠隔地に配置された構成要素のような他の機械および装置と通信することを可能にする、1つまたはそれ以上のデジタルおよび/またはアナログ通信装置を含むことができる。ネットワークは、ローカルエリアネットワーク(LAN)、無線ネットワーク、クラウドコンピューティング環境(例えば、サービスとしてのソフトウェア、サービスとしてのプラットフォーム、サービスとしてのインフラストラクチャなど)、クライアントサーバー、広域ネットワーク(WAN)などの機能を提供することができる。例えば、ネットワークは、他のシステム(追加の画像処理計算システムまたは医用画像処理または放射線治療操作に関連する画像ベースのコンポーネントを含む)を含むことができるLANまたはWANであってもよい。
[0049]
一実施例では、放射線治療処理計算システム110は、記憶装置116およびメモリ114上でホスティングするために、画像データソース150(例えば、CBCT画像)から画像データ152を取得することができる。例示的な画像データソース150は、図2Bに関連して詳細に記載されている。一実施例では、放射線治療処理計算システム110上で動作するソフトウェアプログラムは、擬似CT画像またはsCTのような合成画像を生成することによって、あるフォーマット(例えば、MRI)の医用画像を別のフォーマット(例えば、CT)に変換することができる。別の実施例では、ソフトウェアプログラムは、対応する画像が適切にペアリングされて関連付けられるように、患者の医用画像(例えば、CT画像またはMR画像)を、その後に作成または捕捉されたその患者のCBCT画像(例えば、画像としても表される)に登録または関連付けることができる。さらに別の実施例では、ソフトウェアプログラムは、符号付き距離関数または画像情報のいくつかの側面を強調する画像の処理済みバージョンのような患者画像の機能を代替することができる。
[0050]
例示的な実施形態では、放射線治療処理計算システム110は、画像データソース150から、または画像データソース150にCBCT撮像データ152を取得するか、または通信することができる。このような撮像データは、GANまたはCycleGANモデリングを使用して撮像データを強化または改善してsCTを生成するために計算システム110に提供することができる。sCTは、治療データソース160または装置180によって、人間の被検体を治療するために使用することができる。さらなる実施例では、治療データソース160は、画像生成ワークフロー130によって生成されたsCTの結果として計画データを受信または更新し、画像データソース150はまた、画像生成訓練ワークフロー140で使用するために撮像データを提供またはホストすることができる。
[0051]
一実施例では、計算システム110は、画像データソース150を使用して、CBCT画像と実CT画像のペアを生成することができる。例えば、計算システム110は、被検体の標的領域(例えば、脳領域)の画像を取得するようにCBCT装置に指示することができる。計算システム110は、画像データを、CBCT画像によって捕捉された時間および目標領域の関連付けられた表示とともに記憶装置116に格納することができる。また、計算システム110は、CT撮影装置に対して、実CT画像と同じ対象領域(例えば、脳領域の同じ断面)の画像を取得するように指示することができる。計算システム110は、実CT画像を同じ領域の以前に得られたCBCT画像と関連付けることができ、それにより、訓練ペアとして装置116に記憶するための実CT画像とCBCT画像のペアを形成することができる。計算システム110は、閾値数のペアが得られるまで、そのような訓練画像のペアを生成し続けてもよい。いくつかの実施形態では、計算システム110は、どの標的領域を取得するか、およびどのCBCT画像を実CT画像とペアにするかについて、人間のオペレータによってガイドするようにしてもよい。
[0052]
処理回路112は、メモリ114および記憶装置116に通信的に結合されてもよく、処理回路112は、メモリ114または記憶装置116のいずれかからそこに記憶されたコンピュータ実行可能命令を実行するように構成することができる。処理回路112は、画像データ152からの医用画像をメモリ114で受信または取得し、画像処理ロジック120を用いて処理するように命令を実行することができる。さらなる実施例では、処理回路112は、画像データ152および他の患者データとともにソフトウェアプログラム(例えば、画像処理ソフトウェア)を利用して、sCT画像を強化または生成することができる。
[0053]
さらに、処理回路112は、例えば、ニューラルネットワークモデル、機械学習モデル、画像生成ワークフロー130、画像生成訓練ワークフロー140、または本明細書で議論されるようなGANまたはCycleGANによるsCT画像の生成に関与する他の側面によって使用される更新されたパラメータのような中間データを生成するためのソフトウェアプログラムを利用することができる。さらに、そのようなソフトウェアプログラムは、本明細書でさらに議論される技術を使用して、治療データソース160への展開および/または出力装置146上での提示のための新しいまたは更新されたsCT画像を生成するための画像生成ワークフロー130を実施するために、画像処理ロジック120を利用することができる。処理回路112は、その後、通信インターフェースおよびネットワークを介して、新しい画像または更新された画像を治療装置180に送信してもよく、ここで、放射線治療計画は、ワークフロー140で訓練されたワークフロー130の結果と一致して、治療装置180を介して患者を放射線で治療するために使用される。ソフトウェアプログラムおよびワークフロー130、140の他の出力および使用は、放射線治療処理計算システム110の使用に伴って発生することができる。
[0054]
本明細書の実施例では(例えば、図3および図4を参照して議論された敵対的生成ネットワーク処理を参照して実施例では)、処理回路112は、入力CBCT画像からのsCT画像生成のためのML、DL、ニューラルネットワーク、および人工知能の他の側面の機能を実装するために、画像処理ロジック120を呼び出すソフトウェアプログラムを実行することができる。例えば、処理回路112は、本明細書で議論されるように、受け取ったCBCT画像から訓練、分析、予測、評価、およびsCT画像を生成するソフトウェアプログラムを実行することができる。
[0055]
一実施例では、画像データ152は、1つまたはそれ以上のMRI画像(例えば、2DMRI、3DMRI、2DストリーミングMRI、4DMRI、4DボリューメトリックMRI、4DシネMRIなど)、機能的MRI画像(例えば、fMRI、DCE-MRI、拡散MRI)、コンピュータ断層撮影(CT)画像(例えば、2DCT、コーンビームCT、3DCT、4DCT)、超音波画像(例えば、2D超音波、3D超音波、4D超音波)、陽電子放出断層撮影(PET)画像、X線画像、透視画像、放射線治療ポータル画像、シングルフォトエミッションコンピュータ断層撮影(SPECT)画像、コンピュータで生成された合成画像(例えば、疑似CT画像)などを含み得る。さらに、画像データ152は、医用画像処理データ、例えば、訓練画像、およびグラウンドトゥルース画像、輪郭画像、および線量画像を含むか、または関連付けられていてもよい。他の実施例では、解剖学的領域の等価な表現は、非画像フォーマット(例えば、座標、マッピングなど)で表現することができる。
[0056]
一実施例では、画像データ152は、画像取得装置170から受信され、画像データソース150の1つまたはそれ以上(例えば、PACS(Picture Archiving and Communication System)、VNA(Vendor Neutral Archive)、医療記録または情報システム、データウェアハウスなど)に格納することができる。したがって、画像取得装置170は、患者の医用画像を取得するためのMRI撮像装置、CT撮像装置、PET撮像装置、超音波撮像装置、透視装置、SPECT撮像装置、リニアアクセラレータとMRI撮像装置を一体化したもの、CBCT撮像装置、またはその他の医用画像を取得するための医用画像取得装置で構成されていてもよい。画像データ152は、画像取得装置170および放射線治療処理計算システム110が、開示された実施形態と一致する動作を実行するために使用することができる、任意のタイプのデータまたは任意のタイプのフォーマット(例えば、DICOM(Digital Imaging and Communications in Medicine)フォーマット)で受信および保存することができる。さらに、いくつかの実施例では、本明細書で議論されるモデルは、元の画像データフォーマットまたはその派生物を処理するように訓練することができる。
[0057]
例示的な実施形態では、画像取得装置170は、単一の装置(例えば、リニア加速器と組み合わせたMRI装置、「MRI-Linac」とも呼ばれる)として治療装置180と一体化されていてもよい。このようなMRI-Linacは、例えば、放射線治療計画に従って放射線治療を所定の標的に正確に指示するために、患者の標的臓器または標的腫瘍の位置を決定するために使用することができる。例えば、放射線治療計画は、各患者に適用されるべき特定の放射線量に関する情報を提供することができる。また、放射線治療計画には、他の放射線治療情報、例えば、ビーム角度、線量-ヒストグラム-ボリューム情報、治療中に使用する放射線ビームの本数、ビーム当たりの線量などが含まれていてもよい。いくつかの実施例では、画像生成ワークフロー130におけるGAN訓練されたモデルは、強化されたCBCT画像を生成するためにのみ使用され、他のワークフローまたはロジック(図示せず)は、この強化されたCBCT画像を、放射線治療を達成するために使用される特定のビーム角および放射線物理学に翻訳するために使用される。
[0058]
放射線治療処理計算システム110は、ネットワークを介して外部データベースと通信し、画像処理および放射線治療操作に関連する複数の様々なタイプのデータを送受信することができる。例えば、外部データベースは、治療装置180、画像取得装置170、または放射線治療または医療処置に関連する他の機械に関連する情報を提供する機械データ(装置制約(device constraints)を含む)を含むことができる。機械データ情報は、放射線ビームサイズ、アーク配置、ビームのオンオフ時間、機械パラメータ、セグメント、マルチリーフコリメータ(MLC)構成、ガントリ速度、MRIパルスシーケンスなどを含むことができる。外部データベースは、記憶装置であってもよく、適切なデータベース管理ソフトウェアプログラムを備えていてもよい。さらに、そのようなデータベースまたはデータソースは、中央または分散的に配置された複数のデバイスまたはシステムを含むことができる。
[0059]
放射線治療処理計算システム110は、処理回路112およびメモリ114に通信可能に結合された1つまたはそれ以上の通信インターフェースを使用して、ネットワークを介して、データを収集および取得し、他のシステムと通信することができる。例えば、通信インターフェースは、放射線治療処理計算システム110と放射線治療システム構成要素との間の通信接続を提供する(例えば、外部装置とのデータ交換を可能にする)ようにしてもよい。例えば、通信インターフェースは、いくつかの実施例では、ユーザが放射線治療システムに情報を入力するためのハードウェアキーボード、キーパッド、またはタッチスクリーンであってもよいユーザインターフェース142に接続するための出力装置146または入力装置148からの適切なインターフェース回路を有することができる。
[0060]
一実施例として、出力装置146は、ユーザインターフェース142の表現と、医用画像、治療計画、およびそのような計画の訓練、生成、検証、または実施の状況の1つまたはそれ以上の側面、可視化、または表現を出力する表示装置を含むことができる。出力装置146は、医用画像、インターフェース情報、治療計画パラメータ(例えば、輪郭、線量、ビーム角、ラベル、地図など)、治療計画、目標、目標の定位および/または目標の追跡、または任意の関連情報をユーザに表示する1つまたはそれ以上のディスプレイ画面を含むことができる。ユーザインターフェース142に接続された入力装置148は、キーボード、キーパッド、タッチスクリーン、またはユーザが放射線治療システムに情報を入力することができる任意のタイプのデバイスであってもよい。代替的に、出力装置146、入力装置148、およびユーザインターフェース142の機能は、スマートフォンまたはタブレットコンピュータ(例えば、Apple iPad(登録商標)、Lenovo Thinkpad(登録商標)、Samsung Galaxy(登録商標)など)のような単一のデバイスに統合することができる。
[0061]
さらに、放射線治療システムの任意のおよびすべての構成要素は、仮想マシン(例えば、VMWare、Hyper-Vなどの仮想化プラットフォームを介して)または独立したデバイスとして実装することができる。例えば、仮想マシンは、ハードウェアとして機能するソフトウェアである可能性がある。したがって、仮想マシンは、少なくとも1つまたはそれ以上の仮想プロセッサ、1つまたはそれ以上の仮想メモリ、および一緒にハードウェアとして機能する1つまたはそれ以上の仮想通信インターフェースを含むことができる。例えば、放射線治療処理計算システム110、画像データソース150、または同様の構成要素は、仮想マシンとして、またはクラウドベースの仮想化環境内で実装することができる。
[0062]
画像処理ロジック120または他のソフトウェアプログラムは、計算システムが画像データソース150と通信して、メモリ114および記憶装置116に画像を読み込んだり、メモリ114または記憶装置116から画像データソース150に画像または関連データを格納したり、画像データソース150との間で画像データソース150と通信するようにすることができる。例えば、画像データソース150は、モデル訓練または生成ユースケースにおいて、画像取得装置170を介して1人または複数の患者から取得された画像データ152内の画像セットから、画像データソース150がホストする複数の画像(例えば、3DMRI、4DMRI、2DMRIスライス画像、CT画像、2D透視画像、X線画像、MRスキャンまたはCTスキャンからの生データ、DICOM(Digital Imaging and Communications in Medicine)メタデータなど)を保存して提供するように構成してもよい。また、画像データソース150または他のデータベースは、受け取ったCBCT画像からsCT画像を作成、修正、または生成する画像処理動作を実行するソフトウェアプログラムを実行する際に、画像処理ロジック120によって使用されるデータを格納することができる。さらに、様々なデータベースは、敵対的生成ネットワークモデル138によって学習されたモデルを構成するネットワークパラメータと、その結果得られる予測データとを含む、学習されたモデルによって生成されたデータを格納することができる。したがって、放射線治療処理計算システム110は、放射線治療または診断操作の実行に関連して、画像データソース150、画像取得装置170、治療装置180(例えば、MRI-Linac)、または他の情報システムから、画像データ152(例えば、2DMRIスライス画像、CT画像、2D透視画像、X線画像、3DMRI画像、4DMRI画像など)を取得および/または受信することができる。
[0063]
画像取得装置170は、関心領域(例えば、標的臓器、標的腫瘍、またはその両方)に対する患者の解剖学の1つまたはそれ以上の画像を取得するように構成され得る。各画像、典型的には2D画像またはスライスは、1つまたはそれ以上のパラメータ(例えば、2Dスライスの厚さ、向き、および位置など)を含むことができる。一実施例では、画像取得装置170は、任意の向きの2Dスライスを取得することができる。例えば、2Dスライスの方向は、矢状方向(sagittal orientation)、冠状方向(coronal orientation)または軸方向(axial orientation)を含むことができる。処理回路112は、標的臓器および/または標的腫瘍を含むように、2Dスライスの厚さおよび/または向きなどの1つまたはそれ以上のパラメータを調整することができる。一実施例では、2Dスライスは、3DCBCTまたは3DCT、またはMRIボリュームなどの情報から決定することができる。このような2Dスライスは、患者が放射線治療を受けている間、例えば治療装置180を使用しているときに、画像取得装置170によって「ほぼリアルタイム」で取得することができる(「ほぼリアルタイム」とは、少なくともミリ秒以下でデータを取得することを意味する)。
[0064]
放射線治療処理計算システム110における画像処理ロジック120は、訓練された(学習された)生成モデルの使用(例えば、図8を参照して以下に説明する方法を実装する)を含む画像生成ワークフロー130を実装するように描かれている。この生成モデルは、敵対的生成ネットワークモデル138の一部として訓練された生成器138Bによって提供することができる。一実施例では、画像処理ロジック120が動作する計画生成ワークフロー130は、実CT画像データ処理132とCBCT画像データ処理134とを統合して、訓練で使用したマッピングされたCT画像とCBCT画像とに基づいてsCT画像を生成し、その生成されたsCT画像に基づいてCBCT画像を生成する。
[0065]
一実施例では、生成器138Bは、学習データのペアリング(例えば、CBCT画像および実CT画像のペアリング)を処理する画像生成訓練ワークフロー140に関連して、GAN138内の識別器138Aおよび生成器138Bの使用を含む訓練の結果として学習された重みおよび値を含む。上述したように、この訓練ワークフロー140は、データソース160、170、および関連する画像データ152から画像データを取得して利用することができる。
[0066]
図2Aは、X線源または線形加速器などの放射線源、カウチ216、撮像検出器214、および放射線治療出力204を含む例示的な画像誘導放射線治療装置202を図示する。放射線治療装置202は、患者に治療を提供するために放射線ビーム208を放出するように構成されている。放射線治療出力204は、マルチリーフコリメータ(MLC)などの1つまたはそれ以上の減衰器またはコリメータを含む。理解されるように、放射線治療出力204は、画像生成ワークフロー130およびGANのジェネレータ138Bからの画像生成の関連使用を実装する画像処理ロジック120と関連して提供することができる。
[0067]
一例として、患者は、治療カウチ216によって支持された領域212内に配置され、放射線治療計画に従って放射線治療線量を受けることができる。放射線治療出力204は、ガントリ206または他の機械的支持体に搭載され、または取り付けられる。1つまたはそれ以上のシャーシモータ(図示せず)は、カウチ216が治療領域に挿入されたときに、ガントリ206および放射線治療出力204をカウチ216の周りで回転させることができる。一実施例では、ガントリ206は、カウチ216が処置領域内に挿入されたときに、カウチ216の周りで連続的に回転可能である。別の実施例では、ガントリ206は、カウチ216が処置領域内に挿入されたときに、所定の位置まで回転する。例えば、ガントリ206は、治療出力204を軸(「A」)の周りに回転させるように構成することができる。カウチ216および放射線治療出力204の両方は、横方向(「T」)に移動可能であるか、横方向(「L」)に移動可能であるか、または横軸(「R」と表示される)についての回転など、1つまたはそれ以上の他の軸についての回転として、患者の周囲の他の位置に独立して移動可能である。1つまたはそれ以上のアクチュエータ(図示せず)に通信的に接続されたコントローラは、放射線治療計画に従って患者を放射線ビーム208内または放射線ビーム208の外に適切に位置決めするために、カウチ216の動きまたは回転を制御することができる。カウチ216およびガントリ206の両方は、互いに独立して複数の自由度で移動可能であり、これにより、放射線ビーム208が腫瘍を正確に標的にすることができるように患者を位置決めすることができる。
[0068]
図2Aに示す座標系(軸A、軸T、軸Lを含む)は、アイソセンタ210に位置する原点を有する。アイソセンタは、患者上または患者内の場所に所定の放射線量を送達するように、放射線治療ビーム208の中心軸が座標軸の原点と交差する位置として定義する。代替的に、アイソセンタ210は、ガントリ206によって軸Aの周りに位置決めされた放射線治療出力204の様々な回転位置のために、放射線治療ビーム208の中心軸が患者と交差する位置として定義することができる。
[0069]
ガントリ206はまた付属の撮像検出器214を有していてもよい。撮像検出器214は、好ましくは、放射線源(出力204)に対向して配置され、一実施例では、撮像検出器214は、治療ビーム208のフィールド内に配置され得る。撮像検出器214は、CBCT画像からsCT画像をリアルタイムで生成するために、画像処理ロジック120(FIG1)を実装することができる。撮像検出器214は、好ましくは、治療ビーム208との整列を維持するように、放射線治療出力204に対向して、ガントリ206に取り付けられることができる。撮像検出器214は、ガントリ206の回転に伴って回転軸を中心に回転する。例示的な実施形態では、撮像検出器214は、フラットパネル検出器(例えば、直接検出器またはシンチレータ検出器)であってもよい。このように、撮像検出器214は、治療ビーム208を監視するために使用することができ、または、撮像検出器214は、ポータルイメージングのような患者の解剖学的な撮像のために使用することができる。放射線治療装置202の制御回路は、放射線治療システム100内に統合されていてもよいし、放射線治療システム100から離れていてもよい。
[0070]
例示的な一実施例では、カウチ216、治療出力204、またはガントリ206のうちの1つまたはそれ以上が自動的に位置決めされ、治療出力204は、特定の治療送達インスタンスのための指定された線量に従って治療ビーム208を確立することができる。ガントリ206、カウチ216、または治療出力204の1つまたはそれ以上の異なる向きまたは位置を使用するなど、放射線治療計画に応じて、治療送達のシーケンスを指定することができる。治療の送達は、順次行われ得るが、アイソセンタ210のような患者上または患者内の所望の治療部位で交差させることができる。所定の累積線量の放射線治療は、それによって治療部位に送達され得る一方で、治療部位の近くの組織への損傷を減少させるか、または回避することができる。
[0071]
したがって、図2Aは、放射線治療出力が中心軸(例えば、軸「A」)を中心に回転可能な構成で、患者に放射線治療を提供するために操作可能な放射線治療装置202の例を具体的に示している。他の放射線治療の出力構成を使用することができる。例えば、放射線治療出力は、複数の自由度を有するロボットアームまたはマニピュレータに取り付けることができる。さらなる別の実施例では、治療出力は、患者から横方向に分離された領域に位置するように固定され、患者を支持するプラットフォームは、放射線治療アイソセンタを患者内の特定の標的軌跡に整列させるために使用され得る。別の実施例では、放射線治療装置は、線形加速器と画像取得装置との組み合わせであってもよい。いくつかの実施例では、画像取得装置は、当業者が認識するであろう、MRI、X線、CT、CBCT、スパイラルCT、PET、SPECT、光断層撮影、蛍光撮影、超音波撮影、または放射線治療門脈撮影装置などであってもよい。
[0072]
図2Bは、図2A及び図1の画像取得装置170の一例としてのX線コーンビームコンピュータ断層撮影スキャナ220の一例を示す。X線コーンビームコンピュータ断層撮影スキャナ220は、X線管224および検出器222を含むことができる。動作中、光子は、X線管224から放出され、検出器222に到達する前に、3次元物体(例えば、患者の解剖学の一部)を通って伝搬する。立体物は、放出された光子の一部を吸収することができる。検出器222は、受け取られた光子を対応する電子信号に変換することができる2D平面を含むことができる。電子信号は、2D投影空間画像を形成するためのように、特定のX線経路(直線経路)に沿った吸収強度を記録することができる。また、3D物体の3D構造情報を得るために、3D物体を回転軸について回転させたり、X線管224及び検出器222を軌道状に走査して、異なる視野角からの2D投影空間画像を得るようにすることができる。一実施例では、2D投影空間画像は、数百枚の2D投影空間画像に対応することができるなど、200度以上の範囲に渡って収集することができる。
[0073]
画像再構成アルゴリズムは、X線コーンビームコンピュータ断層撮影スキャナ220によって収集された2D投影空間画像から3D物体の3D画像を形成するために採用することができる。再構成アルゴリズムは、解析的再構成アルゴリズムと反復的再構成アルゴリズムを含むことができる。一実施例では、解析アルゴリズム(例えば、FeldkampまたはFeldkamp-modifiedアルゴリズム)を使用して、スキャナ220によって収集された2D投影空間画像を処理して、3D再構成画像を得ることができる。一実施例では、解析アルゴリズムは、2D投影空間画像を数秒で処理することができる。しかし、3D再構成画像は、収集された2D投影空間画像と解析アルゴリズムに関連する数学的仮定との間の不一致によってもたらされるようなアーチファクトに悩まされる可能性がある。さらに、アーチファクトは、ノイズなどの他のソースから発生することがあり得る。一実施例では、スキャナ220によって収集された2D投影空間画像を処理して3D再構成画像を得るために、反復アルゴリズムを使用することができる。反復アルゴリズムは、分析アルゴリズムに関連するアーチファクトの一部を抑制することができるが、すべてのタイプではなく、分析アルゴリズムよりも高品質の画像を得ることができるけれど、反復アルゴリズムは、高度なGPU技術を使用しても、分析アルゴリズムよりもはるかに長い時間がかかる。解析的アルゴリズムも反復的アルゴリズムも、すべての種類のアーチファクトに対して有効ではない。画像中のアーチファクトは、ノイズ、散乱、消光アーチファクト、ビームハードニングアーチファクト、指数関数的エッジ勾配効果、エイリアシング効果、リングアーチファクト、モーションアーチファクト、位置ずれ効果のうちの任意の1つまたはそれ以上を含む。
[0074]
ノイズアーチファクトには、ラウンドオフエラーや電気ノイズなどの付加的なノイズが含まれる。ノイズアーチファクトには、ポアソン分布に従うことができる光子数ノイズを含まれる。CBCT装置は、CT装置に比べて約1桁低いミリアンペアの電流で動作するため、CBCT画像のS/NをCT画像よりも低くすることができる。散乱アーチファクトは、直線経路に沿って移動から逸脱した物体によって散乱された光子によって引き起こされることがある。フォトンが直線経路を移動すると仮定できる特定の再構成アルゴリズムでは、散乱のためにアーチファクトが導入される可能性がある。散乱アーチファクトには、CBCT 2D/3D画像の不均一な暗化を含む。消光アーチファクトは、物体に強い吸収を持つ物質が含まれていて、光子が物体を透過できず、検出器上の信号が非常に弱いかゼロになってしまう場合がある。吸収情報は、検出器上の信号が非常に弱い場合やゼロの場合に失われることがある。2DCBCT投影空間画像における消光アーチファクトは、再構成されたCBCT2D/3D画像において、強いブライトストリーク様アーチファクトのようなアーチファクトを引き起こす可能性がある。2DCBCT投影空間画像を形成するために多色X線ビームが使用される場合、ビーム硬化アーチファクトが発生する可能性がある。多色X線ビームにおいて、低エネルギーX線は、高エネルギーX線と低エネルギーX線との比の相対的な増加をもたらすことができるように、患者の組織によって優先的に吸収され得る。比率の相対的な増加は、再構成されたCBCT2D/3D画像のアーチファクトにつながる可能性がある。指数的エッジ勾配効果(EEGE)は、隣接する構造物とのコントラストが高いシャープなエッジで発生する可能性がある。脳波は測定された強度を有限のビーム幅で平均化することで発生するが、再構成のためのアルゴリズムはゼロビーム幅を想定している。EEGEは、低減された計算された密度値を提供することができ、投影方向に長い直線エッジの接線にストリークを発生させることができる。画像のサンプリング周波数(単位面積あたりのピクセル)が、サンプリングされる空間周波数の値の2倍未満である場合に、エイリアシングアーチファクト(Aliasing artefacts)が発生する可能性がある。エイリアシングアーチファクトは、CBCT投影空間画像の収集に使用されるような発散コーンビームの結果としても発生する可能性がある。リングアーチファクト(Ring artefacts)は、欠陥や校正されていない検出器素子によって引き起こされることがある。リングアーチファクトは、回転軸を中心とした同心円状のリングとして現れることがある。モーションアーチファクト(Motion artefacts)や位置ズレの影響は、CBCT画像の収集中にソース、オブジェクト、検出器のいずれかの位置ズレによって引き起こされることがある。
[0075]
これらのCBCT画像は、画像処理ロジック120(図1)を使用するような、本明細書で議論されるようなGANを含むディープラーニング(DL)/機械学習(ML)アプローチの使用によって改善され得る。AI、DL、MLのいずれも、ランダム変数の確率とその確率分布を数学的に解析したものである。通常,ランダム変数は,ペアX、Y、{x,y},i=1,Nとして観測される。ここで、それぞれの値x∈Xに対して、我々は、それを、スカラーのカテゴリインデックスy∈Y(分類)で表されるクラスやカテゴリに割り当てたい、または、関数y=f(x)(回帰)に従って数値を割り当てたいと考えている。
[0076]
すべての分類法や回帰法は、ランダム変数X,Yを記述するための確率分布の概念に依存する。ランダム変数X,p(x)(xは離散または連続)に対する確率分布は、次の条件を満たさなければならない。(1)p(x)の領域は、xのすべての可能な値の集合である。(2)すべてのx∈Xに対して、p(x)≧0を満足する。(3)
Figure 0007039153000001
を満足する。
分布p(x)から抽出された標本xは、x~p(x)と表記される。X,Yの合同分布(joint distribution)はp(x,y)と表記され、限界分布をxとして、合同分布p(x,y)を与えられたp(x)は、p(x)=∫p(x,y)dyとなる。xの値を条件としてyを観測する確率は、p(y|x)=p(x,y)/p(x)となる。データxが与えられたときにyを観測する条件付き確率は、データ尤度と呼ばれる。ベイズの法則は、X,Yの条件付き尤度を、p(y|x)=p(x|y)p(y)/p(x)とする。
[0077]
統計的学習の目的は、任意のyをxに関連付ける写像f:x→yを決定することである。その中でも特に重要な方法の一つが最尤推定である。訓練データは、プロセスpdata(x,y)によって生成されたものとする。マッピングを見つけるには、マッピングがxに加えて依存するパラメータθを含むモデルプロセスpmodel(x;θ)を学習する必要がある。例えば、θは、ニューラルネットワーク層の重みやバイアスパラメータを含む。最尤推定は、xの最も可能性の高い値を与えるパラメータθを次のように推定する。
Figure 0007039153000002
[0078]
ここで、Eは括弧付き引数の期待値である。確率分布の近似が困難であるので、また、目標は、pdata(x)分布とpmodel(x;θ)分布間の差を最小化することであるので、KLダイバージェンス(KL divergence)は、データに基づいた次の代替手段を提供する。
Figure 0007039153000003
[0079]
ここで、最尤度は,モデル分布とデータ分布の差を最小化することに等しい、log pdata(x)項はモデルに依存しないので、DKLを最小化するためには次式を最小化する必要がある。
Figure 0007039153000004
[0080]
これは、モデル式中に暗に含まれたθを有する式(1)と同じである。所望のマッピングは、f(θ):x~pmodel→yとなる。
[0081]
現在開示されたCT画像モデリングおよびsCT画像生成のためのシステムは、放射線治療の治療計画および画像生成をモデリングするための最新のニューラルネットワーク技術の有用な応用を提供する。ニューラルネットワーク(NNs)は、1960年代から、分類問題(観測データxを2つ以上のクラスy,i=1,...,nのうちの1つに割り当てる)や、回帰問題(観測データxをそのデータに関連するパラメータの値yと関連付ける)の解決策として研究されてきた。CTおよびCBCT画像パラメータの生成は、GAN構成によって学習されたNN生成モデルの使用によって生成される回帰問題と考えてもよい。
[0082]
シンプルNNは、入力層、中間層または隠れ層、および出力層から構成され、それぞれが計算ユニットまたはノードを含む。隠れ層ノードは、入力層のすべてのノードからの入力を持ち、出力層のすべてのノードに接続されている。このようなネットワークは「完全に接続されている(fully connected)」と呼ばれている。各ノードは、その入力の和の非線形関数に応じて、出力ノードに信号を伝達する。分類器の場合,入力層ノードの数は、通常,クラスに分類されるオブジェクトの集合のそれぞれの特徴量の数に等しく,出力層ノードの数はクラスの数に等しくなる。ネットワークは、既知のクラスのオブジェクトの特徴を提示し、バックプロパゲーションと呼ばれるアルゴリズムによって学習誤差を減らすためにノードの重みを調整することによって訓練される。このようにして、訓練されたネットワークは、クラスが不明な新しいオブジェクトを分類することができる。
[0083]
ニューラルネットワークは、データとクラスや回帰値の関係性を発見する能力を持ち、ある条件下では非線形関数を含むあらゆる関数y=f(x)をエミュレートすることができる。MLでは,学習データとテストデータは同じデータ生成プロセスPdataによって生成され,各サンプル(x,y)は同一かつ独立に分布していること(identically and independently distributed:i.i.d.)を前提としている。MLでは,学習誤差を最小化し,訓練誤差と試験誤差の差をできるだけ小さくすることを目標としている.訓練誤差が大きすぎるとアンダーフィッティングが発生し、訓練と試験の誤差のギャップが大きすぎるとオーバーフィットが発生する。どちらのタイプの性能不足もモデルの容量に関連しており、大容量であると訓練データに非常によくフィットするが、オーバーフィットにつながり得る。DNNは、膨大な容量を有するので、機械学習ではオーバーフィットがより一般的な問題となっている。
[0084]
ディープラーニングとは、入力と出力が複雑に配置された多数の隠れ層を持つDNNを採用し、画像認識や音声認識などの作業において人間レベルの性能を発揮する機械学習手法である。本実施例では、観測データXと出力Yとの関係を決定するためにDNNを訓練することができる。データX={X,...X}はCBCT画像の集合体であり、出力YはsCT画像である。
[0085]
DNNの動作は、次の関数f(・)によって象徴的に捕捉される。
Figure 0007039153000005
[0086]
ここで、Θ=(θ,...θは、Yが学習時に観測された真のYに最も近い近似値である訓練されたNNに関連するパラメータのベクトルである。DNNは、訓練用CBCT画像Xと、既知の実在する対応するまたは登録されたCT画像Yのデータセット{X,Y}i,i=1,...,Nを用いて訓練される。訓練は,次の並べ替えのコスト関数J(Θ)を最小化する。
Figure 0007039153000006
[0087]
ここでΘは,実際のXと推定値Yの間の平均二乗誤差を最小化するパラメータの集合である。深層学習では、コスト関数は、データ近似関数を問題変数の確率関数、またはXが与えられ、式P(Y、X;Θ)として表されるパラメータΘの値に従うYを観測する条件付き尤度として表すことがよくある。この式に対して、尤度を最大化することにより、次式のような最適なパラメータΘMLが得られる。
Figure 0007039153000007
[0088]
または、代わりに、次式もあり得る。
Figure 0007039153000008
[0089]
この式は、訓練データを合計したものである。
[0090]
実際のCTクラスに属するsCT画像を識別する結果となるDNN出力は、分類の一例である。この場合、DNNの出力は、CBCT画像マップ Y=(y,...,yの実値要素yとなり、ネットワーク計算が回帰の一実施例となることを意味する。
[0091]
DNNは、基本的なNNの実装よりも多くの層(はるかに深い)を持っており、DNNは多くの場合、数十から数百の層を含み、各層は数千から数十万のノードで構成され、層は複雑な形状に配置されている。入力の加重和に加えて、いくつかの層では、畳み込みなどの前の層の出力に対して他の演算を計算する。畳み込みとそこから派生したフィルタは、画像のエッジやサウンドストリームの時間的/ピッチ的特徴を見つけ出し、後続の層はこれらのプリミティブ(primitives)で構成されたより大きな構造を見つけ出すことができる。このような畳み込み層の使用を伴う訓練されたDNNは、畳み込みニューラルネットワーク(CNN)と呼ばれている。
[0092]
スキップ接続はCNNの重要な構築技術的(architectural)革新である。スキップ接続は、もともと精度を向上させ、訓練を短縮するために導入されたもので、ネットワークのあるレベルのノードのデータを別のレベルのノードのデータに接続する。重要な実施例として、医用画像のセグメンテーションのために開発されたU-Netアーキテクチャがある。後述するように、「U」の「左」の部分は、画像データを畳み込みフィルタ特徴量として符号化(encode)し、「U」の「右」の部分は、それらの特徴量を連続した高解像度表現に復号化(decode)する。同じネットワーク階層レベルで符号化された特徴と復号化された特徴を組み合わせることで、より正確な分類が可能になる。スキップ接続のもう一つのバリエーションは,各CNNブロック内に実装されており,レイヤ出力を直接ではなく,レイヤ出力間の差分(残差)で訓練することである。この「ResNet」アーキテクチャとその多くのバリエーションにより、NNの精度を向上させることができる。
[0093]
図3Aは、本開示に従って合成CT画像(sCT)を生成するために適合された例示的なCNNモデル300を示す。すなわち、モデル300は、入力訓練セット(例えば、ペアのCBCTおよびCT画像302、304)に基づいて出力データセット(出力sCT画像306)を生成するように設計された「U-Net」深層CNNの配置を描写する。名前は「U」の構成に由来しており、よく理解されているように、この形式のNNモデルは、ピクセル単位の分類または回帰結果を生成することができる。
[0094]
モデル操作の左側(「符号化」操作312)は、右側(「復号化」操作314)が出力結果を再構成するために使用する特徴のセットを学習する。U-Netは、conv/BN/ReLU(畳み込み/バッチ正規化/修正線形単位)ブロック316からなるnレベルを有し、各ブロックは、残差学習を実施するためのスキップ接続を有する。ブロックサイズは、図3Aでは「S」および「F」の数で示され、入力画像のサイズはSxSであり、特徴層の数はFに等しい。各ブロックの出力は、画像と同じサイズの配列の特徴応答のパターンである。
[0095]
符号化パスを下に進むと、ブロックのサイズは各レベルで1/2または2-1で減少するが、慣習(convention)による特徴のサイズは2の要因で増加する。ネットワークのデコード側はS/2からスケールアップし、左側から特徴内容を同じレベルで追加していく。これがコピー/コンカテネート(copy/concatenate)データ通信である。図3Aに示す入力画像302、304は、出力画像が存在しないので、conv/BN/ReLU層のパラメータを評価するためのネットワークを訓練するために提供される。モデルを使用した推論、またはテストのために、入力はCBCT画像302の単一画像であり、出力はsCT画像306である。
[0096]
図3Aのモデル300の表現は、このようにして、分類ではなく回帰を実行するように適合された生成モデルの訓練および予測を例示する。図3Bは、本開示に従って合成CT画像(sCT)を識別するために適合した例示的なCNNモデルを示す。図3Bに示す識別器ネットワークは、ストライド2畳み込み層(stride-2 convolutional layers)、バッチ正規化層(batch normalization layers)およびReLu層(ReLu layers)で構成された複数のレベルのブロック、および分離されたプーリング層を含むことができる。ネットワークの最後には、識別目的のための2Dパッチを形成するために、1層または数層の完全接続層が存在することになる。図3Bに示された識別器は、入力sCT画像(例えば、図3Aに示された生成器からの)を受け取り、画像を本物または偽物として分類し、その分類を出力350として提供するように構成されたパッチベースの識別器であり得る。
[0097]
本開示の実施形態によれば、このようなモデルに基づく治療モデリング方法、システム、装置、および/またはプロセスは、2つの段階、すなわち、GANにおける識別器/生成器のペアを使用した生成モデルの訓練と、GANで訓練された生成器を使用した生成モデルを使用した予測とを含む。sCT画像生成のためのGANとCycleGANが関与する様々な実施例については、以下の実施例で詳細に説明する。深層学習モデルの種類および他のニューラルネットワーク処理アプローチの他のバリエーションおよび組み合わせもまた、本技術を用いて実施され得ることが理解されるであろう。さらに、以下の実施例は、画像および画像データを参照して論じているが、以下のネットワークおよびGANは、他の非画像データ表現およびフォーマットを使用して動作してもよいことが理解されるであろう。
[0098]
ディープCNN訓練では,学習モデルは訓練中に決定された層ノードパラメータθ(ノード重みと層バイアス)の値である。訓練は、訓練データとモデル分布の間の最尤度またはクロスエントロピー(cross entropy)を使用する。この関係を表すコスト関数は次式となる。
Figure 0007039153000009
[0099]
特定の問題に対するコスト関数の正確な形式は、使用されるモデルの性質に依存する。ガウスモデルpmodel(y|x)=N(y:f(x;θ))は、次のようなコスト関数を意味する。
Figure 0007039153000010
[0100]
この式は、θに依存しない定数項を含む。したがって、J(θ)を最小化すると、訓練データの分布を近似するマッピングf(x;θ)が生成される。
[0101]
図4は、受け取ったCBCT画像から合成CT画像を生成するために適合した敵対的生成ネットワークの訓練と使用のための例示的なデータフローを示す。例えば、訓練された生成器モデル460を生成するために訓練された図4の生成器モデル432は、図1の放射線治療システム100における画像処理ロジック120の一部として提供される処理機能132,134を実装するために訓練することができる。従って、GANモデル使用(予測)450のデータフローは、訓練された生成器モデル460への新しいデータ470(例えば、新しい患者からのCBCT入力画像)の提供、および生成結果480(例えば、入力CBCT画像に対応するsCT画像)の予測または推定値を生成するための訓練された生成器モデル460を使用するものとして、図4に描かれている。
[0102]
GANは、分類または回帰を実行するために訓練される生成ネットワーク(例えば、生成器モデル432)と、生成ネットワークの出力分布(例えば、模擬出力436)をサンプリングし、そのサンプルが真のテスト分布と同じか異なるかを決定する識別ネットワーク(例えば、識別器モデル440)との2つのネットワークから構成される。このネットワークシステムの目標は、判別器ネットが50%の確率でしか生成器サンプルの正しい原点を決定できないように、生成器ネットを駆動して、生成器ネットとの均衡に達するように、可能な限り正確に基底真理モデルを学習させることである。識別器はグラウンドトゥルースにアクセスすることができるが、生成器は生成器の出力に対する検出器の応答を通してのみ訓練データにアクセスする。
[0103]
図4のデータフローは、(CBCT患者画像データ、患者画像データに対応する実CT画像、および/または解剖学的領域424および425のマッピング、条件または制約426を含むような訓練画像423と共に)モデルパラメータ412及び訓練データ420の様々な値を含む訓練入力410の受け取りを示す。訓練入力は、GANモデル使用法450で使用される訓練された生成器モデル460を生成するために、GANモデル訓練430に提供される。解剖学的領域424および425のマッピングは、2つの画像間の類似性(例えば、SSSIM重みを用いた)を比較するために使用されるメトリックを提供する。
[0104]
GANモデル訓練430の一部として、生成器モデル432は、解剖学的領域424と実際のCTデータ及びCBCTデータペア422(これは、図3Aでは302、304として描かれている)のマッピングに基づいて訓練され、CNN内のセグメントペアを生成し、マッピングする。このようにして、生成器モデル432は、入力マップに基づいて模擬的または合成的なCT画像表現436を生成するように訓練される。識別器モデル440は、模擬表現436が訓練データ(例えば、実CT画像)からのものであるか、または生成器(例えば、生成結果434および検出結果444で生成器モデル432と識別器モデル440との間で通信されるsCT)からのものであるかを決定する。この訓練処理の結果、重み調整438,442がバックプロパゲーションされ、生成器モデル432および識別器モデル440が改善される。
[0105]
このように、本実施例では、GANモデル訓練430のためのデータ準備は、CBCT画像とペアになっているCT画像(これらを訓練CBCT/CT画像と呼ぶことがある)を必要とする。一実施例では、原データは、解剖学に由来する2D画像のペアを生成するために、共通の座標フレームに登録され、再サンプリングされてもよいCBCT画像セットと対応するCT画像のペアを含む。
[0106]
詳細には、GANモデルにおいて、生成器(例えば、生成器モデル432)は、分布p(z)を有するノイズ入力から始まるデータx,p(x)上の分布を、生成器がマッピングG(z;θ):p(z)→p(x)を学習するように学習する。ここで、Gは、層の重みとバイアスパラメータθを有するニューラルネットワークを表す微分可能な関数である。識別器D(x;θ)(例えば、識別器モデル440)は、生成器出力を2値スカラー{真(true),偽(false)}にマッピングし、生成器出力が実際のデータ分布Pdata(x)からのものであれば真(true)と決定し、生成器分布p(x)からのものであれば偽(false)と決定する。つまり、D(x)は、xが、pdata(x)から来た確率ではなく、p(x)から来た確率である。
[0107]
図5は、本明細書で議論される例示的な技術に従って、合成CT画像モデルを生成するためのGANでの訓練を示す。図5は、具体的には、入力CBCT画像540の結果として、シミュレートされた(例えば、推定された、人工的な)出力sCT画像580を生成するように設計されたGAN生成器モデルG560の動作フロー550を示している。図5は、また、入力(例えば、実CT画像510または生成されたsCT画像580)に基づいて決定値530(例えば、本物か偽物か、真か偽か)を生成するように設計されたGAN識別器モデルD520の操作フロー500を示す。特に、識別器モデルD520は、識別器モデルD520が生成されたsCT画像580が本物であるか偽物であるかを判定するかを示す出力を生成するように訓練される。
[0108]
GANのコンテキストでは、識別器D520は、両方の分布からのサンプルに正しいラベルを割り当てる確率を最大化するように訓練され、一方、生成器G560は、訓練中に適用された調整された訓練重量570に基づいて、log(1-D(G(z)))を最小化するように訓練される。D,Gは、次式のような値関数を持つ2人用のミニマックスゲームをプレイしているとみなすことができる。
Figure 0007039153000011
[0109]
学習の初期、Gのパフォーマンスが悪いときには、log(1-D(G(x)))項がV(D,G)を支配し、早期に不正確な終了を引き起こす。log(1-D(G(x))を最小化するようにGを訓練する代わりに、log(1-D(G(x))を最大化するように訓練することで、訓練の早い段階でより情報量の多い勾配を生成することができる。さらに、学習が進むにつれて、分布p(x)は真のデータ分布pdata(x)に収束する。
[0110]
GANの有用な拡張は、図6に関連して以下に説明するCycleGANである。図6は、本開示のいくつかの実施例による、受け取ったCBCT画像からsCT画像を生成するためのCycleGAN600の訓練および使用を示す。CycleGAN600は、第1の生成器モデル610と、第2の生成器モデル620と、第1の識別器モデル630と、第2の識別器モデル640とを含む。第1の生成器モデル610および第2の生成器モデル620は、それぞれ、生成器モデル432(図4)の実装(例えば、回帰型DCNNモデルとして)であってもよく、第1の識別器モデル630および第2の識別器モデル640は、それぞれ、識別器モデル440の実装(例えば、分類型DCNNモデルとして)であってもよい。CycleGAN600は、第1の部分650および第2の部分652に分割することができる。
[0111]
一実施例では、第1の部分650において、第1の生成器モデル610は、CBCT訓練画像602(画像422のうちの1つを含んでもよい)を受け取り、生成結果612としてsCT画像を生成するように訓練することができる。生成結果612は、第1の識別器モデル630に提供することができる。第1の識別器モデル630は、sCT画像を実際のCT訓練画像または模擬CT訓練画像として分類し、その分類を検出結果632として提供することができる。生成結果612および検出結果632は、第1の生成器モデル610および第1の識別器モデル630によって実装された重みを調整するために、第1の生成器モデル610および第1の識別器モデル630にフィードバックすることができる。例えば、生成結果612(例えば、第1の生成器モデル610によって生成されたsCT画像)は、逆境損失を計算するために使用することができる。また、生成結果612(例えば、sCT画像)は、第2の生成器モデル620に同時に提供することができる。第2の生成器モデル620は、生成結果612を受信し、出力として模擬CBCT画像を生成することができる。模擬CBCT画像は、サイクルCBCT画像622と呼ばれてもよく、第1の生成器モデル610/第2の生成器モデル620の重みを調整するためにサイクル損失を計算するために使用することができる。
[0112]
一実施例では、第2の部分652において、第2の生成器モデル620は、実CT訓練画像604(画像422のうちの1つを含む)を受信し、生成結果626としてsCBCT画像(合成CBCT画像または模擬CBCT画像)を生成するように訓練することができる。生成結果626は、第2の識別器モデル640に提供することができる。第2の識別器モデル640は、sCBCT画像を実CBCT訓練画像または模擬CBCT訓練画像として分類し、その分類を検出結果642として提供することができる。生成結果626および検出結果642は、第2の生成器モデル620および第2の識別器モデル640によって実装される重みを調整するために、第2の生成器モデル620および第2の識別器モデル640にフィードバックすることができる。例えば、生成結果626(例えば、第2の生成器モデル620によって生成されたsCBCT画像)は、逆説的損失を計算するために使用することができる。また、生成結果626(例えば、sCBCT画像)は、第1の生成器モデル610に同時に提供することができる。第1の生成器モデル610は、生成結果626を受信し、出力としてsCT画像を生成することができる。sCT画像は、サイクルCT画像624とも呼ばれ、第1の生成器モデル610/第2の生成器モデル620の重みを調整するためにサイクル損失を計算するために使用することができる。
[0113]
いくつかの実施例では、「敵対的損失」は、第1の識別機630および第2の識別器640の分類損失を計算することができる。第1の識別器630及び第2の識別器640は、合成画像が実画像と類似した分布を有するか否かを分類することができる。サイクル整合性損失については、実CBCT画像とサイクルCBCT画像の各ペア間、実CT画像とサイクルCT画像の各ペア間で、それぞれ損失を算出する。例えば、CBCT訓練画像602とサイクルCBCT画像622との間で第1の損失が計算することができ、実訓練CT画像604とサイクルCT画像624との間で第2の損失が計算することができる。サイクルCBCT画像622及びサイクルCT画像624は、いずれも前進及び後退のサイクルを行って得ることができる。実CBCT画像602とサイクルCBCT画像622の各ペアは、同一のCBCT画像領域内にあってもよく、実CT画像604とサイクルCT画像624の各ペアは、同一のCT画像領域内にあってもよい。CycleGANは、それに応じて、合成CT画像(sCT画像)612および合成CBCT画像(sCBCT画像)622を生成するために、真実のまたは実際のCBCT画像602のひとつの全体プール(または複数)および実CT画像604のひとつの全体プール(または複数)に依存することができる。「敵対的損失」および「サイクル整合損失」に基づいて、CycleGAN600は、実CT画像と同様の画像解像度を有するシャープな合成CT画像を生成することができる。これは、与えられたCBCT画像を改善するためにDCNNを使用するという、上述された以前のアプローチのうちのひとつよりも少なくとも1つの技術的な改善である。
[0114]
いくつかの実施例では、プロセッサ(例えば、システム100の)は、実CT訓練画像を訓練CBCT画像に登録するために画像登録を適用することができる。これにより、訓練データ中のCBCT画像とCT画像との間に1対1の対応関係が形成される可能性がある。この関係は、ペアされた、または、CBCT画像とCT画像のペアと呼ばれる。一実施例では、CycleGAN600は、対応するCBCT画像と全く同じ解剖学的構造または実質的に同じ構造を保持し、かつ、ピクセル値の精度を含む実CT画像と同様の高い画像品質を有する1つまたはそれ以上のsCT画像を生成することができる。いくつかの実施形態では、これらの解剖学的構造は、2つの画像間の類似性を表すメトリックを提供する解剖学的領域424(図4)のマッピングから決定することができる。一実施例では、CBCT画像に対応するsCT画像のピクセル値精度を保持するために(例えば、CBCT画像が実CT画像として現れるために)、CycleGAN600に追加の制約を加えてもよい。これらの制約は、sCT画像と実CT画像との間、及びsCBCT画像と実CBCT画像との間の画素値損失を表す画素値損失を追加することを含むことができる。このような制約は、制約426(図4)の一部であってもよい。sCT画像と対応するCT画像とを直接リンクさせるこれらの制約は、次式の画素値損失項(画素ベース損失項:pixel based loss term)で表することができる。
Figure 0007039153000012
ここで、x、yはペアになったCBCT画像と実CT画像であり、G1は第1の生成器モデル610(例えば、CBCTからsCTへの生成器)であり、Eは全てのsCT画像と対応する実CT画像との間のL1差分の期待値を表し、G1(x)はsCT画像である。Eの値は、記憶装置116、外部データソース、人間の入力、および/または追加のsCTおよびsCBCT画像が生成されるにつれて連続的に更新することができる。
[0115]
sCBCT画像と対応するCBCT画像とを直接リンクさせるための制約として、別の画素値損失項が追加されてもよいが、これは次式の画素値損失項で表することができる。
Figure 0007039153000013
ここで、x,yはCBCT画像とCT画像のペアであり、G2は第2の生成器モデル620(実CTからsCBCT生成器への)であり、G2(x)はsCBCT画像である。
[0116]
これら2つの画素値損失項(L1ノルム項)は、sCT画像を、対応する実CT画像と比較し、sCBCT画像を、対応する実CBCT画像と比較する。この2つのL1ノルム項を最小化または低減することにより、合成画像は、対象となる真/実画像と画素値が一致する可能性が高くなる。より具体的には、例えば、sCT-CTのL1ノルム項を最小化または低減することにより、生成されたsCT画像は、強制的に、または対応するCT画像とのピクセルレベルの精度および類似性を有する可能性がより高いものとすることができる。医用画像における画素の絶対値は、何らかの特定の物理的な測定値または量を表すことができるので、従来のシステムに比べて技術的な改善をもたらす可能性がある。例えば、CTの画素値には電子密度に関する情報が含まれており、放射線量の計算に有用である。別の実施例として、放射線治療システム100は、被検体の標的領域に向けて放射線治療または放射線をより正確に指示することができる。
[0117]
別の実施例では、重みのようなメトリックが、(例えば、ペアリングされた画像が完全に整列していない状況を考慮するために)ピクセルベースの損失項に追加されてもよい。そのようなメトリックは、制約426から取得することができる。メトリックは、所定の割り当てられた重み、普遍的な品質指標(UQI)、局所的な相互相関、または2つの画像間の類似性または他の関係を測定する他の任意の技術を使用して生成することができる。本開示の目的のために、2つの画像間の関係を測定するために使用されるメトリックはSSIM重みであるが、他の任意のメトリックを使用することができる。例えば、SSIM重み付きL1ノルムアプローチは、ペアのCBCT-CT画像の不完全なマッチングを補正するために使用することができる。特に、sCT-CTのL1ノルム項を最小化または減少させることにより、CycleGAN600は、sCT画像が対象とする実CT画像とピクセル値が一致するという制約を強制することができる。ペアになったCBCT-CT画像のすべて、または実質的にすべてが完全に整列している場合、対象となる実CT画像は、CBCT画像と同じ解剖学的構造を有している可能性がある。このような状況では、生成されたsCT画像は、また、CBCT画像における同じ解剖学的構造を保存することができる。いくつかの実施例では、ペアされたCBCT画像とCT画像が完全に整列していないことがある(例えば、患者の解剖学的構造(特に、いくつかの臓器または軟部組織)が、CBCT画像と対応する実CT画像を撮影する間に変化しているため)。これらの場合、sCT-CTおよび/またはsCBCT-CBCTのL1損失項を最小化または減少させることは、(例えば、生成された合成CT画像が、それらのずれた領域の対応するCT画像と一致するように強制することによって)訓練された生成器および識別器モデルに、生成された画像に何らかの歪みを生じさせる誤差を導入させる可能性がある。潜在的な歪み効果を除去/抑制/低減する1つの方法は、sCT-CTおよびsCBCT-CBCTの画素ベースの損失項に対して、次式のような、SSIM重みを追加することである。
Figure 0007039153000014
Figure 0007039153000015
[0118]
いくつかの実施形態では、重み(SSIM(x,y))は、ペアになったCBCT画像およびCT画像と同じサイズまたは実質的に同じサイズを有するマップ(例えば、解剖学的マップ424)であってもよい。SSIM(x,y)の各画素値は、同じ画素位置にある元のCBCTと対応する実CT画像のペア間の類似度を表することができる。SSSIMの画素値の範囲は、0から1の範囲とすることができる(他の範囲であってもよい)。値1は、CBCTと、対応する実CT画像が画像位置で良好に整列していることを示す完全な構造類似度を表し、値0は、構造類似度が最も低いことを表すことができる。例えば、CBCT画像および実CT画像の各ペアに対して(例えば、記憶装置116に記憶されているCBCT画像および実CT画像の各ペアに対して)、SSIMマップ/画像を(例えば、システム100のプロセッサにより)計算することができる。SSIMマップは、所定のペアの訓練画像を形成する際に、または、訓練画像のしきい値番号が得られて記憶された後に、システム110によって計算することができる。計算システムは、画像モデリングを使用して、CBCT画像と実CT画像のペアが整列している確率をピクセルごとに決定し、その確率を格納するか、または決定された確率でそのピクセルのSSIM値を更新することができる。いくつかの実施形態では、この確率値は、人間のオペレータによって入力されてもよいし、医師によってガイドすることができる。SSSIM重み付けsCT-CTピクセルベースの損失項は、CBCTと実CTの間のピクセルの組が強い類似性を有する高いSSSIM値(1に近い)を有する場合、SSSIM重み付けL1ノルム項を最小化することによって、CycleGAN600が、sCT画像が(例えば、CBCT画像とCT画像との間の類似性重みが大きいために)対象とするCT画像と一致することを意味する。一方、CBCTと実CTとの間のペアの画素が低いSSSIM値(0に近い)である場合、SSIM重み付けされたL1ノルム項を最小化または減少させることにより、CycleGAN600は、(例えば、重みが既に小さい(0に近い)ため)合成CT画像が標的CTと一致することを回避することができる。特に、マップの重みがCT/CBCT画像のペアの間の類似度が低レベルであることを示す場合には、所定の画素位置において画素値損失項が最小化されるか、または低減される可能性が低減される。これにより、画素位置での2枚の画像の差分sCTへの影響を低減させることができる。また、マップの重みがペアのCT画像及びCBCT画像間の類似度が高いことを示している場合には、所定の画素位置において画素値損失項が最小化または減少する可能性が高くなる。これにより、画素位置における2枚の画像間の差分のSCTへの影響が大きくなる。SSSIM重みは、ピクセル単位で対象となる実CT画像と一致するように、sCT画像に異なるレベルの強度を強制するメカニズムを提供する。
[0119]
同様に、SSIM重み付けsCBCT-CBCTピクセルベースの損失項は、CBCTと実CTの間のピクセルの組が強い類似性を有する高いSSSIM値(1に近い)を有する場合、SSSIM重み付けL1ノルム項を最小化することにより、CycleGAN600は、(例えば、CBCT画像とCT画像の間の類似性重みが大きいため)sCBCT画像が標的CBCT画像と一致することを引き起こし得ることを意味する。一方、CBCTと実CTとの間の一対の画素が低いSSSIM値(0に近い)を有する場合、SSIM重み付けされたL1ノルム項を最小化または減少させることにより、CycleGAN600は、(例えば、重みが既に小さい(0に近い)ため)合成CBCT画像が標的CBCTと一致することを回避することができる。特に、マップの重みがCT/CBCT画像の対の間の類似度の低レベルを示す場合に、所定の画素位置において画素値損失項が最小化されるか、または低減される可能性が低減される。これにより、画素位置における2つの画像間の差分のsCBCTへの影響を低減することができる。また、マップの重みがペアのCT画像及びCBCT画像間の類似度が高いことを示している場合には、所定の画素位置において画素値損失項が最小化または減少する可能性が高くなる。これにより、画素位置での2つの画像間の差のsCBCTへの影響が大きくなる。SSIM重みは、ピクセル単位のレベルで標的とされた実CBCT画像と一致するように、sCBCT画像に異なるレベルの強度を強制するメカニズムを提供する。
[0120]
別の実施例では、閾値付きSSIM加重L1ノルムアプローチを用いることができる。この閾値は、制約426(図4)から取得することができる。特に、ペアのCBCT画像及び実CT画像の間の類似度の高い領域を選択し、類似度の低い領域を無視するために、SSSIMの重みに閾値を置くことができる。例えば、SSIM(x,y)の重み値が閾値α(ハイパーパラメータ)未満である場合、それらの重みは全てゼロに設定されてもよい(例えば、重みは無視されてもよく、それによって損失項が減少または最小化される可能性が減少する)。このような領域については、重みがゼロであるため、sCTはCT画像と強制的に一致させることができない(2枚の画像間の差の情報が得られない場合がある)。このように、重み=0なので、差分=0を乗算すると、その画素での2つの画像の差は影響を受けないことになる。その代わりに、プロセスは、それらの画素領域を回復するために、敵対的損失とサイクル整合性損失に依存している。重み値が閾値α(ハイパーパラメータ)以上である場合、重みは、画素ベースの損失値について上述したのと同様の効果を有する。この閾値付きSSIM重み付けL1ノルムは、次式のように表すことができる。
Figure 0007039153000016
[0121]
閾値化されたSSIM重み付けされたL1のsCT-CT画素ベースの損失項は、次式のように表すことができる。
Figure 0007039153000017
[0122]
閾値SSIM重み付けされたL1 sCBCT-CBCT項は、次式のように表すことができる。
Figure 0007039153000018
[0123]
ハイパーパラメータαの範囲は、0から1の間で設定することができる。いくつかの実施例では、ハイパーパラメータαの値を0.5または0.6に設定する。
[0124]
いくつかの実施形態では、CycleGAN600は、敵対的損失項、サイクル整合性損失項、およびピクセルベース損失項(L1ノルム項)を含む目的関数に従ってsCT画像を生成するように実装することができる。画素ベースの損失項は、重み付け(例えば、SSSIM重み付け)および/または閾値重み付けすることができる。敵対損失は、第1の生成器モデル610/第2の生成器モデル620および第1の識別器モデル630/第2の識別器モデル640を用いて決定され、次式のように表することができる。
Figure 0007039153000019
ここで、LGAN(G1,Dct,x,y)は、次式のように表すことができる。
Figure 0007039153000020
Figure 0007039153000021
また、LGAN(G1,Dcbct,y,x)は、次式のように表すことができる。
Figure 0007039153000022
Figure 0007039153000023
[0125]
特に、Dctは第1の識別器モデル630を表し、G1は第1の生成器モデル610を表す。LGAN(Dcbct,x,y)およびLGAN(G2,x,y)に対する同様の関数は、最小化または縮小されてもよい。ここで、Dcbctは、第2の識別器モデル640を表し、G2は、第2の生成器モデル620を表す。サイクル整合性損失項は、画像622および624を用いて決定され、次式のように表することができる。
Figure 0007039153000024
[0126]
CycleGANの総損失は、次式のように表すことができる。
Figure 0007039153000025
[0127]
画素ベースの損失項は、次式のように表すことができる。
Figure 0007039153000026
[0128]
このような場合、全目的関数は、次式のように表すことができる。
Figure 0007039153000027
[0129]
画素ベースの損失項に重み(SSIM)が適用される場合、重み付けされた画素ベースの損失項は、次式のように表すことができる。
Figure 0007039153000028
[0130]
このような場合、全目的関数は、次式のように表すことができる。
Figure 0007039153000029
[0131]
画素ベースの損失項に閾値付き重み(SSIM)が適用される場合、閾値付き重み付き画素ベースの損失項は、次式のように表すことができる。
Figure 0007039153000030
[0132]
したがって、目的関数の合計は、次式のように表すことができる。
Figure 0007039153000031
ここで、λ、λは、それぞれ、2つの損失の相対的な強さを制御する。CycleGAN600は、第1の生成器610/第2の生成器620を次式に従って訓練する。
Figure 0007039153000032
[0133]
いくつかの実施形態では、CycleGAN600を用いて訓練された後、第1の生成器モデル610は、取得されたCBCT画像からsCT画像を生成するためにシステム100において使用することができる。CycleGAN600の他の構成要素は、システム100から除外することができる。
[0134]
先行する実施例は、CT画像およびCBCT画像のペアに基づいて、具体的には2D画像スライスの画像データから、GANまたはCycleGANを訓練する方法の例を提供する。GANまたはCycleGANは、他の形態の画像データ(例えば、3Dまたは他の多次元画像)を処理してもよいことが理解されるであろう。さらに、添付の図面では(黒および白を含む)グレースケール画像のみが描かれているが、以下の実施例で議論されるように、カラー画像がGANによって生成および/または処理されてもよいことが理解されるであろう。
[0135]
図7は、訓練およびsCT画像モデルの生成に関連して使用されるCBCTおよび実CT入力画像のペアを示す。図7において、画像702は、実CT画像704とペアになっている入力CBCT画像を示す。画像706は、画像類似度メトリック(例えば、SSSIM重み)を提供するために解剖学的領域424のマップとして使用される画像を表し、画像708は、閾値付き類似度メトリック(例えば、閾値付きSSIM重み)を提供するために解剖学的領域424のマップとして使用される画像を表す。CycleGANの生成器が訓練された後、新しいCBCT画像が受信することができる。CycleGANは、新しいCBCT画像(例えば、画像702)を処理して、sCT画像712を出力することができる。CycleGANの出力の品質をさらに向上させるために、CycleGANまたはGANモデルを訓練する際に、画素ベースの損失項(または重み付きおよび/または閾値付き重み付き画素ベースの損失項)を使用することができる。そのような状況では、入力画像702を受け取った後、(画素ベースの損失項に基づいて訓練された)CycleGANまたはGANは、sCT画像714を出力することができる。特に、sCT画像714は、従来のL1正則化を用いてCycleGANによって得られたsCT画像であり得る。いくつかの実施形態では、入力画像702を受け取った後、(SSIMマップ画像706のような画像メトリックを考慮したピクセルベースの損失項に基づいて訓練された)CycleGANまたはGANは、sCT画像716を出力することができる。特に、sCT画像716は、SSSIM重み付けされたL1損失を有するCycleGANによって得られたsCT画像であり得る。いくつかの実施形態では、入力画像702を受け取った後、(閾値付きSSIMマップ画像708のような画像メトリックを考慮した閾値-ピクセルベースの損失項に基づいて訓練された)CycleGANまたはGANは、sCT画像718を出力することができる。特に、sCT画像718は、閾値化されたSSSIM-重み付けされたL1-損失を有するCycleGANによって得られたsCT画像であり得る。本明細書で議論されるように、画素ベースの損失項(または、重み付きおよび/または閾値付き重み付き画素ベースの損失項)は、sCT画像と実CT画像および/またはCBCT画像とsCBCT画像との間のすべてまたは閾値付きの数の間の画素値に基づく期待差を表す。
[0136]
図8は、入力CBCT画像からsCT画像を出力するために適合された生成モデルを訓練するための例示的な操作のプロセス800のフローチャートを示す。プロセス800は、先行する実施例で議論されたようなGANまたはCycleGANを使用して生成モデルを訓練して利用する放射線治療処理システム100の観点から図示されている。しかしながら、対応する操作は、(特定の画像処理ワークフローまたは医療処置とは別のオフラインの訓練または検証設定におけるものを含む)他の装置またはシステムによって実行されてもよい。
[0137]
図示されているように、フローチャートのワークフローの第1のフェーズは、訓練およびモデル操作のパラメータを確立するための操作(810、820)から始まる。フローチャート800は、訓練画像データを受信(例えば、取得、抽出、識別)するための操作(操作810)と、訓練のための制約または条件を設定するための操作(操作820)から始まる。一実施例では、この訓練画像データは、特定の状態、解剖学的特徴、または解剖学的領域に関連する、複数の人間の被検体らの画像データから構成されてもよく、例えば、標的領域のCBCT画像および実CT画像のペアのようなものである。また、一実施例では、制約は、撮像装置、治療装置、患者、または医学的治療の考慮事項に関連している。例示的な実施例では、これらの制約は、敵対的損失、サイクル整合性に基づく損失、およびピクセルに基づく値の損失項(すなわち、重み付けされたおよび/または閾値付けされた重み付けされたピクセルに基づく損失項)を含むことができる。
[0138]
フローチャート800の第2のフェーズは、敵対的生成ネットワークにおける生成モデルおよび識別モデルの逆説訓練を含む訓練操作を継続する(操作830)。一実施例では、逆説的訓練は、入力CBCT画像から模擬CT画像を生成するために生成モデルを訓練し(操作842)、生成されたCT画像を模擬または実際の訓練データとして分類するために識別モデルを訓練することを含む(操作844)。また、この敵対的訓練では、生成モデルの出力が識別モデルの訓練に使用され、識別モデルの出力が生成モデルの訓練に使用され、識別モデルの出力が生成モデルの訓練に使用される。様々な実施例では、生成モデルおよび識別モデルは、(例えば、上述の図3Aおよび3Bを参照してそれぞれ論じたように)それぞれの畳み込みニューラルネットワークを構成する。更なる実施例では、敵対的生成ネットワークは、(例えば、上記の図6を参照して議論されるように)複数の生成モデルおよび敵対モデルが採用され、1つの生成モデルからの出力が第2の生成モデルへの入力として提供されるサイクル敵対的生成ネットワークである。
[0139]
フローチャート800は、生成モデルが被検体の入力CBCT画像に基づいてsCT画像を生成するように適合されているので、sCT画像を生成する際に使用するための生成モデルの出力(動作850)を継続する。生成モデルは、CBCT画像を強化するため、または画像処理を実行するために、システム100内の任意のコンポーネントに採用することができる。いくつかの実施形態では、生成モデルは、外部ソース(例えば、サードパーティベンダー)からシステム100に追加することができる。
[0140]
フローチャート800は、被検体の入力CBCT画像に基づいてsCT画像を生成するために訓練された生成モデルを利用する(操作860)ことを継続する。生成モデルは、CBCT画像を強化するため、または画像処理を実行するために、システム100の任意のコンポーネントで採用することができる。いくつかの実施形態では、生成モデルは、外部ソース(例えば、サードパーティのベンダー)からシステム100に追加することができる。
[0141]
フローチャート800は、追加の訓練データに基づいて生成モデルを更新すること(操作870)、および更新された訓練された生成モデルを出力すること(操作880)を含む、生成モデルへの更新を実施するための最終段階で終了する。様々な実施例では、更新は、追加の訓練画像データおよび制約の受信に関連して(例えば、操作810、820と同様の態様で)、または追加の敵対的訓練の実行に関連して(例えば、操作830、842、844と同様の態様で)生成することができる。更なる実施例では、生成モデルは、sCT画像の承認、変更、または使用(例えば、医療専門家による画像データの修正、検証、または変更の結果)に基づいて具体的に更新することができる。フローチャートは、後続の放射線治療のための更新された生成モデルの使用において実行され得るような、更新された訓練された生成モデルの使用(操作890)で終了する。
[0142]
図6及び図8を参照して上述したように、敵対的生成ネットワークは、生成モデルと敵対モデルからなるサイクル敵対的生成ネットワークである。
[0143]
前に議論したように、それぞれの電子計算システムまたは装置は、本明細書で議論された方法または機能的な操作のうちの1つまたはそれ以上を実装することができる。1つまたはそれ以上の実施形態では、放射線治療処理計算システム110は、画像誘導放射線治療装置202を制御または操作するために、モデル300からの訓練または予測操作を実行または実施するために、訓練された生成器モデル460を操作するために、データフロー500、550、600を実行または実施するために、フローチャート800の操作を実行または実施するために、または、本明細書で議論されている他の方法論のうちの任意の1つまたはそれ以上を(例えば、画像処理ロジック120およびワークフロー130、140の一部として)実行するために、構成され、適合され、または使用される。様々な実施形態では、そのような電子計算システムまたはデバイスは、スタンドアロンデバイスとして動作するか、または他のマシンに(例えば、ネットワーク化されて)接続されている。例えば、そのような計算システムまたはデバイスは、サーバクライアントネットワーク環境におけるサーバーまたはクライアントマシンの容量内で動作してもよいし、ピアツーピア(または分散)ネットワーク環境におけるピアマシンとして動作してもよい。計算システムまたは計算装置の機能は、パーソナルコンピュータ(PC)、タブレットPC、パーソナルデジタルアシスタント(PDA)、携帯電話、ウェブアプリ、または、そのマシンによって実行されるべきアクションを指定する命令を(シーケンシャルまたは他の方法で)実行することが可能な任意のマシンによって具現化することができる。
[0144]
また、上述したように、上述した機能は、機械可読媒体上の命令、論理、または他の情報の記憶によって実装することができる。機械可読媒体は、単一の媒体であることを参照して様々な例で説明されてきたが、「機械可読媒体」という用語は、1つまたはそれ以上の一過性または非一過性の命令またはデータ構造を格納する単一の媒体または複数の媒体(例えば、集中型または分散型のデータベース、および/または関連するキャッシュおよびサーバー)を含むものとすることができる。「機械可読媒体」という用語はまた、機械によって実行されるための一過性または非一過性の命令を格納、符号化または運搬することが可能であり、機械に、本発明の方法論のいずれか1つまたはそれ以上を実行させるか、またはそのような命令によって利用されるか、またはそのような命令に関連するデータ構造を格納、符号化または運搬することが可能である任意の有形媒体を含むと解されるものとする。
[0145]
上記の詳細な説明は、詳細な説明の一部を形成する添付図面への参照を含む。図面は、図示のためではあるが、限定するものではないが、本発明を実施することができる特定の実施形態を示している。これらの実施形態は、本明細書では「実施例」とも呼ばれる。そのような実施例は、図示されたまたは記載されたものに加えて、要素を含むことができる。しかしながら、本開示は、図示されたまたは記載された要素のみが提供される実施例も想定しうる。更に、本開示はまた、特定の実施例(またはその1つまたはそれ以上の態様)に関して、または、本明細書に示されたまたは記載された他の実施例(またはその1つまたはそれ以上の態様)に関して、図示されたまたは記載されたそれらの要素の任意の組み合わせまたは順列を使用する実施例も想定しうる。
[0146]
本明細書で参照される、すべての出版物、特許、および特許文書は、個々が参照により組み込まれているが、参照によりその全体が本明細書に組み込まれる。本明細書と、参照により組み込まれた文書との間に一貫性のない用法がある場合、参照により組み込まれた文書での用法は、本明細書の用法を補足するものと見なされ、矛盾する用法については、本明細書の用法が支配する。
[0147]
本明細書では、用語「a」、「an」、「the」、「said」は、特許文書で一般的であるように、本発明の態様の要素を導入するときに使用され、「少なくとも1つの」または「1つまたはそれ以上の」のいかなる他の例または使用法とは無関係に、1つまたはそれ以上の要素よりも1つまたはそれ以上を含む。本明細書では、用語「または(or)」は、「AまたはB(A or B」が、そうでないと示されない限り、「Aを含むがBを含まない(A but not B)」、「Bを含むがAを含まない(B but not A)」、「AおよびB(A and B)」を含むように、非排他的であることを指すために使用される。
[0148]
添付の特許請求の範囲において、用語「including(含む)」および「in which(その中で)」は、それぞれの用語「comprising(含む)」および「wherein(ここで)」の平易な英語の等価物として使用される。また、以下の特許請求の範囲において、用語「含む(comprising)」、「含む(including)」、「含む(having)」、は、オープンエンドであることを意図し、請求項のそのような用語(例えば、「含む(comprising)」、「含む(including)」、「含む(having)」)の後に列挙されている要素に追加した要素を含むものが、依然としてその請求項の範囲内にあるとみなされる。さらに、以下の特許請求の範囲では、「第1の」、「第2の」、および「第3の」などの用語は、単なるラベルとして使用されており、それらの対象に数値要件を課すことを意図していない。
[0149]
本発明はまた、本明細書の操作を実行するために適合され、構成され、または操作されるコンピューティングシステムに関する。このシステムは、必要な目的のために特別に構成することも、コンピュータに格納されたコンピュータプログラムによって選択的にアクティブ化または再構成された汎用コンピュータを含むこともできる。本明細書において図示および説明される本発明の実施形態における動作の実行または実行の順序は、特に指定されない限り、必須ではない。すなわち、特に明記しない限り、操作は任意の順序で実行でき、本発明の実施形態は、本明細書に開示されているものよりも多いまたは少ない操作を含むことができる。例えば、別の操作の前、同時、または後に特定の操作を実行または実行することは、本発明の態様の範囲内であると考えられる。
[0150]
上記記載を考慮すれば、本発明のいくつかの目的が達成され、他の有利な結果が得られることが分かるであろう。本発明の態様を詳細に説明したが、添付の特許請求の範囲で定義される本発明の態様の範囲から逸脱することなく、修正および変更が可能であることは明らかであろう。本発明の態様の範囲から逸脱することなく、上記の構造、製品、および方法に様々な変更を加えることができるので、上記の説明に含まれ、添付の図面に示されるすべての事項は、例示として、かつ、限定的な意味ではないと、解釈されるべきである。
[0151]
本明細書に記載された例は、様々な実施形態で実施することができる。例えば、一実施形態は、処理ハードウェア(例えば、プロセッサまたは他の処理回路)およびそこに具現化された命令を含むメモリハードウェア(例えば、記憶装置または揮発性メモリ)を含むコンピューティングデバイスを含み、そのような命令は、処理ハードウェアによって実行されると、コンピューティングデバイスに、これらの技術およびシステム構成のための電子的な操作を実装、実行、または調整することを引き起こす。本明細書で論じられる別の実施形態は、機械可読媒体または他の記憶装置によって具現化されるようなコンピュータプログラム製品を含み、それは、これらの技術およびシステム構成のための電子的操作を実施、実行、または調整するための命令を提供する。本明細書で論じられる別の実施形態は、これらの技術およびシステム構成のための電子的操作を実施、実行、または調整するために、コンピューティングデバイスの処理ハードウェア上で操作可能な方法を含む。
[0152]
更なる実施形態において、上述した電子的操作の態様を実施する論理、命令、または命令は、デスクトップまたはノートブック型パーソナルコンピュータ、タブレット、ネットブック、スマートフォンのようなモバイルデバイス、クライアント端末、およびサーバーホストマシンインスタンスのようなコンピューティングシステム用の任意の数のフォームファクタを含む、分散型または集中型コンピューティングシステムで提供することができる。本明細書で議論される別の実施形態は、本明細書で議論される技術を、そのような技術の機能を実行するためのそれぞれの手段を有する装置を含む、プログラムされた論理、ハードウェア構成、または特殊なコンポーネントまたはモジュールの他の形態に組み込むことを含む。このような技術の機能を実装するために使用されるそれぞれのアルゴリズムは、上述した電子的操作の一部または全部のシーケンス、または添付の図面および以下の詳細な説明に描かれている他の側面を含むことができる。
[0153]
上記の説明は、例示を意図したものであり、限定を意図したものではない。例えば、上述の実施例(または1つまたはそれ以上の態様)は、互いに組み合わせて使用することができる。さらに、本発明の範囲から逸脱することなく、特定の状況または材料を本発明の教示に適合させるために、多くの修正を行うことができる。本明細書に記載された寸法、材料の種類、および例示的なパラメータ、機能、および実施形態は、本発明のパラメータを定義することを意図しているが、それらは決して限定的なものではなく、例示的な実施形態である。上記の説明を検討すれば、他の多くの実施形態が当業者には明らかであろう。したがって、本発明の範囲は、添付の特許請求の範囲を参照して、そのような特許請求の範囲が権利を与えられる等価物の全範囲とともに決定されるべきである。
[0154]
また、上記の詳細な説明では、開示を簡素化するために、さまざまな機能をグループ化することがある。これは、クレームされていない開示された機能がクレームに不可欠であることを意図するものとして解釈されるべきではない。むしろ、発明の主題は、特定の開示された実施形態のすべての特徴より少ない場合がある。したがって、以下の請求項は、これにより詳細な説明に組み込まれ、各請求項は別個の実施形態としてそれ自体で成立する。本発明の範囲は、添付の特許請求の範囲を参照して、そのような特許請求の範囲が権利を与えられる均等物の全範囲とともに決定されるべきである。

Claims (15)

  1. 訓練されたモデルを使用して強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのコンピュータ実装方法であって、
    前記方法は、
    被検体のCBCT画像を受け取るステップと、
    生成モデルを使用して、前記CBCT画像に対応する合成コンピュータ断層撮影(sCT)画像を生成するステップであって、前記生成モデルは、敵対的生成ネットワーク(GAN)で訓練され、前記生成モデルは、更に、入力として前記CBCT画像を処理し、出力として前記sCT画像を提供するように訓練されるステップと、
    前記被検体の医学的分析のために前記sCT画像を提示するステップと
    を有する
    ことを特徴とするコンピュータ実装方法。
  2. 請求項1記載の方法において、
    前記敵対的生成ネットワークは、識別モデルを使用して前記生成モデルを訓練するように構成され、
    前記生成モデルおよび前記識別モデルによって適用される値が、前記識別モデルと前記生成モデルの間の敵対的訓練を使用して確立され、
    前記生成モデルと前記識別モデルは、それぞれ畳み込みニューラルネットワークを有する
    ことを特徴とする方法。
  3. 請求項2記載の方法において、
    前記敵対的訓練は、与えられたCBCT画像から与えられたsCT画像を生成するために前記生成モデルを訓練することと、与えられたsCT画像を合成または実コンピュータ断層撮影(CT)画像として分類するために前記識別モデルを訓練することとを有し、
    前記生成モデルの出力は、前記識別モデルを訓練するために使用され、前記識別モデルの出力は、前記生成モデルを訓練するために使用される
    ことを特徴とする方法。
  4. 請求項1記載の方法において、
    前記敵対的生成ネットワークは、前記生成モデルと識別モデルからなるサイクル敵対的生成ネットワーク(CycleGAN)を使用して訓練され、前記生成モデルは第1の生成モデルであり、前記識別モデルは第1の識別モデルであり、
    前記CycleGANは、
    所定のCT画像を入力として処理し、所定の合成sCBCT画像を出力として提供するように訓練された第2の生成モデルと、
    前記所定のsCBCT画像を合成CBCT画像または実CBCT画像として分類するように訓練された第2の識別モデルと
    を有する
    ことを特徴とする方法。
  5. 請求項4記載の方法において、
    前記CycleGANは、前記第1の生成モデルを訓練するための第1の部分と第2の部分を有し、
    前記第1の部分は、
    実CT画像とペアになった訓練CBCT画像を取得し、
    前記訓練されたCBCT画像を、前記第1の生成モデルの前記入力に送信して、所定の合成CT画像を出力し、
    前記所定の合成CT画像を前記第1の識別モデルの入力で受け取り、前記所定の合成CT画像を合成CT画像または実CT画像として分類し、サイクル整合性損失を計算するためのサイクルCBCT画像を前記第2の生成モデルの入力で生成するように訓練され、
    前記第2の部分は、
    前記実CT画像を前記第2の生成モデルの前記入力に送信し、所定の合成CBCT画像を生成し、
    前記所定の合成CBCT画像を前記第2の識別モデルの前記入力で受け取り、前記所定の合成CBCT画像を合成CBCT画像又は実CBCT画像として分類し、サイクル整合性損失を計算するためのサイクルCT画像を前記第1の生成モデルの前記入力で生成するように訓練される
    ことを特徴とする方法。
  6. 請求項5記載の方法において、
    前記第1の生成モデルは、複数の合成CT画像とそれぞれペアになった実CT画像との間の差の期待値を表す第1の画素ベース損失項を最小化または減少させるように訓練され、
    前記第2の生成モデルは、複数の合成CBCT画像とそれぞれペアになった実CBCT画像との間の差の期待値を表す第2の画素ベース損失項を最小化または減少させるように訓練される
    ことを特徴とする方法。
  7. 請求項6記載の方法において、
    前記CycleGANは、前記第1の画素ベース損失項と前記第2の画素ベース損失項にメトリックを適用するように訓練され、前記メトリックは、CBCT画像と実CT画像のペアと同じサイズを有するマップに基づいて生成され、その結果、前記マップ内の各ピクセル値が、前記所定のCBCT画像と前記所定のCBCT画像とペアになった所定の実CT画像との間の類似度レベルを表す
    ことを特徴とする方法。
  8. 請求項7記載の方法において、
    前記CycleGANは、前記メトリックに閾値を適用するように訓練され、その結果、前記類似度レベルが前記閾値を超える場合、前記メトリックが前記第1の画素ベース損失項と前記第2の画素ベース損失項に適用され、そうでない場合、ゼロ値が前記第1の画素ベース損失項と前記第2の画素ベース損失項に適用される
    ことを特徴とする方法。
  9. 請求項1記載の方法において、
    前記敵対的生成ネットワークは、敵対的損失項とサイクル整合性損失項と画素ベース損失項に基づく目的関数に従って訓練される
    ことを特徴とする方法。
  10. 強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのモデルを訓練するためのコンピュータ実装方法であって、
    前記方法は、
    生成モデルの入力として被検体のCBCT画像を受け取るステップと、
    前記CBCT画像を処理して、前記生成モデルの出力として前記CBCT画像に対応する合成コンピュータ断層撮影(sCT)画像を提供するために、前記生成モデルを敵対的生成ネットワーク(GAN)で訓練するステップと
    を有する
    ことを特徴とするコンピュータ実装方法。
  11. 請求項10記載の方法において、
    前記敵対的生成ネットワークは、前記生成モデルと前記識別モデルを有するサイクル敵対的生成ネットワーク(CycleGAN)を使用して訓練され、
    前記生成モデルは第1の生成モデルであり、前記識別モデルは第1の識別モデルであり、
    前記方法は、更に、
    入力として所定のCT画像を処理し、出力として所定の合成(sCBCT)画像を提供するため、第2の生成モデルを訓練するステップと、
    前記所定のsCBCT画像を合成CBCT画像または実CBCT画像として分類するため、第2の識別モデルを訓練するステップと
    を有する
    ことを特徴とする方法。
  12. 請求項11記載の方法において、
    前記CycleGANは、前記第1の生成モデルを訓練するための第1の部分と第2の部分を有し、
    前記方法は、更に、
    実CT画像と対となっている訓練CBCT画像を取得するステップと、
    前記訓練CBCT画像を前記第1の生成モデルの前記入力に送信し、所定の合成CT画像を出力するステップと、
    前記所定の合成CT画像を前記第1の識別モデルの前記入力で受け取るステップと、
    前記第1の識別モデルを用いて、前記所定の合成CT画像を合成CT画像または実CT画像として分類するステップと、
    前記所定の合成CT画像を前記第2の生成モデルの前記入力で受け取り、周期整合性損失を計算するためのサイクルCBCT画像を生成するステップと、
    前記実CT画像を前記第2の生成モデルの前記入力に送信し、合成訓練CBCT画像を出力するステップと、
    前記合成訓練CBCT画像を前記第2の識別モデルの前記入力で受け取り、前記合成訓練CBCT画像を合成CBCT画像または実CBCT画像として分類し、サイクル整合性損失を計算するためのサイクルCT画像を前記第1の生成モデルの前記入力で生成するステップと、
    複数の合成CT画像と、それぞれペアになっている実CT画像との間の差の期待値を表す第1の画素ベース損失項を最小化または減少させるために前記第1の生成モデルを訓練するステップと、
    複数の合成CT画像と、それぞれペアになっている実CBCT画像との間の差の期待値を表す第2の画素ベース損失項を最小化または減少させるために前記第2の生成モデルを訓練するステップと
    を有する
    ことを特徴とする方法。
  13. 訓練されたモデルを使用して強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのシステムであって、
    前記システムは、
    少なくとも1つのプロセッサを有する処理回路と、
    前記少なくとも1つのプロセッサにより実行されたとき、請求項1乃至9のいずれか1項に記載の方法を前記プロセッサに実行させる命令を有する記憶媒体と
    を有することを特徴とするシステム。
  14. 強化されたコーンビームコンピュータ断層撮影(CBCT)画像を生成するためのモデルを訓練するためのシステムであって、
    前記システムは、
    少なくとも1つのプロセッサを有する処理回路と、
    前記少なくとも1つのプロセッサにより実行されたとき、請求項10乃至12のいずれか1項に記載の方法を前記プロセッサに実行させる命令を有する記憶媒体と
    を有することを特徴とするシステム。
  15. コンピュータ装置の1つまたはそれ以上のプロセッサにより実行されたときに、請求項1乃至12のいずれか1項に記載の方法を前記コンピュータ装置に実行させる命令を格納するコンピュータ可読媒体。
JP2020560263A 2018-04-26 2019-04-23 敵対的生成ネットワークを使用した画像強調 Active JP7039153B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862662933P 2018-04-26 2018-04-26
US62/662,933 2018-04-26
US16/044,245 2018-07-24
US16/044,245 US11501438B2 (en) 2018-04-26 2018-07-24 Cone-beam CT image enhancement using generative adversarial networks
PCT/US2019/028710 WO2019209820A1 (en) 2018-04-26 2019-04-23 Image enhancement using generative adversarial networks

Publications (3)

Publication Number Publication Date
JP2021521993A JP2021521993A (ja) 2021-08-30
JP2021521993A5 JP2021521993A5 (ja) 2021-11-04
JP7039153B2 true JP7039153B2 (ja) 2022-03-22

Family

ID=68292772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560263A Active JP7039153B2 (ja) 2018-04-26 2019-04-23 敵対的生成ネットワークを使用した画像強調

Country Status (6)

Country Link
US (1) US11501438B2 (ja)
EP (1) EP3785231A1 (ja)
JP (1) JP7039153B2 (ja)
CN (1) CN112204620B (ja)
AU (1) AU2019257675B2 (ja)
WO (1) WO2019209820A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3646288B1 (en) 2017-06-26 2022-09-07 Elekta, Inc. Method for improving cone-beam ct image quality using a deep convolutional neural network
US11100632B2 (en) 2018-04-13 2021-08-24 Elekta, Inc. Image synthesis using adversarial networks such as for radiation therapy
US11501438B2 (en) 2018-04-26 2022-11-15 Elekta, Inc. Cone-beam CT image enhancement using generative adversarial networks
US11797864B2 (en) * 2018-06-18 2023-10-24 Fotonation Limited Systems and methods for conditional generative models
US11763502B2 (en) * 2018-08-06 2023-09-19 Vanderbilt University Deep-learning-based method for metal reduction in CT images and applications of same
EP3843627A4 (en) * 2018-08-31 2022-05-25 QT Imaging, Inc. MACHINE LEARNING APPLICATION TO ITERATIVE AND MULTIMODALITY IMAGE RECONSTRUCTION
US11080895B2 (en) * 2018-10-30 2021-08-03 International Business Machines Corporation Generating simulated body parts for images
US11042778B2 (en) * 2018-11-29 2021-06-22 International Business Machines Corporation Generating realistic organ x-ray angiography (XA) images for deep learning consumption
US10373023B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Learning method and learning device for runtime input transformation of real image on real world into virtual image on virtual world, to be used for object detection on real images, by using cycle GAN capable of being applied to domain adaptation
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing
US11042803B2 (en) * 2019-02-14 2021-06-22 General Electric Company Method and apparatus for using generative adversarial networks in magnetic resonance image reconstruction
EP3706046A1 (en) * 2019-03-04 2020-09-09 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
US11024013B2 (en) * 2019-03-08 2021-06-01 International Business Machines Corporation Neural network based enhancement of intensity images
US10957031B1 (en) * 2019-09-06 2021-03-23 Accenture Global Solutions Limited Intelligent defect detection from image data
CN111047512B (zh) * 2019-11-25 2022-02-01 中国科学院深圳先进技术研究院 图像增强方法、装置及终端设备
CN111105472B (zh) * 2019-11-26 2024-03-22 上海联影智能医疗科技有限公司 Pet图像的衰减校正方法、装置、计算机设备和存储介质
CN111008940B (zh) * 2019-11-27 2023-06-27 北京科技大学 一种图像增强方法及装置
US11551652B1 (en) * 2019-11-27 2023-01-10 Amazon Technologies, Inc. Hands-on artificial intelligence education service
EP4070236A4 (en) * 2019-12-02 2024-01-17 Univ Utah Res Found MEDICAL IMAGE SYNTHESIS FOR MOTION CORRECTION USING GENERATIVE CONTRADICTORY NETWORKS
CN111192221B (zh) * 2020-01-07 2024-04-16 中南大学 基于深度卷积生成对抗网络的铝电解火眼图像修补方法
CN111260652B (zh) * 2020-01-09 2023-09-08 浙江传媒学院 一种基于mimo-gan的图像生成系统和方法
CN111260620B (zh) * 2020-01-14 2023-08-18 三峡大学 图像异常检测方法、装置和电子设备
US11842484B2 (en) 2021-01-04 2023-12-12 James R. Glidewell Dental Ceramics, Inc. Teeth segmentation using neural networks
US11562482B2 (en) 2020-03-30 2023-01-24 Varian Medical Systems International Ag Systems and methods for pseudo image data augmentation for training machine learning models
EP3889882B1 (en) * 2020-03-31 2023-06-07 Siemens Healthcare GmbH Image normalization increasing robustness of machine learning applications for medical images
CN113628158A (zh) * 2020-05-08 2021-11-09 通用电气精准医疗有限责任公司 用于利用生成模型来管理图像质量的方法和系统
CN111738295B (zh) * 2020-05-22 2024-03-22 南通大学 图像的分割方法及存储介质
CN111693534B (zh) * 2020-06-12 2023-09-15 北京百度网讯科技有限公司 表面缺陷的检测方法、模型训练方法、装置、设备和介质
CN111753908A (zh) * 2020-06-24 2020-10-09 北京百度网讯科技有限公司 图像分类方法和装置及风格迁移模型训练方法和装置
CN111860782B (zh) * 2020-07-15 2022-04-22 西安交通大学 三重多尺度的CycleGAN、眼底荧光造影生成方法、计算机设备及存储介质
CN112101523A (zh) * 2020-08-24 2020-12-18 复旦大学附属华山医院 基于深度学习的cbct图像跨模态预测cta图像的卒中风险筛查方法和系统
CN112037146B (zh) * 2020-09-02 2023-12-22 广州海兆印丰信息科技有限公司 医学图像伪影自动校正方法、装置和计算机设备
CN112308863B (zh) * 2020-10-27 2023-06-06 苏州大学 基于改进u型网络的oct图像近视性黄斑病变分割方法
US11762951B2 (en) * 2020-11-18 2023-09-19 Adobe Inc. Generative image congealing
RU2770132C1 (ru) * 2021-03-04 2022-04-14 Самсунг Электроникс Ко., Лтд. Генераторы изображений с условно независимым синтезом пикселей
WO2022108031A1 (en) 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Image generators with conditionally-independent pixel synthesis
CN112508862B (zh) * 2020-11-19 2022-03-25 电子科技大学 一种通过改进gan增强裂纹磁光图像的方法
CN112396110B (zh) * 2020-11-20 2024-02-02 南京大学 一种基于生成对抗级联网络增广图像的方法
CN112435309A (zh) * 2020-12-07 2021-03-02 苏州深透智能科技有限公司 一种基于深度学习的增强ct图像质量和分辨率的方法
CN112508175A (zh) * 2020-12-10 2021-03-16 深圳先进技术研究院 用于低剂量pet重建的多任务学习型生成式对抗网络生成方法及系统
CN112508775A (zh) * 2020-12-10 2021-03-16 深圳先进技术研究院 基于循环生成对抗网络的mri-pet图像模态转换方法及系统
CN116569207A (zh) * 2020-12-12 2023-08-08 三星电子株式会社 用于管理图像的伪影的方法和电子装置
US11790598B2 (en) * 2020-12-16 2023-10-17 Nvidia Corporation Three-dimensional tomography reconstruction pipeline
CN114666188A (zh) * 2020-12-24 2022-06-24 华为技术有限公司 信息生成方法及相关装置
CN112801898A (zh) * 2021-01-20 2021-05-14 桂林电子科技大学 一种特征自我保留的弱光图像增强方法
CN112819911B (zh) * 2021-01-23 2022-10-25 西安交通大学 基于N-net和CycN-net网络结构的四维锥束CT重建图像增强算法
US11890124B2 (en) 2021-02-01 2024-02-06 Medtronic Navigation, Inc. Systems and methods for low-dose AI-based imaging
WO2022170607A1 (zh) * 2021-02-10 2022-08-18 北京大学 一种定位图像的转化系统
CN112802072B (zh) * 2021-02-23 2022-10-11 临沂大学 基于对抗学习的医学图像配准方法及系统
CN113111700A (zh) * 2021-02-24 2021-07-13 浙江大华技术股份有限公司 图像生成模型的训练方法、电子设备及存储介质
CN113034636B (zh) * 2021-03-09 2022-04-29 浙江大学 基于跨尺度多能谱ct标签的锥束ct图像质量改善方法和装置
CN112819731B (zh) * 2021-03-19 2021-11-05 广东众聚人工智能科技有限公司 灰度图像增强方法、装置、计算机设备及存储介质
KR102550688B1 (ko) * 2021-05-10 2023-07-03 주식회사 씨앤에이아이 초해상도 의료 이미지 생성 장치 및 방법
CN113222852A (zh) * 2021-05-26 2021-08-06 深圳高性能医疗器械国家研究院有限公司 一种增强ct图像的重建方法
EP4095796A1 (de) 2021-05-29 2022-11-30 Bayer AG Maschinelles lernen im bereich der kontrastmittelverstärkten radiologie
CN113378991A (zh) * 2021-07-07 2021-09-10 上海联影医疗科技股份有限公司 医疗数据生成方法、装置、电子设备及存储介质
CN113657397B (zh) * 2021-08-17 2023-07-11 北京百度网讯科技有限公司 循环生成网络模型的训练方法、建立字库的方法和装置
CN113706409A (zh) * 2021-08-18 2021-11-26 苏州雷泰医疗科技有限公司 基于人工智能的cbct图像增强方法、装置和存储介质
US11935238B2 (en) * 2021-12-22 2024-03-19 RealizeMD Ltd. Systems and methods for generating clinically relevant images that preserve physical attributes of humans while protecting personal identity
CN114331903B (zh) * 2021-12-31 2023-05-12 电子科技大学 一种图像修复方法及存储介质
KR102477991B1 (ko) * 2022-02-11 2022-12-15 서울대학교산학협력단 의료 영상 처리 방법 및 장치
CN114820730B (zh) * 2022-03-08 2023-04-07 安徽慧软科技有限公司 一种基于伪ct的ct与cbct配准方法
CN115147377A (zh) * 2022-07-06 2022-10-04 中国华能集团清洁能源技术研究院有限公司 一种用于生成光伏板缺陷图像的CycleGAN模型的训练方法及装置
CN116458894B (zh) * 2023-04-21 2024-01-26 山东省人工智能研究院 基于复合型生成对抗网络的心电信号增强与分类方法
CN116645448B (zh) * 2023-04-25 2023-12-22 北京卫星信息工程研究所 光学遥感影像的定量云自动添加方法及装置
CN116993848A (zh) * 2023-07-21 2023-11-03 澳门理工大学 Cbct图像重建方法、系统、计算机装置及存储介质
CN116663619B (zh) * 2023-07-31 2023-10-13 山东科技大学 基于gan网络的数据增强方法、设备以及介质
CN117078612A (zh) * 2023-08-09 2023-11-17 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种基于cbct图像的快速三维剂量验证方法及装置
CN117391984B (zh) * 2023-11-02 2024-04-05 中国人民解放军空军军医大学 一种提升cbct影像质量的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192264A (ja) 2017-05-18 2018-12-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置
JP2019114262A (ja) 2017-12-22 2019-07-11 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
JP2021521534A (ja) 2018-04-13 2021-08-26 エレクタ、インク.Elekta, Inc. 敵対的ネットワークを使用した画像合成

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642591B2 (ja) 1994-11-29 2005-04-27 株式会社日立メディコ 画像処理装置
EP2283373B1 (en) * 2008-04-28 2021-03-10 Cornell University Accurate quantification of magnetic susceptibility in molecular mri
EP2646977A2 (en) 2010-12-01 2013-10-09 Koninklijke Philips N.V. Diagnostic image features close to artifact sources
WO2012139031A1 (en) 2011-04-06 2012-10-11 The Trustees Of Columbia University In The City Of New York System, method and computer-accessible medium for providing a panoramic cone beam computed tomography (cbct)
US8705828B2 (en) 2011-08-31 2014-04-22 Carestream Health, Inc. Methods and apparatus for super resolution scanning for CBCT system and cone-beam image reconstruction
US9202296B2 (en) 2011-09-16 2015-12-01 Caresteam Health, Inc. Metal artifacts reduction for cone beam CT
US9332953B2 (en) 2012-08-31 2016-05-10 The University Of Chicago Supervised machine learning technique for reduction of radiation dose in computed tomography imaging
KR20160020917A (ko) 2014-08-14 2016-02-24 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
US9974977B2 (en) 2014-10-27 2018-05-22 Elekta, Inc. Image guidance for radiation therapy
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning
US9990712B2 (en) * 2015-04-08 2018-06-05 Algotec Systems Ltd. Organ detection and segmentation
US10034648B2 (en) 2016-01-13 2018-07-31 Carestream Health, Inc. System and method for motion artifacts reduction
US10282588B2 (en) * 2016-06-09 2019-05-07 Siemens Healthcare Gmbh Image-based tumor phenotyping with machine learning from synthetic data
US10387765B2 (en) * 2016-06-23 2019-08-20 Siemens Healthcare Gmbh Image correction using a deep generative machine-learning model
US20180070902A1 (en) 2016-09-14 2018-03-15 Carestream Health, Inc. Apparatus and method for 4d x-ray imaging
CN106548447B (zh) * 2016-11-22 2020-12-15 青岛海信医疗设备股份有限公司 获取医学二维图像的方法及装置
EP3646288B1 (en) 2017-06-26 2022-09-07 Elekta, Inc. Method for improving cone-beam ct image quality using a deep convolutional neural network
US11257259B2 (en) * 2017-08-15 2022-02-22 Siemens Healthcare Gmbh Topogram prediction from surface data in medical imaging
US10593051B2 (en) 2017-12-20 2020-03-17 International Business Machines Corporation Medical image registration guided by target lesion
US10592779B2 (en) * 2017-12-21 2020-03-17 International Business Machines Corporation Generative adversarial network medical image generation for training of a classifier
US11062489B2 (en) * 2018-02-13 2021-07-13 Wisconsin Alumni Research Foundation System and method for multi-architecture computed tomography pipeline
US10910099B2 (en) 2018-02-20 2021-02-02 Siemens Healthcare Gmbh Segmentation, landmark detection and view classification using multi-task learning
US11210836B2 (en) 2018-04-03 2021-12-28 Sri International Applying artificial intelligence to generate motion information
US11501438B2 (en) 2018-04-26 2022-11-15 Elekta, Inc. Cone-beam CT image enhancement using generative adversarial networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192264A (ja) 2017-05-18 2018-12-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置
JP2019114262A (ja) 2017-12-22 2019-07-11 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
JP2021521534A (ja) 2018-04-13 2021-08-26 エレクタ、インク.Elekta, Inc. 敵対的ネットワークを使用した画像合成

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Matteo Maspero et al.,Fast synthetic CT generation with deep learning for general pelvis MR-only Radiotherapy,arXiv,arXiv:1802.06468v1,2018年02月18日

Also Published As

Publication number Publication date
EP3785231A1 (en) 2021-03-03
AU2019257675A1 (en) 2020-12-10
AU2019257675B2 (en) 2021-07-08
CN112204620B (zh) 2024-05-24
JP2021521993A (ja) 2021-08-30
US11501438B2 (en) 2022-11-15
WO2019209820A1 (en) 2019-10-31
US20190333219A1 (en) 2019-10-31
CN112204620A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
JP7039153B2 (ja) 敵対的生成ネットワークを使用した画像強調
JP7245364B2 (ja) 変形可能な層を有するCycleGANを用いたsCT画像生成
JP7145233B2 (ja) 敵対的生成ネットワークを用いた放射線治療計画モデリング
US11547874B2 (en) Machine learning approach to real-time patient motion monitoring
US11491348B2 (en) Real-time patient motion monitoring using a magnetic resonance linear accelerator (MRLINAC)
US10762398B2 (en) Modality-agnostic method for medical image representation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220308

R150 Certificate of patent or registration of utility model

Ref document number: 7039153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150