JP2022507640A - 深層ニューラルネットワークによるリアルタイム動きモニタリング - Google Patents

深層ニューラルネットワークによるリアルタイム動きモニタリング Download PDF

Info

Publication number
JP2022507640A
JP2022507640A JP2021526771A JP2021526771A JP2022507640A JP 2022507640 A JP2022507640 A JP 2022507640A JP 2021526771 A JP2021526771 A JP 2021526771A JP 2021526771 A JP2021526771 A JP 2021526771A JP 2022507640 A JP2022507640 A JP 2022507640A
Authority
JP
Japan
Prior art keywords
patient
image
condition
neural network
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021526771A
Other languages
English (en)
Inventor
ベリオル,シルヴァン
エミール ラシェーヌ,マルタン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elekta Inc
Original Assignee
Elekta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elekta Inc filed Critical Elekta Inc
Publication of JP2022507640A publication Critical patent/JP2022507640A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Graphics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Radiation-Therapy Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

放射線治療中に、深層学習ネットワークを用いて患者の解剖学的な相対的な動きを推定するために使用されるシステムと技術である。例えば、方法は、第1の深層ニューラルネットワークを用いて、入力されたリアルタイムの部分的な患者の測定値と基準ボリュームを含む患者モデルを、出力された患者の状態に関連付けることを含む。本方法は、第2の深層ニューラルネットワークを用いて、患者の状態と基準ボリュームを、患者の状態と基準ボリュームとの間の相対的な動き情報に関連付けることを含む。深層ニューラルネットワークは、入力画像に対応する相対的な動きを推定するために、リアルタイムで用いられる。【選択図】図1

Description

(優先権の主張)
[0001]
本出願は、2018年11月16日に出願された米国特許出願番号16/194,190の優先権の利益を主張するものであり、その内容全体が参照により本明細書に組み込まれる。
(技術分野)
[0002]
本開示の実施形態は、一般に、医療画像および人工知能処理技術に関するものである。特に、本開示は、リアルタイム動きモニタリングのための深層ニューラルネットワークの使用に関するものである。
[0003]
放射線治療や放射線手術では、患者の医用画像をもとに治療計画を立てるのが一般的で、医用画像の中にターゲットとなる体積や正常な重要臓器を描き出すことが求められる。課題の一つは、患者が呼吸などで動いているときに、腫瘍や健康な組織のような様々な物体を正確に追跡することである。
[0004]
現在の技術では、変化する患者の状態をリアルタイムで直接測定することはできない。例えば、ある技術では、2DのkV投影や2DのMRIスライスのような2D画像を使用しているが、これは様々なオブジェクトを完全に追跡することはできない。
[0005]
他の技術では、表面の情報を直接検出したり、患者に装着されたベストやボックスのマーカーを追跡したりしている。これらの技術は、表面の情報が患者の内部状態と相関していることを前提としているが、これはしばしば正確ではない。
[0006]
更に他の技術では、磁気的に追跡されるマーカーのようなマーカーを埋め込んだり、放射線不透過性のマーカーをX線で検出したりしている。これらの技術は侵襲的であり、患者の限られたポイントにしか対応できない。
[0007]
動きモニタリングには、回帰モデルやその他のモデルベースの技術を使用することができる。しかしながら、これらの技術は、不正確であったり、リアルタイムで追跡できなかったりする。
[0008]
図面は必ずしも縮尺通りに描かれているわけではなく、いくつかの図の中で、同じ数字は実質的に類似したコンポーネントを表している。異なる文字の接尾辞を持つ同様の数字は、実質的に類似したコンポーネントの異なる例を表す。図面は、本明細書で議論されている様々な実施形態を、限定するものではなく、一般的な例示として示している。
[0009]
図1は、画像の患者の状態推定処理を行うために適応された例示的な放射線治療システムを示す。
[0010]
図2は、例示的な画像誘導型放射線治療装置を示す。
[0011]
図3は、複合放射線治療システムと、核磁気共鳴(MR)撮像システムのような撮像システムを含む例示的なシステムの一部を切り取った図である。
[0012]
図4は、部分的な測定値と予備的な患者モデルを用いて患者の状態を推定するための例示的なフローダイヤグラムを示す。
[0013]
図5は、例示的な深層ニューラルネットワークアーキテクチャの概要ブロック図を示す。
[0014]
図6Aは、例示的な詳細な深層ニューラルネットワークアーキテクチャのブロック図を示す。 図6Bは、例示的な詳細な深層ニューラルネットワークアーキテクチャのブロック図を示す。
[0015]
図7Aは、例示的な時空間の畳み込み図を示す。 図7Bは、例示的な時空間の畳み込み図を示す。
[0016]
図8は、深層ニューラルネットワークの例示的なトレーニングフロー図を示す。
[0017]
図9は、放射線治療の処置中の相対的な動きを推定するための例示的な操作のフローチャートを示す。
[0018]
以下の詳細な説明では、本明細書の一部を構成する添付図面を参照し、本発明を実施することができる具体的な実施形態を例示する。本明細書では「実施例」とも呼ばれるこれらの実施形態は、当業者が本発明を実施できるように十分に詳細に説明されており、本発明の範囲から逸脱することなく、実施形態を組み合わせたり、他の実施形態を利用したり、構造的、論理的、電気的な変更を加えたりすることができると理解されたい。したがって、以下の詳細な説明は、限定的な意味で解釈されるものではなく、本発明の範囲は、添付の特許請求の範囲およびその均等物によって定義される。
[0019]
画像誘導放射線治療(IGRT:Image Guided Radiotherapy)とは、放射線を照射する直前の患者の姿を画像で確認しながら治療を行う手法である。これにより、臓器や腫瘍、リスクのある臓器のような解剖学的特徴をより正確に捉えることができる。例えば、呼吸による肺腫瘍の準周期的な動きや、膀胱の充満による前立腺の位置のずれなど、治療中に患者が動くことが予想される場合は、予想される患者の動きを包含するように、ターゲットの周囲に追加のマージンを配置することができる。このような大きなマージンは、周囲の正常組織への高線量を犠牲にしており、副作用の増加につながる可能性がある。
[0020]
IGRTでは、コンピュータ断層撮影(CT:Computed Tomography)イメージング、コーンビーム断層撮影(CBCT:Cone Beam CT)、磁気共鳴(MR:Magnetic Resonance)イメージング、陽電子放射断層撮影(PET:Positron Emission Tomography)イメージングなどを用いて、照射前の患者の3Dの画像または4Dの画像を得ることができる。例えば、CBCTに対応したリニアック(線形加速器)は、放射線ビームに対して90度の角度でガントリに取り付けられたkV線源/検出器で構成され、また、MRリニアック装置は、MRスキャナと直接統合されたリニアックで構成される。
[0021]
実際の照射治療搬送中の動き(フラクション内の動き:intrafractional motion)を局所化することは、動きを包含するために使用されるであろう追加の治療マージンを削減することができ、その結果、より高い線量を照射することができるか、副作用を軽減することができるか、または、その両方が可能になる。多くのIGRTイメージング技術は、一般的にフラクション内の動き(intrafractional motion)を撮影するのに十分な速度を持っていない。例えば、CBCTでは、フル3Dの患者画像を再構成するために様々な角度から複数のkV画像を必要とし、3DのMRでは、フル3Dの画像を生成するために複数の2Dのスライス、つまりフル3Dのk空間を埋める必要があり、それぞれに数分かかる。
[0022]
いくつの場合には、3DのIGRT画像を生成する前に、通常は完全に取得されるリアルタイムまたは準リアルタイムのデータを、収集したまま使用して、不完全ながらも高速で入ってくる情報の流れから、はるかに速いリフレッシュレートで瞬間的な3Dの画像を推定することができる。例えば、2DのkVプロジェクションや2DのMRスライスを使用して、治療中の実際の患者の動きに合わせて進化するフル3DのCBCTのような画像や3DのMRのような画像を推定することができる。高速ではあるが、これら2Dの画像は、それ自体では患者の特定の視点のみを提供し、完全な3D画像を得ることはできない。
[0023]
患者状態ジェネレータは、入力として部分的な測定値(例えば、2Dの画像)を受け取り、出力として患者の状態(例えば、3Dの画像)を生成(例えば、推定)することができる。患者の状態を生成するために、ジェネレータは第1の深層ニューラルネットワークを使用することができる。患者状態ジェネレータの出力は、例えば、第2の深層ニューラルネットワークによってさらに処理され、変形ベクトルフィールド(DVF)出力を生成することができる。一実施例では、第1の深層ニューラルネットワークへの入力に使用される部分的な測定値は、X線投影やMRIスライスのような単一のモダリティからのものであっても、X線投影と同期した患者の表面上の反射面マーカーの位置のような複数のモダリティからのものであってもよい。
[0024]
上述の部分的な測定値は、例えば、kVイメージャーやMRイメージャーから撮影された画像(例えば、2Dの画像)のリアルタイムストリームで受信される。kVイメージャーは、リアルタイムストリーム用の立体的な2Dの画像(例えば、直交し、実質的に同時に取得された2つのX線画像)を生成することができる。kVイメージャーは、室内に固定されていても、治療装置に結合されて(例えば、ガントリに取り付けられて)いてもよい。MRイメージャーは、2DのMRスライスを生成することができ、これらは直交していても平行していてもよい。患者の状態は、受信した画像または一対の画像から生成することができる。例えば、任意の時点で、リアルタイムストリームから最後に受信した画像の患者の状態を生成することができる。
[0025]
一実施例では、患者モデルは、所定のフラクションで現在収集されたデータ、治療前の段階(患者がセットアップされた後、ビームがオンになる前)、別のフラクションまたはシミュレーション/プランニング中に収集されたデータ、他の患者を使用したデータ、一般化された患者の解剖学的構造を使用したデータ、機械的モデルを使用したデータ、または部分的な測定値から患者の状態を定義するのに役立つ他の情報に基づくことができる。一実施例では、患者モデルは、治療前に取得された4Dのデータセットであり、限られた期間(例えば、1つの代表的な呼吸サイクル)における患者の状態の変化を表している。患者モデルは、入力された患者の測定値(例えば、リアルタイムストリームからの画像または画像のペア)を出力された患者の状態に関連付けるために、深層ニューラルネットワークにおいて使用することができる。
[0026]
4Dのデータセットの患者モデルは、呼吸サイクルの位相のような、単一のパラメータで変化する患者の状態を含むことができる。患者モデルは、代表的な呼吸サイクルにおける時間的に変化する患者の状態を構築するために使用することができ、各呼吸を多かれ少なかれ同じものとして扱うことができる。これにより、異なる呼吸サイクルで撮影した部分的な画像データのかたまりを、1つの代表的な呼吸サイクルに割り当てることができ、モデル化が容易になる。そして、各位相の「ビン(bin)」ごとに3Dの画像が再構成される。
[0027]
一実施例において、患者の状態は、例えば、3Dの画像、または、3DのDVFに3Dの基準画像を加えたものとして表現することができる。3DのDVFと3Dの基準画像の要素を使用して3Dの画像を得る(例えば、3DのDVFで3Dの基準画像を変形させる)ことができるので、これらは等価であると考えられる。本明細書に記載されたシステムおよび方法の出力は、(例えば、画像のリアルタイムストリームからの)入力の2Dの画像に従って入力の4Dの患者状態モデルを変形させて、現在の患者の状態の3Dの画像を得るための3DのDVFを含むことができる。
[0028]
図1は、深層ニューラルネットワークを用いてリアルタイム動きモニタリングを行うために適応された例示的な放射線治療システムを示す。リアルタイム動きモニタリングは、撮影された医用画像データの特定の側面に基づいて、放射線治療システムが患者に放射線治療を提供することができるように患者の状態を決定するために用いられる。放射線治療システムは、患者状態処理ロジック120をホストする画像処理計算システム110を含む。画像処理計算システム110は、ネットワーク(図示せず)に接続され、そのネットワークは、インターネットに接続されている。例えば、ネットワークは、画像処理計算システム110を、1つまたはそれ以上の医療情報ソース(例えば、放射線情報システム(RIS))、医療記録システム(例えば、電子医療記録(EMR)/電子健康記録(EHR)システム)、腫瘍情報システム(OIS))、1つまたはそれ以上の画像データソース150、画像取得装置170、および治療装置180(例えば、放射線治療装置)と接続することができる。一実施例として、画像処理計算システム110は、治療装置180によって使用される放射線治療計画を生成およびカスタマイズする操作の一部として、患者状態処理ロジック120からの命令またはデータを実行することにより、画像患者状態操作を実行するように構成することができる。
[0029]
画像処理計算システム110には、処理回路112、メモリ114、記憶装置116、および、ユーザインターフェース140、通信インターフェースのような他のハードウェアおよびソフトウェアで操作可能な機能を含むことができる。記憶装置116は、オペレーティングシステム、放射線治療の治療計画(例えば、オリジナルの治療計画、適応された治療計画など)、ソフトウェアプログラム(例えば、放射線治療の治療計画ソフトウェア、深層学習モデル、機械学習モデル、ニューラルネットワークのような人工知能の実装、など)、および処理回路112によって実行される任意の他のコンピュータ実行可能な命令を記憶することができる。
[0030]
一実施例では、処理回路112は、マイクロプロセッサ、中央処理装置(CPU)、グラフィック処理装置(GPU:Graphics Processing Unit)、加速処理装置(APU:Accelerated Processing Unit)のような1つまたはそれ以上の汎用処理装置のような処理装置を含むことができる。より詳細には、処理回路112は、複合命令セットコンピューティング(CISC:complex instruction set computing)マイクロプロセッサ、縮小命令セットコンピューティング(RISC:reduced instruction set computing)マイクロプロセッサ、超長命令ワード(VLIW:very long instruction Word)マイクロプロセッサ、他の命令セットを実装するプロセッサ、または命令セットの組み合わせを実装するプロセッサであってもよい。また、処理回路112は、特定用途向け集積回路(ASIC:application specific integrated circuit)、フィールドプログラマブルゲートアレイ(FPGA:field programmable gate array)、デジタルシグナルプロセッサ(DSP:digital signal processor)、システムオンチップ(SoC:System on a Chip)、またはその他の適切なプロセッサのような1つまたはそれ以上の専用処理装置によって実装されることができる。当業者に理解されるように、いくつかの実施形態では、処理回路112は、汎用プロセッサではなく、専用プロセッサであってもよい。処理回路112は、Intel(登録商標)によって製造されたPentium(登録商標)、Core(登録商標)、Xeon(登録商標)、またはItanium(登録商標)ファミリー、AMD(登録商標)によって製造されたTurion(登録商標)、Athlon(登録商標)、Sempron(登録商標)、Opteron(登録商標)、FX(登録商標)、Phenon(登録商標)ファミリー、Sun Microsystemsによって製造された様々なプロセッサのいずれか、または他の適切なプロセッサのような、1つまたはそれ以上の既知の処理装置を含み得る。処理回路112は、また、Nvidia(登録商標)によって製造されたGeForce(登録商標)、Quadro(登録商標)、Tesla(登録商標)ファミリー、Intel(登録商標)によって製造されたGMA、Iris(登録商標)ファミリー、またはAMD(登録商標)によって製造されたRadeon(登録商標)ファミリーのような、グラフィック処理ユニットを含み得る。処理回路112は、また、プロセッサ7114は、また、Intel(登録商標)によって製造されたXeon Phi(登録商標)ファミリーのような、加速処理装置を含み得る。開示された実施形態は、大量のデータを識別、分析、維持、生成、および/または提供するためのコンピューティング要求を満たすように構成された、いかなるタイプのプロセッサに限定されるものではなく、また、本明細書で開示された方法を実行するためにそのようなデータを操作することもできる。さらに、「プロセッサ」という用語は、複数のプロセッサ、例えば、マルチコア設計またはそれぞれがマルチコア設計を有する複数のプロセッサを含むことができる。処理回路112は、メモリ114に格納され、記憶装置116からアクセスされる、コンピュータプログラム命令のシーケンスを実行して、以下でより詳細に説明される様々な操作、プロセス、方法を実行することができる。
[0031]
メモリ114は、読み取り専用メモリ(ROM)、相変化ランダムアクセスメモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、シンクロナスDRAM(SDRAM)のようなダイナミックランダムアクセスメモリ(DRAM)、電気的に消去可能なプログラム可能な読み取り専用メモリ(EEPROM)、スタティックメモリ(例えば、フラッシュメモリ、フラッシュディスク、スタティックランダムアクセスメモリ)、および、キャッシュ、レジスタ、コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、またはその他の光学式ストレージ、カセットテープ、その他の磁気記憶装置のようなその他のタイプのランダムアクセスメモリ、のような非一時的なコンピュータ可読媒体、または、画像、データ、または、プロセッサ7114、または任意の他のタイプのコンピュータ装置によりアクセスすることができる(例えば、任意のフォーマットで格納される)コンピュータ実行可能命令を含む情報を格納するために使用できる他の任意の非一時的媒体であり得る。例えば、コンピュータプログラム命令は、処理回路112によってアクセスされ、ROM、または任意の他の適切なメモリ位置から読み出され、処理回路112による実行のためにRAMにロードされ得る。
[0032]
記憶装置116は、本明細書に記載されている方法論または機能(様々な例では、患者状態処理ロジック120およびユーザインターフェース140を含む)のうちの任意の1つまたは複数を具現化する、またはそれによって利用される1つまたはそれ以上の命令およびデータ構造のセット(例えば、ソフトウェア)が格納されている機械読取可能な媒体を含む駆動装置を構成することができる。命令は、また、画像処理計算システム110によるその実行中に、完全にまたは少なくとも部分的に、メモリ114内および/または処理回路112内に存在してもよく、メモリ114および処理回路112は、機械読み取り可能な媒体を構成するものでもある。
[0033]
メモリ装置114または記憶装置116は、非一時的なコンピュータ読み取り可能な媒体を構成することができる。 例えば、メモリ装置114または記憶装置116は、1つまたはそれ以上のソフトウェアアプリケーションの命令を、コンピュータ可読媒体に格納またはロードすることができる。メモリ装置114または記憶装置116に記憶またはロードされたソフトウェアアプリケーションは、例えば、ソフトウェア制御されたデバイスのためだけでなく、一般的なコンピュータシステムのためのオペレーティングシステムを含むことができる。また、画像処理計算システム110は、患者状態処理ロジック120およびユーザインターフェース140を実装するためのソフトウェアコードからなる様々なソフトウェアプログラムを動作させることができる。さらに、メモリ装置114および記憶装置116は、処理回路112によって実行可能な、ソフトウェアアプリケーション全体、ソフトウェアアプリケーションの一部、またはソフトウェアアプリケーションに関連するコードもしくはデータを格納またはロードすることができる。さらなる実施例では、メモリ装置114または記憶装置116は、1つまたはそれ以上の放射線治療の治療計画、画像データ、患者の状態データ、辞書エントリ、人工知能モデルデータ、ラベルおよびマッピングデータなどを格納、ロード、または操作することができる。ソフトウェアプログラムは、記憶装置116およびメモリ114だけでなく、ハードドライブ、コンピュータディスク、CD-ROM、DVD、HD、Blu-Ray(登録商標) DVD、USBフラッシュドライブ、SDカード、メモリスティック、またはその他の適切な媒体のような取り外し可能なコンピュータ媒体にも保存されてもよく、また、そのようなソフトウェアプログラムは、ネットワークを介して通信または受信されてもよい。
[0034]
図示していないが、画像処理計算システム110は、通信インターフェース、ネットワークインターフェースカード、および通信回路を含んでいてもよい。通信インターフェースの例としては、例えば、ネットワークアダプタ、ケーブルコネクタ、シリアルコネクタ、USBコネクタ、パラレルコネクタ、高速データ伝送アダプタ(例えば、ファイバ、USB3.0、サンダーボルト、など)、無線ネットワークアダプタ(例えば、WiFiアダプタのような)、電気通信アダプタ(例えば、3G、4G/LTE、など)などを含み得る。このような通信インターフェースは、ネットワークを介して機械が他の機械や装置(遠隔地にあるコンポーネントなど)と通信することを可能にする1つまたはそれ以上のデジタルおよび/またはアナログ通信装置を含むことができる。ネットワークは、ネットワーク7120は、ローカルエリアネットワーク(LAN)、無線ネットワーク、クラウドコンピューティング環境(例えば、サービスとしてのソフトウェア、サービスとしてのプラットフォーム、サービスとしてのインフラストラクチャ、など)、クライアントサーバ、広域ネットワーク(WAN)など機能を提供することができる。例えば、ネットワークは、他のシステム(医療用画像処理や放射線治療の操作に関連する追加の画像処理計算システムや画像ベースのコンポーネントを含む)を含むLANまたはWANであってもよい。
[0035]
一実施例では、画像処理計算システム110は、記憶装置116およびメモリ114にホスティングするために、画像データソース150から画像データ160を取得することができる。一実施例では、画像処理計算システム110上で動作するソフトウェアプログラムは、擬似CT画像のような合成画像を生成するなどして、あるフォーマット(例えば、MRI)の医用画像を別のフォーマット(例えば、CT)に変換することができる。別の実施例では、ソフトウェアプログラムは、対応する画像ボクセルと線量ボクセルが適切に関連付けられるように、患者の医療画像(例えば、CT画像またはMR画像)を、その患者の放射線治療の線量分布(例えば、画像としても表される)にレジストレーションまたは関連付けることができる。さらに別の実施例では、ソフトウェアプログラムは、符号付き距離関数のような患者画像の関数や、画像情報のある側面を強調する画像の処理バージョンを代用することができる。このような機能は、エッジやボクセルテクスチャの違いなど、構造的な側面を強調することができる。別の実施例では、ソフトウェアプログラムは、医療画像内の解剖学的特徴、患者の測定値、患者の状態情報、または線量や治療情報のある側面を視覚化、非表示、強調、または強調解除することができる。記憶装置116およびメモリ114は、画像データ160、患者データ、および放射線治療の治療計画および関連する患者の状態推定操作を作成および実施するために必要な他のデータを含む、これらの目的を実行するためのデータを記憶およびホストしてもよい。
[0036]
処理回路112は、メモリ114および記憶装置116に通信可能に結合することができ、処理回路112は、メモリ114または記憶装置116のいずれかからその上に格納されたコンピュータ実行可能命令を実行するように構成されることができる。処理回路112は、画像データ160からの医用画像をメモリ114で受信または取得し、患者状態処理ロジック120を用いて処理させる命令を実行することができる。例えば、画像処理計算システム110は、通信インターフェースやネットワークを介して、画像取得装置170や画像データソース150から画像データ160を受信し、記憶装置116に格納またはキャッシュすることができる。また、処理回路112は、メモリ114または記憶装置116に記憶された医用画像を、通信インターフェースを介して別のデータベースまたはデータストア(例えば、医療施設データベース)に送信または更新することができる。いくつかの実施例では、1つまたはそれ以上のシステムが、ネットワークを使用して本明細書に記載された実施形態を共同で実行する分散コンピューティング/シミュレーション環境を形成することができる。さらに、このようなネットワークは、インターネットに接続して、インターネット上の遠隔地に存在するサーバーやクライアントと通信することもできる。
[0037]
さらなる実施例では、処理回路112は、画像データ160および他の患者データとともにソフトウェアプログラム(例えば、治療計画ソフトウェア)を利用して、放射線治療の治療計画を作成することができる。一実施例では、画像データ160は、CTやMRのような2Dの画像または3Dの画像を含んでいてもよい。さらに、処理回路112は、深層ニューラルネットワーク、例えば、入力の部分的測定値と4Dの患者モデルを受信して患者の状態を出力する第1の深層ニューラルネットワークと、患者の状態および基準画像(例えば、4Dの患者モデルからの選択された画像またはスライス)を使用して、入力の部分的測定値に基づいて4Dの患者モデルを変形させるためのDVFを生成する第2の深層ニューラルネットワークとを利用して推定の患者の状態を生成することができる。
[0038]
さらに、そのようなソフトウェアプログラムは、患者状態処理ロジック120を利用して、本明細書でさらに説明した技術を用いて、患者状態決定ワークフロー130を実施することができる。処理回路112は、続いて、実行可能な放射線治療計画を、通信インターフェースおよびネットワークを介して治療装置180に送信するこができ、ここで、放射線治療計画は、患者状態決定ワークフロー130の結果により、治療装置を介して患者を放射線で治療するために使用される。ソフトウェアプログラムおよび患者状態決定ワークフロー130の他の出力および使用は、画像処理計算システム110の使用と共に生じる可能性がある。
[0039]
本明細書で論じたように(例えば、本明細書で論じた患者状態判定を参照して)、処理回路112は、患者状態処理ロジック120を呼び出して、深層ニューラルネットワークを含む機能を実装するソフトウェアプログラムを実行することができる。
[0040]
一実施例では、画像データ160は、1つまたはそれ以上のMRI画像(例えば、2Dの MRI、3DのMRI、2DのストリーミングMRI、4DのMRI、4DのボルメトリックMRI、4DのシネMRIなど)、機能的MRI画像(例えば、fMRI、DCE-MRI、拡散MRI)、コンピュータ断層撮影(CT)画像(例えば、2DのCT、コーンビームCT、3DのCT、4DのCT)、超音波画像(例えば。2Dの超音波、3Dの超音波、4Dの超音波)、PET(Positron Emission Tomography)画像、X線画像、透視画像、放射線治療ポータル画像、SPECT(Single-Photo Emission Computed Tomography)画像、コンピュータで作成した合成画像(擬似CT画像など)など、を含み得る。さらに、画像データ160は、例えば、トレーニング画像、およびグランドトゥルース画像、輪郭画像、線量画像のような医用画像処理データを含む、またはそれと関連し得る。一実施例では、画像データ160は、画像取得装置170から受信され、1つまたはそれ以上の画像データソース150(例えば、PACS(Picture Archiving and Communication System)、VNA(Vendor Neutral Archive)、医療記録または情報システム、データウェアハウスなど)に格納され得る。したがって、画像取得装置170は、患者の医用画像を取得するために、MRI撮像装置、CT撮像装置、PET撮像装置、超音波撮像装置、透視装置、SPECT撮像装置、線形加速器とMRIの一体型撮像装置のような医用撮像装置で構成され得る。画像データ160は、画像取得装置170および画像処理計算システム110が、開示された実施形態による操作を実行するために使用することができ、任意のタイプのデータまたは任意のタイプのフォーマット(例えば、DICOM(Digital Imaging and Communications in Medicine)フォーマット)で受信および格納され得る。
[0041]
一実施例では、画像取得装置170は、単一の装置(例えば、後述の図3に示され説明されているように、「MR-linac」とも呼ばれる線形加速器と組み合わされたMRI装置)として、治療装置180と一体化することができる。このようなMR-linacは、例えば、患者のターゲットの臓器やターゲットの腫瘍の位置を正確に把握して、放射線治療の治療計画に基づいて、所定のターゲットに正確に放射線治療を行うために使用することができる。例えば、放射線治療の治療計画では、各患者に適用する特定の放射線量に関する情報を提供することができる。また、放射線治療の治療計画には、ビーム角度、線量ヒストグラム・体積情報、治療中に使用する放射線ビームの数、ビーム1本あたりの線量のような、他の放射線治療情報を含み得る。
[0042]
画像処理計算システム110は、ネットワークを介して外部のデータベースと通信し、画像処理や放射線治療の操作に関連する複数の様々な種類のデータを送受信することができる。例えば、外部データベースには、治療装置180、画像取得装置170、または放射線治療や医療処置に関連する他の機械に関連する情報である機械データが含まれ得る。マシンデータの情報には、放射線ビームのサイズ、アークの配置、ビームのオンとオフの時間の長さ、マシンのパラメータ、セグメント、マルチリーフコリメータ(MLC)の構成、ガントリの速度、MRIのパルスシーケンスなどが含まれる。外部データベースは、記憶装置であってもよく、適切なデータベース管理ソフトウェアプログラムを備えていてもよい。さらに、このようなデータベースやデータソースには、中央または分散して配置された複数のデバイスやシステムが含まれ得る。
[0043]
画像処理計算システム110は、処理回路112およびメモリ114に通信可能に結合された1つまたはそれ以上の通信インターフェースを使用して、ネットワークを介して、データを収集および取得し、他のシステムと通信することができる。例えば、通信インターフェースは、画像処理計算システム110と放射線治療システムコンポーネントとの間の通信接続を提供する(例えば、外部機器とのデータ交換を許可する)ことができる。例えば、通信インターフェースは、いくつかの実施例では、ユーザが放射線治療システムに情報を入力することができるハードウェアキーボード、キーパッド、またはタッチスクリーンであり得る、ユーザインターフェース140に接続するために、出力装置142または入力装置144からの適切なインターフェーシング回路を有し得る。
[0044]
一実施例として、出力装置142は、ユーザインターフェース140の表現と、医用画像の1つまたはそれ以上の態様、視覚化、または表現を出力するディスプレイ装置を含み得る。出力装置142は、医用画像、インターフェース情報、治療計画パラメータ(例えば、輪郭、線量、ビーム角、ラベル、マップなど)、治療計画、ターゲット、ターゲットのローカライズまたはターゲットのトラッキング、患者の状態の推定(例えば、3Dの画像)、またはユーザへの任意の関連情報を表示する1つまたはそれ以上の表示画面を含み得る。ユーザインターフェース140に接続された入力装置144は、キーボード、キーパッド、タッチスクリーンなど、ユーザが放射線治療システムに情報を入力することができるあらゆるタイプの装置を含み得る。あるいは、出力装置142、入力装置144、およびユーザインターフェース140の機能は、スマートフォンやタブレットコンピュータ、例えば、アップル社製のiPad(登録商標)、Lenovo社製のThinkpad(登録商標)、サムソン社製のGalaxy(登録商標)のような単一のデバイスに統合され得る。
[0045]
さらに、放射線治療システムのすべてのコンポーネントは、仮想マシンとして(例えば、VMWare、Hyper-Vのような仮想化プラットフォームを介して)実装され得る。例えば、仮想マシンは、ハードウェアとして機能するソフトウェアである。したがって、仮想マシンは、ハードウェアとして一緒に機能する少なくとも1つまたはそれ以上の仮想プロセッサ、1つまたはそれ以上の仮想メモリ、および/または1つまたはそれ以上の仮想通信インターフェースを含むことができる。例えば、画像処理計算システム110、画像データソース150、または同様のコンポーネントは、仮想マシンとして、またはクラウドベースの仮想化環境内で実装され得る。
[0046]
患者状態処理ロジック120または他のソフトウェアプログラムは、計算システムに、画像データソース150と通信して、メモリ114および記憶装置116に画像を読み込んだり、メモリ114または記憶装置116から、画像データソース150との間で画像または関連データを保存したりさせることができる。例えば、画像データソース150は、画像取得装置170を介して1人またはそれ以上の患者から取得した画像データ160内の画像セットから、画像データソース150がホストする複数の画像(例えば、3DのMRI、4DのMRI、2DのMRIスライス画像、CT画像、2Dの透視画像、X線画像、MRスキャンまたはCTスキャンの生データ、DICOM(Digital Imaging and Communications in Medicine)メタデータなど)を格納して提供するように構成することができる。また、画像データソース150やその他のデータベースには、患者状態処理ロジック120が、患者状態推定演算を行うソフトウェアプログラムを実行する際や、放射線治療の治療計画を作成する際に使用するデータが格納され得る。さらに、様々なデータベースが、予備動きモデル(辞書など)、対応動きモデル、または機械学習モデルによって生成されたデータ(ネットワークが学習したモデルを構成するネットワークパラメータ、およびその結果としての予測データを含む)を保存することができる。画像処理計算システム110は、このように、治療または診断操作の一部として画像患者状態推定を実行することに関連して、画像データソース150、画像取得装置170、治療装置180(例えば、MRI-Linac)、または他の情報システムから画像データ160(例えば、2DのMRIスライス画像、CT画像、2Dの透視画像、X線画像、3Dの MRI画像、4DのMRI画像など)を取得および/または受信することができる。
[0047]
画像取得装置170は、関心領域(例えば、ターゲットの臓器、ターゲットの腫瘍またはその両方)に対する患者の解剖学的構造の1つまたはそれ以上の画像を取得するように構成することができる。各画像、典型的には2D画像またはスライスは、1つまたはそれ以上のパラメータ(例えば、2Dスライスの厚さ、方向、および位置など)を含むことができる。一実施例では、画像取得装置170は、任意の方向の2Dスライスを取得することができる。例えば、2Dスライスの方向には、サジタル方向(sagittal orientation)、コロナル方向(coronal orientation)、アキシャル方向(axial orientation)などがある。処理回路112は、ターゲットの臓器および/またはターゲットの腫瘍を含むように、2Dスライスの厚さおよび/または向きなどの1つまたはそれ以上のパラメータを調整することができる。一例として、2Dスライスは、3DのMRIボリュームのような情報から決定することができる。このような2Dスライスは、例えば、治療装置180を使用して患者が放射線治療の治療を受けている間に、画像取得装置170によって「リアルタイム」で取得することができる(「リアルタイム」とは、10ミリ秒以下でデータを取得することを意味する)。別の実施例では、いくつかのアプリケーションにおいて、「リアルタイム」は、(例えば、最大)200ミリ秒または300ミリ秒以内の時間枠を含み得る。一実施例として、「リアルタイム」とは、本明細書に記載された技術によって解決される臨床上の問題に十分な速さの時間帯を含み得る。この実施例では、「リアルタイム」は、ターゲットの速度、放射線治療のマージン、ラグ、治療装置の応答時間などに応じて変化する。
[0048]
画像処理計算システム110の患者状態処理ロジック120は、様々な深層ニューラルネットワークを用いた患者状態決定ワークフロー130を実装し、患者の状態(例えば、DVF)の推定を行うものとして描かれている。一実施例では、患者状態処理ロジック120によって動作する患者状態決定ワークフロー130は、部分的な測定値(例えば、リアルタイムの2D画像)と、基準画像を用いた4Dの患者モデルとの入力に基づいて、患者の状態を出力するように訓練された第1の深層ニューラルネットワーク132を使用する。患者状態決定ワークフロー130は、第1の深層ニューラルネットワーク132からの患者の状態と基準画像の入力に基づいてDVFを出力するように訓練された第2の深層ニューラルネットワーク134を含む。患者状態決定ワークフロー130は、リアルタイム入力ストリーム136(例えば、CTまたはMRからのような2Dの部分的測定値)を受け取ることを含む。リアルタイム入力ストリーム136からの画像は、トレーニングされた第1の深層ニューラルネットワーク132と第2の深層ニューラルネットワーク134に供給されて、画像を4Dのモデルに関連付けるDVFを生成することができる。患者状態決定ワークフロー130は、トレーニングされた第1の深層ニューラルネットワーク132及び第2の深層ニューラルネットワーク134と、リアルタイム入力ストリーム136からの現在の患者の測定値(例えば、2Dの画像)とを用いて、患者の状態138を推定することを含み、患者の状態138は、DVFによって一実施例として表される。
[0049]
図2は、X線源や線形加速器のような放射線源、カウチ216、撮像検出器214、および放射線治療出力204を含む、例示的な画像誘導型放射線治療装置202を示している。放射線治療装置202は、患者に治療を施すために放射線ビーム208を放出するように構成されることができる。放射線治療出力204は、マルチリーフコリメータ(MLC)のような1つまたはそれ以上の減衰器またはコリメータを含むことができる。
[0050]
一実施例として、患者は、放射線治療の治療計画(例えば、図1の放射線治療システムによって生成された治療計画)に従って放射線治療の線量を受けるために、治療カウチ216によって支持されて領域212に配置され得る。放射線治療出力204は、ガントリ206または他の機械的支持体に取り付けまたは装着することができる。1つまたはそれ以上のシャーシモータ(図示せず)は、カウチ216が治療領域に挿入されたときに、ガントリ206および放射線治療出力204をカウチ216の周りに回転させることができる。一実施例では、ガントリ206は、カウチ216が治療領域に挿入されるときに、カウチ216の周りを連続的に回転可能である。別の実施例では、ガントリ206は、カウチ216が治療領域に挿入されると、所定の位置まで回転する。例えば、ガントリ206は、軸(「A」)を中心に治療出力204を回転させるように構成することができる。カウチ216と放射線治療出力204の両方は、横方向(「T」)に移動可能、横方向(「L」)に移動可能、または横軸(「R」で示す)を中心とした回転のように、1つまたはそれ以上の他の軸を中心とした回転として、患者の周りの他の位置に独立して移動可能である。1つまたはそれ以上のアクチュエータ(図示せず)に通信可能に接続されたコントローラは、放射線治療の治療計画に従って患者を放射線ビーム208の中または外に適切に配置するために、カウチ216の動きまたは回転を制御することができる。カウチ216とガントリ206の両方が、互いに独立して複数の自由度で移動可能であるため、放射線ビーム208が正確に腫瘍を狙うことができるように患者を配置することができる。
[0051]
図2に示す座標系(軸A、T、Lを含む)は、アイソセンタ210に位置する原点を持つ。アイソセンタは、患者上または患者内のある場所に所定の放射線量を照射するためなど、放射線治療ビーム208の中心軸が座標軸の原点と交差する位置と定義することができる。あるいは、アイソセンタ210は、ガントリ206によって軸Aの周りに配置された放射線治療出力204の様々な回転位置に対して、放射線治療ビーム208の中心軸が患者と交差する位置として定義することができる。
[0052]
また、ガントリ206は、付属の撮像検出器214を有することができる。撮像検出器214は、好ましくは放射線源(出力204)の反対側に配置され、一実施例では、撮像検出器214は、治療ビーム208のフィールド内に配置することができる。
[0053]
撮像検出器214は、治療ビーム208との整合性を維持するように、好ましくは放射線治療出力204の反対側のガントリ206に取り付けることができる。撮像検出器214は、ガントリ206の回転に伴い、回転軸を中心に回転する。一実施例では、撮像検出器214は、フラットパネル検出器(例えば、直接検出器またはシンチレータ検出器)とすることができる。このようにして、撮像検出器214は、治療ビーム208をモニタするために使用することができ、あるいは、撮像検出器214は、ポータル画像など、患者の解剖学的構造を画像化するために使用することができる。放射線治療装置202の制御回路は、放射線治療システムの中に組み込まれていてもよいし、離れていてもよい。
[0054]
例示的な例では、カウチ216、治療出力204、またはガントリ206のうちの1つまたは複数を自動的に位置決めすることができ、治療出力204は、特定の治療提供インスタンスのための指定された線量に従って治療ビーム208を確立することができる。ガントリ206、カウチ216、または治療出力204の1つまたはそれ以上の異なる向きまたは位置を使用するなど、放射線治療の治療計画に応じて、治療提供のシーケンスを指定することができる。治療の提供は順次行われるが、アイソセンタ210など、患者上または患者内の所望の治療軌跡で交差させることができる。これにより、所定の累積線量の放射線治療を治療部位に行うことができる一方で、治療部位付近の組織へのダメージを軽減または回避することができる。
[0055]
したがって、図2は、患者に放射線治療を提供するように操作可能な放射線治療装置202の一例を具体的に示しており、放射線治療出力が中心軸(例えば、軸「A」)を中心に回転可能な構成を有している。その他の放射線治療用の出力構成も可能である。例えば、放射線治療用の出力は、複数の自由度を持つロボットアームやマニピュレータに取り付けることができる。さらに別の実施例では、治療出力を患者から横方向に離れた領域に配置するなどして固定し、患者を支持するプラットフォームを使用して、放射線治療のアイソセンタを患者内の指定されたターゲットの軌跡に合わせることができる。別の実施例では、放射線治療装置は、線形加速器と画像収集装置の組み合わせとすることができる。いくつかの実施例では、画像取得装置は、当業者が認識するように、MRI、X線、CT、CBCT、スパイラルCT、PET、SPECT、光トモグラフィー、蛍光イメージング、超音波イメージング、MR-linac、または放射線治療ポータルイメージング装置などであってもよい。
[0056]
図3は、放射線治療装置202と、開示された実施形態に一致する核磁気共鳴(MR)撮像システムのような撮像システムとを組み合わせることを含むことができる、例示的な放射線治療システム300(例えば、当技術分野ではMR-Linacとして知られている)を示している。図示するように、システム300は、カウチ310、画像取得装置320、および放射線照射装置330を含むことができる。システム300は、放射線治療の治療計画に基づいて、患者に放射線治療を行うものである。いくつかの実施形態では、画像取得装置320は、画像を取得することができる図1の画像取得装置170に対応させることができる。
[0057]
カウチ310は、治療セッションの間、患者(図示せず)をサポートすることができる。いくつかの実装では、カウチ310は、カウチ310上にいる患者をシステム300の中または外に移動させるように、水平方向の並進軸(「I」と表示)に沿って移動させることができる。また、カウチ310は、並進軸と直交する中央の垂直回転軸を中心に回転することができる。そのような移動または回転を可能にするために、カウチ310は、カウチが様々な方向に移動し、様々な軸に沿って回転することを可能にするモータ(図示せず)を有する。コントローラー(図示せず)は、治療計画に基づいて患者を適切に配置するために、これらの動きや回転を制御することができる。
[0058]
いくつかの実施形態では、画像取得装置320は、治療セッションの前、間、または後に患者の2Dまたは3DのMRI画像を取得するために使用されるMRI装置を含み得る。画像取得装置320は、磁気共鳴イメージングのための一次磁場を生成するための磁石321を含んでもよい。磁石321の操作によって発生する磁力線は、中心の並進軸Iと実質的に平行に走っている。磁石321は、並進軸Iと平行に走る軸を持つ1つまたは以上のコイルを含み得る。いくつかの実施形態では、磁石321の1つまたはそれ以上のコイルは、磁石321の中央窓323にコイルがないような間隔で配置されてもよい。他の実施形態では、磁石321のコイルは、放射線治療装置330によって生成された波長の放射線に対して実質的に透過するように十分に薄いか、または密度が低減されている。また、画像取得装置320は、1つまたは以上のシールドコイルを含んでいてもよく、これらのシールドコイルは、磁石321の外側の任意の磁場を相殺または低減するために、ほぼ等しい大きさで反対の極性の磁場を磁石321の外側に生成してもよい。後述するように、放射線治療装置330の放射線源331は、磁場が少なくとも一次にキャンセルされる、または低減される領域に配置される。
[0059]
また、画像取得装置320は、一次磁場に重畳する勾配磁場を発生させる2つの勾配コイル325、326を含む。コイル325、326は、プロトンの位置を決定できるようにプロトンの空間的エンコーディングを可能にする、結果として得られる磁場に勾配を生成する。勾配コイル325、326は、磁石321と共通の中心軸の周りに配置されてもよく、その中心軸に沿って変位してもよい。この変位により、コイル325と326の間にギャップつまり窓ができる。磁石321がコイルの間に中央窓323も含む実施形態では、2つの窓は互いに整列している。
[0060]
画像の取得は、腫瘍の動きを追跡するために使用される。時には、内部または外部のサロゲートを使用することができる。しかし、埋め込まれたシードは、放射線治療中に当初の位置から移動したり、外れたりすることがある。また、サロゲートを使用する場合、腫瘍の動きと外部のサロゲートの変位に相関関係があることを前提としている。しかし、外部のサロゲートと腫瘍の動きの間には位相のずれがあり、それらの位置は時間の経過とともに頻繁に相関性を失う可能性がある。腫瘍とサロゲートの間には、9mm以上のミスマッチがあることが知られている。さらに、トラッキング中に腫瘍の形状がどのように変化するかは不明である。
[0061]
磁気共鳴画像(MRI)の利点は、軟部組織のコントラストが優れているため、腫瘍をより詳細に見ることができることである。複数のフラクション内(intrafractional)MR画像を用いることで、腫瘍の形状と位置(セントロイドなど)の両方を把握することができる。さらに、MRI画像は、例えば放射線腫瘍医が手動で行う輪郭形成を向上させるが、自動輪郭形成ソフトウェア(例えば、ABAS(登録商標))を使用した場合でも同様である。これは、MR画像では腫瘍のターゲットと背景領域のコントラストが高いためである。
[0062]
MR-Linacシステムを使用するもう一つの利点は、治療ビームを連続的に照射して、ターゲットの腫瘍のイントラフラクショナル・トラッキング(intrafractional tracking)を実行できることである。例えば、光学式トラッキング装置や立体X線透視システムでは、腫瘍のサロゲートを用いて30Hzで腫瘍の位置を検出することができる。MRIでは、画像取得速度がより速い(例えば、3~6fps)。したがって、ターゲットのセントロイド位置を決定することで、人工知能(例えば、ニューラルネットワーク)ソフトウェアが将来のターゲットの位置を予測することができる。MR-Linacを用いたイントラフラクショナル・トラッキング(intrafractional tracking)の利点は、将来のターゲットの位置を予測できることで、マルチリーフコリメーター(MLC)のリーフが、予測された将来の位置にあるターゲットの輪郭に合わせることができる点にある。このように、MRIを使って将来の腫瘍の位置を予測することは、トラッキング中の撮像周波数と同じ割合で起こる。詳細なMRI画像を用いてターゲットである腫瘍の動きを明確に追跡することで、動き回るターゲットに適合性の高い放射線を照射することができる。
[0063]
いくつかの実施形態では、画像取得装置320は、X線、CT、CBCT、スパイラルCT、PET、SPECT、光トモグラフィー、蛍光イメージング、超音波イメージングのようなMRI以外の撮像装置または放射線治療ポータルイメージング装置であり得る。当業者であれば認識できるように、画像取得装置320の上記の説明は、特定の実施形態に関するものであり、限定することを意図したものではない。
[0064]
放射線治療装置330は、X線源や線形加速器のような放射線源331と、マルチリーフコリメータ(MLC)333とを含み得る。放射線治療装置330は、シャーシ335に搭載される。1つまたはそれ以上のシャーシモータ(図示せず)は、カウチ310が治療領域に挿入されると、カウチ310の周りでシャーシ335を回転させる。一実施形態では、シャーシ335は、カウチ310が治療領域に挿入されたときに、カウチ310の周りで連続的に回転可能である。シャーシ335は、また、付属の放射線検出器(図示せず)を有していてもよく、好ましくは放射線源331の反対側に位置し、シャーシ335の回転軸が放射線源331と検出器との間に配置される。さらに、装置330は、例えば、カウチ310、画像取得装置320、および放射線治療装置330のうちの1つまたは複数を制御するために使用される制御回路(図示せず)を含み得る。放射線治療装置330の制御回路は、システム300の中に組み込まれていてもよいし、システム300から離れていてもよい。
[0065]
放射線治療のセッションの間、患者はカウチ310に配置される。システム300は、次に、カウチ310を、磁気コイル321、325、326、シャーシ335によって規定される治療領域に移動させる。そして、制御回路は、放射線治療の治療計画に従って、コイル325、326の間の窓を通して患者に放射線を照射するように、放射線源331、MLC333、シャーシモータを制御する。
[0066]
図4は、患者の状態を推定するための例示的なフロー図である。図4は、エンコーダ・デコーダ型の畳み込みニューラルネットワーク(CNN)または他のニューラルネットワークを用いて患者の状態を推定するための患者状態ジェネレータ408を含む。患者状態ジェネレータ408は、瞬間的な部分の測定値402と患者の予備動きモデル406を用いて、患者の状態を推定し、ブロック410で出力する。予備動きモデル406は、以前の測定値404に対応する以前の患者の状態を含む、以前の測定値404を用いて生成される。
[0067]
実用的な放射線治療アプリケーションでは、部分的な測定(例えば、2Dの画像または画像スライス)により、患者の状態(例えば、3Dの画像)に関する不完全な情報が得られる。例えば、2DのMRIスライスは、患者の3D表現を一度に切り取ったものであり、X線投影は、3D表現のレイラインに沿ってボクセルを積分したものである。どちらの画像を使用しても、偏りの無い情報(例えば、患者の解剖学的な3Dの表現ではなく2Dの画像)という結果となる。患者状態ジェネレータ408は、過去の測定および/またはオフライン(治療前)の取得から生成された部分情報および患者モデル406を用いて、患者の状態410を推定する。患者モデルジェネレータ408は、低次元の患者の状態表現の作成を含むことができる。
[0068]
4Dの画像には、代表的な呼吸サイクルの一連の3Dの画像が含まれ得る。例えば、4DのCBCTでは、多数のX線投影画像を取得し、多数のビンに分類する。並べ替えは、例えば、各投影での横隔膜の位置を画像で直接検出したり、kVの投影と同時に取得した別の呼吸信号を用いたり、信号の位相や振幅に応じて投影をビンニングしたりすることにより達成する。その後、各ビンに割り当てられたkV投影を用いて各ビンを個別に再構成し、ビンごとに3Dの画像を形成する。同様の手法で4DのMR画像を生成することができる。その後、暫定的に4D画像を使ってモデルを構築する。場合によっては、4D画像を再構築する中間ステップが必要ないこともあり、低次元の状態表現を測定値から直接作成することもできる。
[0069]
DVFベースの動きモデル(例えば、患者の状態410として出力される)は、基準となる患者の状態(例えば、3Dの基準画像上で定義された治療情報)を、4Dのデータセットで表現された代表的な呼吸サイクルの他の各フェーズで示される特定の解剖学的構造に変形させるメカニズムを提供する。
[0070]
本明細書に記載されているシステムおよび方法は、瞬間的な部分の測定値(例えば、2Dの画像)を、その基礎となる完全な3Dの患者の状態(例えば、出力推定値)にマッピングするための深層学習フレームワークを含む。一実施例では、この2Dから3Dへの問題は、(2D+4D)から3Dへの問題に再定式化することができる。
[0071]
機械学習技術を用いて、瞬間的な部分の測定(2D)とその基礎となる3Dの患者の状態の間の2Dから3Dへの推論を学習することができる。このような実施例では、4Dのデータセットを使用してトレーニングペア(2Dの測定、3Dの患者の状態)を生成することができる。しかし、これらの技術は、連続する患者の状態の間に存在する時間的な関係が考慮されない可能性があるという限界がある。その他の限界としては、個々の患者ごとに(例えば、患者自身の患者モデルを使用して)患者状態ジェネレータを再学習する必要があることが挙げられる。特に、放射線治療の直前に4Dの患者モデルを取得した場合、トレーニング時間の長さが治療のワークフローに大きく影響する可能性がある。もうひとつの限界は、大量の4Dの患者モデルの集団を使ってオフラインでモデルをトレーニングすることで、モーションマネジメントの目的である患者の特異性が十分に得られないことである。
[0072]
本明細書に記載されているシステムおよび方法は、2つ(またはそれ以上)の深層ニューラルネットワークを学習して、2Dの部分的な測定値で見つかった特徴と、4Dの時空間的な患者モデルで見つかった特徴との間の依存関係を学習することによって、これらの問題および制限を解決することができる。2つまたはそれ以上の深層ニューラルネットワークの出力には、見たことのない入力測定値/モデルのペアに対する、基礎的な患者の状態の推定値が含まれることがある。これらのシステムや技術は、データの空間的および時間的な依存性を利用した患者状態ジェネレータを含むことができる。さらに、患者自身のモデルがネットワークの入力として与えられるため、患者固有の状態を維持しながら、複数の患者の大規模なデータベースを使用して、患者の状態を生成するためのトレーニングを一度だけ行うことができる。
[0073]
一実施例では、本明細書に記載されているシステムと方法は、侵襲的に埋め込まれたマーカーを必要とせずに、腫瘍と他の周囲の器官の両方を追跡するのに適している。
[0074]
一実施例では、本明細書に記載されたシステムおよび方法は、4Dの患者モデルに対する計算コストの高い変形可能な画像登録(DIR)を必要としない場合がある。この実施例では、治療前の遅延がないため、治療のワークフローに影響を与えない。さらに、ここに記載されているシステムと方法は、DIRの方法で生成された変位ベクトルフィールド(DVF)の精度に限定されるものではない。
[0075]
本明細書に記載されているシステムと方法は、(データ駆動である入力患者モデル以外の)モデルフリーで、トレーニングデータによってのみ駆動することができる。そのため、本明細書に記載されているシステムおよび方法は、強い線形性の仮定を含む可能性のあるモデルベースの方法よりも、アンダーフィッティング(underfitting)の影響を受けにくい可能性がある。
[0076]
ニューラルネットワークは、多数の患者モデルを用いてトレーニングされ、治療中に起こりうる動きの変化やドリフトに対して一般化することができる。一実施例では、単一の(時間に制約のある)患者モデル(1つの平均呼吸サイクル)を使用してトレーニングされたモデルと比較して、本明細書に記載されたシステムおよび方法は、より一般化することができる。一度学習したニューラルネットワークは、例えば、異なる(例えば、更新された)入力患者モデルを注入することにより、長時間の再学習を行うことなく、フラクション間(inter-fraction)の腫瘍サイズの変化や周囲の臓器の動きの変化に適応することができる。
[0077]
図5は、例示的な深層ニューラルネットワークアーキテクチャ500の概要ブロック図を示す。深層ニューラルネットワークアーキテクチャ500は、2つの部分を含む。図5で「ネットワークA」とラベル付けされた第1の部分は、生の3Dの患者の状態の推定値508を生成するために、入力の2Dの部分測定値506を手がかりに、入力の4Dの患者モデル504を時間的次元で補間するために使用することができる。図5で「ネットワークB」と表示されている第2の部分は、生の3Dの患者の状態508と、治療計画が(例えば、リスク臓器、GTVなどについてより高度な情報で)定義された基準ボリューム512との間の3Dの変位ベクトルフィールド(DVF)510として出力され、相対的な動きを計算する。一実施例では、基準ボリューム512は、4Dの患者モデル504の1つのフェーズである(例えば、4Dの患者モデル504がネットワークAに入力される前に、基準ボリューム512となるように1つのフェーズが選択される)。他の実施例では、基準ボリューム512は、別途取得したデータセットであってもよい。
[0078]
一実施例では、ネットワークAは、入力された4Dの患者モデル(治療前に取得されたもの)と、患者の現在のリアルタイムの2Dの画像測定値506とに基づいて、生の3Dの患者の状態508を生成するために使用される。ネットワークBは、生成された3Dの患者の状態508と、治療計画が定義された基準ボリューム512との間の相対的な動きを計算するために使用される。出力DVF510は、多分、入力画像506からリアルタイムで生成される。
[0079]
ネットワークAの機能と出力に関する詳細は、図6A~図6Bを参照して以下に記載する。
[0080]
一実施例では、ネットワークBは、生の患者の状態508(ネットワークAの出力)と、より高レベルの臨床治療計画が定義された(例えば、GTV、リスク臓器、等の定義)患者モデルにおける基準ボリューム512(例えば、患者の呼気終了時の位相)との間の相対的な動きを計算する。一実施例では、2Dのフローネット(FlowNet)アーキテクチャの3Dの拡張を使用して、(ネットワークAからの)補間された3Dの患者の状態508と3Dの基準ボリューム512との間の変位ベクトルフィールド(DVF)510を推定する。このDVF510は、(治療計画が作成された)基準ボリューム512と、最新の患者の状態508との間で検出された変化に治療計画を適応させるために使用されてもよい。別の実施例では、従来の変形可能な画像登録(DIR)技術を使用してもよい。一実施例では、深層ニューラルネットワークアーキテクチャは非反復的であり、ライブモーションモニタリングに適している。
[0081]
最終的な出力を向上させるために、1つの深層ニューラルネットワークの代わりに、2つのネットワークアーキテクチャ500を使用する。エンドツーエンド(end-to-end)のネットワークは可能でないかもしれない。その代わりに、2つのネットワークを使用することにより、基準ボリューム512を両方のネットワークへの入力として使用して、DVF510を出力するために、2Dの測定値506と4Dの患者モデル504を含む現実的な、グランドトゥルースのトレーニング入力を作成することができる。患者モデルの補間(ネットワークA)に続いて、相対的な動きの推定(ネットワークB)を行うことで、エンドツーエンドのネットワークよりも精度が高くなる可能性がある。さらに、2つのネットワークアーキテクチャ500は、例えば、グランドトゥルースのトレーニングサンプルの生成に関して、トレーニングの複雑さを大幅に軽減し、実現可能性を高めることができる。
[0082]
図6A及び図6Bは、例示的な詳細な深層ニューラルネットワークアーキテクチャのブロック図を示す。図6Aは、図5に示したアーキテクチャ500からのネットワークAの入力層と畳み込み層と相関層を示している。図6Bは、ネットワークAの患者状態ジェネレータ(エンコーダ・デコーダ)の層を示している。
[0083]
ネットワークAは、離散的な4Dの患者モデルデータを時間と空間の補間器を含む。ネットワークAは、部分的な測定値(例えば、2Dの画像)を入力として、現在の患者の状態を最もよく表す新しい3Dのボリュームデータセットを生成するために使用される。先に図5で説明したように、ネットワークAの一例のアーキテクチャは、複数の2Dおよび3Dの畳み込みニューラルネットワーク(CNN)を含む。具体的には、図6Aに示すように、独立した畳み込み処理ストリームを使用して、2Dの測定データ(2DのCNN処理ストリーム602)と4Dの患者モデル(3D+時間CNN(3D+time CNN))処理ストリーム604)から低レベルの特徴を抽出する。次に、相関層(Corr Layer)606が、測定値の特徴とモデルの特徴と(処理ストリーム602と処理ストリーム604からそれぞれ出力されたもの)を照合する。相関層606の出力は、図6Bに示す(エンコーダ608とデコーダ610のための層を有する)患者状態ジェネレータの層に送られる。
[0084]
図6Aでは、相関層は、測定値の特徴(ストリーム602の出力)と患者モデルの特徴(ストリーム604の出力)との間で乗算パッチ比較を行うマッチング処理を含む。相関層は、フィルターではなく、データを他のデータ(602出力、604出力)と畳み込むことを除けば、コンボリューション層に似ている。この相関層は、2Dの画像から抽出した特徴量と、入力された患者モデルの複数の3Dのボリュームから抽出した特徴量との相関をとる。
[0085]
一実施例では、2Dの測定値データの各パッチは、患者モデルのすべての3Dのボリューム内のすべての可能なパッチと比較される。他の実施例では、器官に依存するハイパーパラメータ(hyperparameter)や、他の限定的な制約など、最大変位の制約(maximum displacement constraint)を定義する。一実施例では、ハイパーパラメータは、ネットワークの構造や学習率を決定する変数である。ハイパーパラメータは学習前に設定することができる。制約は、ストリーム602とストリーム604の出力間の比較の次元を大幅に減らすために使用することができ、これにより、精度を維持しつつ、より計算が容易な判定を得ることができる。
[0086]
図6Bでは、エンコーダ・デコーダ層606~610は、相関層606の出力を使用して、現在の患者の状態に関する高レベルの抽象的な表現を抽出し、これを画素ごとの緻密な患者状態予測に復号する。
[0087]
エンコーダ・デコーダモデルは、畳み込みニューラルネットワーク(CNN)や、別の実施例では、回帰型ニューラルネットワーク(RNN:recurrent neural network)のようなニューラルネットワークを含み得る。CNNの例は、図6Bに示されており、相関層の出力を高レベルの抽象的な表現にエンコードするエンコーダ608が示されており、このエンコードは、デコーダ610に送られて、画素ごとの高密度の患者状態記述を生成する。ネットワークAの出力は、デコーダ610の出力を含むことができ、これは、時間離散型の4Dの患者モデル(例えば、ストリーム604に入力された患者モデル)に見られる生データを補間した生の3Dの患者の状態(例えば、グレースケールボリューム)を含むことができる。
[0088]
一実施例では、ネットワークBは、一般的に、画像のペアを畳み込むようにトレーニングされている。そのとき、ドメイン固有のデータを集めた小規模なデータベースを使用して、ネットワークBを微調整することができる。例えば、ローカルな統計的形状および外観モデルを使用して、現実的でドメイン固有のグラウンドトゥルース変形を生成することができる。
[0089]
CNNにおけるエンコーディングとデコーディングには、異なる技術を用いることができる。例えば、入力された患者モデルに対する時間と空間の畳み込み(コンボリューション)の技術は、以下の図7A及び図7Bで説明され、これらは、ゼロパディング(Zero-padding)(7A)とサーキュラーパディング(Circular padding)(7B)の技術を含んでいる。説明のため、2次元の空間次元のみを示しているが、3次元の操作も同様の操作に従って行うことができる。一実施例では、図7Aに示すようなゼロパディング(Zero-padding)をすべての空間次元で使用することができる。別の実施例では、例えば、患者の動きがほぼ周期的であると仮定して、時間次元でサーキュラーパディング(Circular padding)を使用することができる。
[0090]
図7A及び図7Bは、例示的な時空間の畳み込み図を示している。
[0091]
図7Aは、2Dの計測のCNNに対するゼロパディングのアプローチを示している。このCNN処理ストリームは、プーリング(pooling)を伴う畳み込み層をインターリーブする複数の隠れ層を用いて2Dの測定に適用される。畳み込み層は、画像の複数の抽象的な空間の特徴を抽出し、プーリングは特徴マップを空間的に縮小する。隠れ層の数や特徴空間の大きさ、あるいは各層での畳み込み回数などは、学習時に最適化されるハイパーパラメータとなる。
[0092]
図7Bは、3Dおよび時間患者モデルCNN(maximum displacement constraint)に対するサーキュラーパディング(Circular padding)のアプローチを示している。ある実施例では、同一の3DのCNN処理ストリームが4Dの患者モデルの各ボリュームに適用される。これらのストリームは独立しておらず、隣接する処理ストリームと相互に接続されている可能性があり、臓器の空間的変形に関する豊富な時間空間的特徴を経時的に学習することができる。4Dの患者モデルに記述された動きが周期的であると仮定したような場合には、サーキュラー畳み込みスキーム(circular convolution scheme)が使用される。
[0093]
図8は、深層ニューラルネットワークの例示的なトレーニングフロー図800を示す。トレーニングフロー図800は、(例えば、図5、図6A、図6B、図7A、図7Bの)ネットワークAに対するトレーニングの実施例を含む。このトレーニングを使用して、患者モデル補間器を生成し、患者の状態を出力する。ネットワークAは、合成測定値サンプルと合成出力患者状態サンプルとが作成された4Dの患者モデルの大規模なデータベースを使用してトレーニングすることができる。一実施例では、1人の患者に対して2つの4Dデータセットを取得することができる。これらの実施例のいくつかでは、1人の患者のための2つまたはそれ以上の4Dデータセットが使用されてもよく、他の実施例では、2人またはそれ以上の患者のための1つまたはそれ以上の4Dデータセットが使用されてもよい。図8に示すように、第1の4Dデータセット802からのボリュームシリーズが入力患者モデルとして使用される。第2の4Dデータセット804からのボリュームを出力の患者の状態として使用することができる(例えば、第2の4Dデータセット805からの各ボリュームを出力の患者の状態として順次使用することができる)。出力された患者の状態から、現実的な2Dの測定値を合成することができる。MRIの実施例では、データの2Dスライスを抽出することにより、2Dの測定値を合成することができる(例えば、2DのMRI撮影のスライス厚に最もマッチするように、複数のスライスを平均化することができる)。CTの実施例では、例えば、シドン-ヤコブのレイ-トレーシングアルゴリズム(Siddon-Jacobs ray-tracing algorithm)を用いて、合成の2DのX線測定値を生成することができる。
[0094]
一実施例では、同じ患者に対して取得した2つの4Dデータセットからトレーニングサンプルを作成する。トレーニングサンプルには、患者モデルとして使用される第1の4Dデータセットと、結果としての患者の状態として使用される第2の4Dデータセットと、第2の4Dデータセットの抽出されたスライスからの入力画像とが含まれる。一実施例では、入力画像は、ボリュームから合成的に作成された2Dの測定スライスを入力として使用することができる。一実施例では、2つの4Dデータセットを順列に並べて、より多くのトレーニングサンプルを生成することができる。別の実施例では、サンプルは、各患者からのデータセットのペアなど、多くの患者から生成することができる。
[0095]
図9は、放射線治療の処置中に相対的な動きを推定するための例示的な操作のフローチャートを示す。
[0096]
フローチャート900は、入力されたリアルタイムの部分的な患者の測定値と、基準ボリュームを含む患者モデルとを用いて、第1の深層ニューラルネットワークをトレーニ訓練して、患者の状態を出力する操作902を含む。一実施例では、基準ボリュームは、3Dまたは4DのMRIから2Dのスライスのデータを抽出して合成したMR画像を含む。別の実施例では、基準ボリュームは、レイ-トレーシングアルゴリズム(ray-tracing algorithm)を使用するなどして、3Dまたは4DのCTから2DのX線を生成することによって合成されたCT画像を含む。一実施例では、基準ボリュームは4Dの患者モデルの1つのフェーズである。一実施例では、患者の周期的な動きの中で、呼気の終わりの時間に基準ボリュームを抽出する。
[0097]
操作902は、複数の患者データの大規模なデータベースを使用することを含み、出力された患者の状態は、患者固有の入力のリアルタイムの部分的な患者測定値に起因する患者固有のものである。一実施例では、操作902は、2つの4Dデータセットを使用することを含む。例えば、最初の4Dデータセットからスライスを抽出し、入力画像として使用することができる。この実施例では、第2の4Dデータセットを患者モデルとして使用することができる。第1の4Dデータセットは、出力される患者の状態として使用することができる。一実施例では、第1の深層ニューラルネットワークの出力は、時間離散的な4D患者モデルからの生データを補間するグレースケールボリューム(grayscale volume)である。
[0098]
フローチャート900は、患者の状態と基準ボリュームを用いて、第2の深層ニューラルネットワークをトレーニングして、患者の状態と基準ボリュームの間の相対的な動きの情報を出力する動作904を含む。
[0099]
フローチャート900は、画像取得装置から2Dの画像のリアルタイムストリームを受信する操作906を含む。
[0100]
フローチャート900は、第1の深層学習ネットワークと第2の深層学習ネットワークとを用いて、2Dの画像のリアルタイムストリームの画像に対応する相対的な動きを推定する動作908を含む。相対的な動きは、第1の深層ニューラルネットワークから出力された患者の状態と基準ボリュームとの間の3Dの変位ベクトルフィールド(DVF)を含み得る。一実施例では、DVFは、基準ボリューム(例えば、治療計画が立てられた基準ボリューム)と患者の状態との間で検出された変化に治療計画を適応させるために使用される。
[0101]
フローチャート900には、相対的な動きを出力する操作910が含まれる。
[0102]
第1の深層ニューラルネットワークは、入力画像用の第1のCNNと、4Dの入力用の第2のCNNと、第1のCNNと第2のCNNから出力された特徴を照合する相関層(correlation layer)とを含む。第2のCNNは、相対的な動きが周期的である場合、時間次元でのサーキュラーコンボリューション(circular convolution)を使用することができる。一実施例では、第1のCNNはゼロ-パディングコンボリューション(zero-padding convolution)を使用する。患者状態ジェネレータは、相関層の出力を高レベルの表現にエンコードし、ピクセル単位の高密度な患者の状態の記述を生成するために使用されるエンコーダ・デコーダCNNモデルを含む。一実施例では、画像のリアルタイムストリームの画像の各パッチを、患者モデルの3Dのボリュームのパッチと比較することができる。これらの比較は、例えば、画像内で撮影された器官に依存する最大変位制約(例えば、ハイパーパラメータ)の対象となる。
[0103]
この相対的な動きは、患者の状態を利用して、患者内の放射線治療ターゲットの位置を特定するために使用することができます。
[0104]
フローチャート900は、相対的な動きを用いて、患者の放射線治療ターゲットをリアルタイムで追跡する動作を含む。例えば、ある患者の状態から次の患者の状態へとターゲットを追跡しながら、リアルタイムの画像ストリームから連続した画像を使用して、対応する相対的な動きを出力することができる。
[0105]
フローチャート900は、治療装置(例えば、独立型の治療装置、画像取得装置(例えば、MR-linac)に結合された装置など)を用いて、相対的な動きに応じて放射線治療を対象に向ける動作を含む。例えば、ターゲットの位置を特定したり、追跡したりして、その位置や追跡に応じて放射線治療を行うことができる。一実施例では、位置情報やトラッキング情報は、ディスプレイデバイスに表示されるユーザインターフェースなどで表示される。
(追記事項)
[0106]
上記の詳細な説明には、詳細な説明の一部を構成する添付の図面への参照が含まれる。図面は、説明のために示したものであり、限定するものではなく、本開示を実施することができる特定の実施形態を示している。これらの実施形態は、本明細書では「実施例」とも呼ばれる。このような実施例は、図示または説明されたものに加えて、要素(element)を含むことができる。しかし、は、図示または説明された要素のみが提供される実施例も考慮している。さらに、本発明者等は、特定の実施例(または、その1つまたはそれ以上の態様)に関して、または本明細書に図示または説明されている他の実施例(または、その1つまたはそれ以上の態様)に関して、図示または説明されているそれらの要素(またはその1つまたはそれ以上の側面)の任意の組み合わせまたは順列を使用する実施例も考慮している。
[0107]
本開示で言及されているすべての出版物、特許、特許文書は、参照により個別に組み込まれるように、その全体が本開示に組み込まれる。本開示と参照により組み込まれた文書との間で用法が一致しない場合、組み込まれた参照文書の用法は本開示の用法を補足するものとみなされる。
[0108]
本明細書において、”a”、”an”、”the”および”sheed”という用語は、本発明の側面の要素を導入する際、またはその実施形態において、特許文献において一般的であるように、”少なくとも1つ”または”1つ以上”の他の例や用法とは無関係に、1つまたは複数の要素を含むように使用される。本明細書では、「または」という用語は、「AまたはB」が「AであるがBではない」、「BであるがAではない」、「AおよびB」を含むように、非排他的な「または」を指すために使用されるが、別段の記載がない限り、「AまたはB」は「AであるがBではない」、「BであるがAではない」、「AおよびB」を含む。
[0109]
添付の特許請求の範囲では、”including”および”in which”という用語は、”complising”および”wherein”というそれぞれの用語の平易な英語の等価物として使用されている。また、以下の請求項では、用語「complising」、「including」、および「having」は、記載された要素以外に追加の要素が存在する可能性があることを意味するオープンエンドであることが意図されており、そのような用語(例えば、請求項のこのような用語(例えば、complising、including、having)の後も、その請求項の範囲内に含まれるものとみなされる。さらに、以下の請求項において、「第1」、「第2」、「第3」等の用語は、単にラベルとして使用されており、その対象物に数値的な要求を課すことを意図したものではない。
[0110]
また、本開示は、本明細書のオペレーションを実行するために適応、構成、または操作されるコンピューティングシステムに関する。このシステムは、必要な目的のために特別に構築されたものであってもよいし、コンピュータに格納されたコンピュータプログラム(例えば、命令、コードなど)によって選択的に起動または再構成される汎用コンピュータで構成されていてもよい。本明細書に図示され、記載された本発明の実施形態におけるオペレーションの実行または実行の順序は、特に指定されない限り、必須ではない。すなわち、オペレーションは、特に指定されない限り、任意の順序で実行されてもよく、本発明の実施形態は、本明細書に開示されているオペレーションよりも追加的または少ない操作を含んでもよい。例えば、特定のオペレーションを別のオペレーションの前、同時、または別のオペレーションの後に実行または実行することは、本発明の側面の範囲内であることが企図される。
[0111]
上記を考慮すると、本発明のいくつかの目的が達成され、他の有利な結果が得られることが分かるであろう。本発明の側面を詳細に説明してきたが、添付の特許請求の範囲に定義されているように、本発明の側面の範囲から逸脱することなく、修正および変形が可能であることは明らかであろう。本発明の側面の範囲から逸脱することなく、上記の構成、製品、および方法において様々な変更が可能であるため、上記の説明に含まれ、添付の図面に示されているすべての事項は、例示的なものとして解釈されることが意図されており、限定的な意味で解釈されるものではない。
[0112]
上記の説明は、例示を目的としたものであり、制限的なものではない。例えば、上述した実施例(または、その1つまたはそれ以上の態様)は、互いに組み合わせて使用することができる。さらに、本開示の範囲を逸脱することなく、特定の状況や材料を本開示の教示に適応させるために、多くの修正を行うことができる。本明細書に記載されている寸法、材料の種類、および例示的なパラメータ、機能、および実装は、本開示のパラメータを定義することを意図しているが、決して限定するものではなく、例示的な実施形態である。上記の説明を読めば、多くの他の実施形態が当業者には明らかになるであろう。したがって、本開示の範囲は、添付の特許請求の範囲を参照して決定されるべきであり、また、そのような特許請求の範囲が有する均等物の全範囲も参照する必要がある。
[0113]
また、上記の詳細な説明では、開示を合理化するために、様々な特徴をグループ化してもよい。これは、未請求の開示された特徴がいかなる請求項にも不可欠であることを意図していると解釈されるべきではない。むしろ、発明的主題は、特定の開示された実施形態のすべての特徴よりも少ない部分にあるかもしれない。したがって、以下の請求項は、それぞれの請求項が別個の実施形態として独立して立っている状態で、ここに詳細な説明に組み込まれる。本発明の範囲は、そのような請求項が権利を有する等価物の完全な範囲とともに、添付の特許請求の範囲を参照して決定されるべきである。
[0114]
これらの非限定的な実施例は、それぞれ独立していてもよいし、他の実施例の1つまたはそれ以上と様々な順列や組み合わせで組み合わせてもよい。
[0115]
実施例1は、第1の深層ニューラルネットワークを用いて、入力されたリアルタイムの部分的な患者の測定値と、基準ボリュームを含む患者モデルとを関連付ける患者状態ジェネレータを学習して、患者状態を出力するステップと、第1の深層ニューラルネットワークから出力された患者状態および基準ボリュームを第2の深層ニューラルネットワークの入力として用いて、第2の深層学習ネットワークを学習して、患者状態と基準ボリュームとの間の相対運動情報を出力するステップと、画像取得デバイスから画像のリアルタイムストリームを受信するステップと、プロセッサを用いて、第1の深層学習ネットワークおよび第2の深層学習ネットワークを用いて、画像のリアルタイムストリームの画像に対応する相対運動を推定するステップとを含む方法である。
[0116]
実施例2では、実施例1の主題が、第1の深層ニューラルネットワークが、複数の患者データの大規模データベースを使用して学習され、出力患者状態が、患者固有の入力リアルタイム部分的患者測定値に起因して、患者固有であることを含む。
[0117]
実施例3では、実施例1~2の主題が、基準ボリュームが、MRIから2Dスライスのデータを抽出して合成されたMR画像であることを含む。
[0118]
実施例4では、実施例1~3の主題が、基準ボリュームが、レイトレーシングアルゴリズムを用いて2次元X線を生成することによって合成されたCT画像であることを含む。
[0119]
実施例5では、実施例1~4の主題が、第1の深層ニューラルネットワークをトレーニングすることが、入力画像として使用するために第1の4Dデータセットからスライスを抽出することと、患者モデルとして第2の4Dデータセットを使用することと、出力患者状態として第1の4Dデータセットを使用することとを含む、2つの4Dデータセットを使用することを含む。
[0120]
実施例6では、実施例1~5の主題が、相対的な動きが、第1の深層ニューラルネットワークから出力された患者の状態と基準ボリュームとの間の3D変位ベクトルフィールド(DVF)である、ことを含む。
[0121]
実施例7では、実施例6の主題が、DVFが、治療計画が作られた基準ボリュームと患者の状態との間で検出された変化に治療計画を適応させるために使用されることを含む。
[0122]
実施例8では、実施例1~7の主題が、基準ボリュームが4D患者モデルの1つの相であることを含む。
[0123]
実施例9では、実施例1~8の主題が、第1の深層ニューラルネットワークが、入力画像のための第1のCNNと、4D入力のための第2のCNNと、第1のCNNおよび第2のCNNから出力された特徴を一致させるための相関層とを含むことを含む。
[0124]
実施例10は、実施例9の主題が、相対的な動きが周期的であるときに、第2のCNNが時間次元でのサーキュラー畳み込み(circular convolution)を使用することを含む。
[0125]
実施例11では、実施例9~10の主題が、患者状態ジェネレータが、相関層の出力を高レベルの表現にエンコードするために使用されるエンコーダ・デコーダCNNモデルを含み、緻密な、ピクセルごとの患者状態記述を生成することを含む。
[0126]
実施例12では、実施例9~11の主題が、画像のリアルタイムストリームの画像の各パッチが、画像内に捕捉された臓器に依存する最大変位制約を条件として、患者モデルの3Dボリューム内のパッチと比較される、ことを含む。
[0127]
実施例13では、実施例1~12の主題が、第1の深層ニューラルネットワーク出力が、時間離散型の4D患者モデルからの生データを補間するグレースケールボリュームであることを含む。
[0128]
実施例14では、実施例1~13の主題が、基準ボリュームが、患者の周期的な動きにおける呼気の終わりの時間に抽出されることを含む。
[0129]
実施例15は、プロセッサを使用して、入力されたリアルタイムの部分的な患者の測定値および基準ボリュームを含む患者モデルを使用して、第1の深層ニューラルネットワークを学習して、患者の状態を出力するステップと、患者の状態および基準ボリュームを使用して、第2の深層ニューラルネットワークを学習して、患者の状態と基準ボリュームとの間の相対運動情報を出力するステップと、画像取得デバイスから画像のリアルタイムストリームを受信するステップと、プロセッサを使用して、第1の深層学習ネットワークおよび第2の深層学習ネットワークを使用して、画像のリアルタイムストリームの画像に対応する相対運動を推定するステップと、表示デバイスに表示するために相対運動を出力するステップと、を含む方法である。
[0130]
実施例16では、実施例15の主題が、相対的な動きを使用して、放射線治療ターゲットを追跡することを含む。
[0131]
実施例17では、実施例15~16の主題が、相対的な動きを用いて、放射線治療ターゲットの位置を表示装置に表示することを含む。
[0132]
実施例18は、命令を含む非一時的な機械可読媒体であり、プロセッサによって実行されると、プロセッサに次の方法を行わせるものであって、その方法は、入力されたリアルタイムの部分的な患者の測定値および基準ボリュームを含む患者モデルを用いて、第1の深層ニューラルネットワークを学習して、患者の状態を出力するステップと、患者の状態および基準ボリュームを用いて、第2の深層ニューラルネットワークを学習して、患者の状態と基準ボリュームとの間の相対的な動き情報を出力するステップと、画像取得装置から画像のリアルタイムストリームを受信するステップと、第1の深層学習ネットワークおよび第2の深層学習ネットワークを用いて、画像のリアルタイムストリームの画像に対応する相対的な動きを推定するステップと、相対的な動きを出力するステップとを含む。
[0133]
実施例19では、実施例18の主題が、命令がプロセッサに、相対的な動きを使用して放射線治療ターゲットを追跡することをさらに行わせることを含む。
[0134]
実施例20では、実施例18~19の主題が、命令がプロセッサに、相対運動を用いて放射線治療ターゲットの位置を表示装置に表示させることをさらに行わせることを含む。
[0135]
実施例21は、処理回路によって実行されると、処理回路に実施例1~20のいずれかを実施するための動作を行わせる命令を含む、少なくとも1つの機械読取可能な媒体である。
[0136]
実施例22は、実施例1~20のいずれかを実施する手段を備えた装置である。
[0137]
実施例23は、実施例1~20のいずれかを実施するシステムである。
[0138]
実施例24は、実施例1~20のいずれかを実施する方法である。
[0139]
本明細書に記載されている方法例は、少なくとも部分的には機械またはコンピュータで実施することができる。いくつかの実施例では、上記の実施例で説明した方法を実行するように電子デバイスを構成するように動作可能な命令でコード化されたコンピュータ可読媒体または機械可読媒体を含むことができる。このような方法の実装には、マイクロコード、アセンブリ言語コード、高レベル言語コードのようなコードが含まれ得る。そのようなコードは、様々な方法を実行するためのコンピュータ可読な命令を含み得る。このコードは、コンピュータプログラム製品の一部を構成することができる。更に、一実施例では、コードは、実行中または他の時などに、1つまたはそれ以上の揮発性、非一過性、または不揮発性の有形コンピュータ可読媒体にタンジブルに格納され得る。これらの有形コンピュータ可読媒体の例としては、ハードディスク、リムーバブル磁気ディスク、リムーバブル光ディスク(例えば、コンパクトディスク、デジタルビデオディスク)、磁気カセット、メモリカード、メモリスティック、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)などを含むが、これらに限定されるものではない。

Claims (20)

  1. 第1の深層ニューラルネットワークを用いて、入力されたリアルタイムの部分的な患者の測定値と基準ボリュームを含む患者モデルとを関連つけるように患者状態ジェネレータをトレーニングして、患者の状態を出力するステップと、
    前記第1の深層ニューラルネットワークから出力された前記患者の状態と前記基準ボリュームとを第2の深層ニューラルネットワークの入力として使用し、前記第2の深層学習ネットワークをトレーニングして、前記患者の状態と前記基準ボリュームとの間の相対的な動きの情報を出力するステップと、
    画像取得装置から画像のリアルタイムストリームを受け取るステップと、
    プロセッサを使用して、前記第1の深層学習ネットワークと前記第2の深層学習ネットワークを用いて、前記画像のリアルタイムストリームの画像に対応する相対的な動きを推定するステップと
    を有する
    ことを特徴とする方法。
  2. 請求項1記載の方法において、
    前記第1の深層ニューラルネットワークは、複数の患者のデータの大規模なデータベースを用いてトレーニングされ、前記出力された患者の状態は、患者に固有の入力されたリアルタイムの部分的な患者の測定値により患者に固有のものである
    ことを特徴とする方法。
  3. 請求項1記載の方法において、
    前記基準ボリュームは、MRIから2Dのスライスのデータを抽出することにより合成されたMR画像である
    ことを特徴とする方法。
  4. 請求項1記載の方法において、
    前記基準ボリュームは、レイトレーシングアルゴリズムを用いて2DのX線を生成することにより合成されたCT画像である
    ことを特徴とする方法。
  5. 請求項1記載の方法において、
    前記第1の深層ニューラルネットワークをトレーニングすることは、2つの4Dのデータセットを使用することを含み、入力画像として使用するために第1の4Dのデータセットからスライスを抽出することと、前記患者モデルとして第2の4Dのデータセットを使用することと、出力された患者の状態として前記第1の4Dのデータセットを使用することとを含む
    ことを特徴とする方法。
  6. 請求項1記載の方法において、
    前記相対的な動きは、前記第1の深層ニューラルネットワークから出力された患者の状態と前記基準ボリュームとの間の3Dの変位ベクトルフィールド(DVF)である
    ことを特徴とする方法。
  7. 請求項1記載の方法において、
    前記変位ベクトルフィールド(DVF)は、前記治療計画が立てられた前記基準ボリュームと前記患者の状態との間で検出された変化に治療計画を適応させるために使用される
    ことを特徴とする方法。
  8. 請求項1記載の方法において、
    前記基準ボリュームは、4Dの患者モデルの1つのフェーズである
    ことを特徴とする方法。
  9. 請求項1記載の方法において、
    前記第1の深層ニューラルネットワークは、前記入力画像に対する第1のCNNと、前記4Dの入力に対する第2のCNNと、前記第1のCNNと前記第2のCNNから出力された特徴をマッチする相関層とを含む
    ことを特徴とする方法。
  10. 請求項9記載の方法において、
    前記第2のCNNは、前記相対的な動きが周期的である場合に、時間次元での円形畳み込みを使用する
    ことを特徴とする方法。
  11. 請求項9記載の方法において、
    前記患者状態ジェネレータは、前記相関層の出力を高レベルの表現にエンコードし、画素ごとの高密度な患者の状態の記述を生成するために使用されるエンコーダ・デコーダCNNモデルを含む
    ことを特徴とする方法。
  12. 請求項9記載の方法において、
    前記画像のリアルタイムストリームの前記画像の各パッチは、画像内に撮影された臓器に依存する最大変位制約を条件として、前記患者モデルの3Dのボリューム内のパッチと比較される
    ことを特徴とする方法。
  13. 請求項1乃至12のいずれか1項に記載の方法において、
    前記第1の深層ニューラルネットワークの出力は、時間離散の4Dの患者モデルからの生データを補間するグレースケールボリュームである
    ことを特徴とする方法。
  14. 請求項1乃至12のいずれか1項に記載の方法において、
    前記基準ボリュームは、患者の周期的な動きにおける吐く息の終わりの時間に抽出される
    ことを特徴とする方法。
  15. プロセッサを使用して、入力されたリアルタイムの部分的な患者の測定値と基準ボリュームを含む患者モデルとを用いて、第1の深層ニューラルネットワークをトレーニングし、患者の状態を出力するステップと、
    前記患者の状態と前記基準ボリュームを用いて、第2の深層ニューラルネットワークをトレーニングし、前記患者の状態と前記基準ボリュームとの間の相対的な動きの情報を出力するステップと、
    画像取得装置から画像のリアルタイムストリームを受け取るステップと、
    前記プロセッサを使用して、前記第1の深層学習ネットワークと前記第2の深層学習ネットワークとを用いて、前記画像のリアルタイムストリームの画像に対応する相対的な動きを推定するステップと、
    表示装置に表示するために前記相対的な動きを出力するステップと
    を有する
    ことを特徴とする方法。
  16. 請求項15記載の方法において、
    前記方法は、前記相対的な動きを用いて放射線治療ターゲットを追跡するステップを更に有する
    ことを特徴とする方法。
  17. 請求項15又は16記載の方法において、
    前記方法は、前記相対的な動きを用いて、放射線治療ターゲットの位置を前記表示装置に表示するステップを更に有する
    ことを特徴とする方法。
  18. プロセッサによって実行されたときに、前記プロセッサに、次の方法を実行させる命令を含む非一時的機械可読媒体であって、
    前記方法は、
    入力されたリアルタイムの部分的な患者の測定値と基準ボリュームを含む患者モデルとを用いて、第1の深層ニューラルネットワークをトレーニングし、患者の状態を出力するステップと、
    前記患者の状態と前記基準ボリュームを用いて、第2の深層ニューラルネットワークをトレーニングし、前記患者の状態と前記基準ボリュームとの間の相対的な動きの情報を出力するステップと、
    画像取得装置から画像のリアルタイムストリームを受け取るステップと、
    前記第1の深層学習ネットワークと前記第2の深層学習ネットワークとを用いて、前記画像のリアルタイムストリームの画像に対応する相対的な動きを推定するステップと、
    前記相対的な動きを出力するステップと
    を有する
    ことを特徴とする非一時的機械可読媒体。
  19. 請求項18記載の非一時的機械可読媒体において、
    前記命令は、前記プロセッサに、更に、放射線治療ターゲットを追跡するために前記相対的な動きを使用させる
    ことを特徴とする非一時的機械可読媒体。
  20. 請求項18又は19記載の非一時的機械可読媒体において、
    前記命令は、前記プロセッサに、更に、前記相対的な動きを用いて、放射線治療ターゲットの位置を表示装置に表示させる
    ことを特徴とする非一時的機械可読媒体。
JP2021526771A 2018-11-16 2019-11-14 深層ニューラルネットワークによるリアルタイム動きモニタリング Pending JP2022507640A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/194,190 2018-11-16
US16/194,190 US10803987B2 (en) 2018-11-16 2018-11-16 Real-time motion monitoring using deep neural network
PCT/US2019/061492 WO2020102544A1 (en) 2018-11-16 2019-11-14 Real-time motion monitoring using deep neural network

Publications (1)

Publication Number Publication Date
JP2022507640A true JP2022507640A (ja) 2022-01-18

Family

ID=68848417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526771A Pending JP2022507640A (ja) 2018-11-16 2019-11-14 深層ニューラルネットワークによるリアルタイム動きモニタリング

Country Status (6)

Country Link
US (2) US10803987B2 (ja)
EP (1) EP3881284A1 (ja)
JP (1) JP2022507640A (ja)
CN (1) CN113039578A (ja)
AU (1) AU2019378019B2 (ja)
WO (1) WO2020102544A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
US10835761B2 (en) 2018-10-25 2020-11-17 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MR-LINAC)
US10803987B2 (en) 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network
EP3671660A1 (en) * 2018-12-20 2020-06-24 Dassault Systèmes Designing a 3d modeled object via user-interaction
US10999606B2 (en) * 2019-01-08 2021-05-04 Intel Corporation Method and system of neural network loop filtering for video coding
US11205112B2 (en) * 2019-04-01 2021-12-21 Honeywell International Inc. Deep neural network-based inertial measurement unit (IMU) sensor compensation method
US10996306B2 (en) * 2019-04-25 2021-05-04 General Electric Company MRI system and method using neural network for detection of patient motion
US11571177B1 (en) * 2019-10-07 2023-02-07 Robert Edwin Douglas Method and apparatus for improved medical imaging
EP3839547A1 (en) * 2019-12-16 2021-06-23 Koninklijke Philips N.V. Sense magnetic resonance imaging reconstruction using neural networks
US11276249B2 (en) * 2020-05-14 2022-03-15 International Business Machines Corporation Method and system for video action classification by mixing 2D and 3D features
CN112154483A (zh) * 2020-07-15 2020-12-29 北京肿瘤医院(北京大学肿瘤医院) 一种利用光学体表运动信号合成实时图像的方法及系统
CN112089438B (zh) * 2020-08-31 2021-07-30 北京理工大学 基于二维超声图像的四维重建方法及装置
US11690581B2 (en) * 2020-09-07 2023-07-04 C-Rad Positioning Ab Tumor position determination
US20230372739A1 (en) * 2020-09-16 2023-11-23 Elekta Limited Techniques for detecting movement during radiotherapy treatment
TWI776716B (zh) * 2020-10-23 2022-09-01 國立臺灣大學 醫療影像分析系統及方法
GB2601560A (en) * 2020-12-04 2022-06-08 Elekta Instr Ab Methods for adaptive radiotherapy
KR102475392B1 (ko) * 2021-03-25 2022-12-07 주식회사 에어스메디컬 의료 영상 복원 및 전송 시스템 및 그 방법
WO2023067587A1 (en) * 2021-10-20 2023-04-27 Xact Robotics Ltd. Respiration analysis and synchronization of the operation of automated medical devices therewith
KR20230091645A (ko) * 2021-12-16 2023-06-23 주식회사 온택트헬스 장기 기능에 대한 정보 제공 방법 및 이를 이용한 장기 기능에 대한 정보 제공용 디바이스
SE545891C2 (en) * 2022-02-11 2024-03-05 Kongsberg Beam Tech As Radiotherapy system using graph network to account for patient movement
WO2023215936A1 (en) * 2022-05-09 2023-11-16 Nicholas Hindley Method and system for image registration and volumetric imaging
WO2023230310A1 (en) * 2022-05-26 2023-11-30 Mary Hitchcock Memorial Hospital, For Itself And On Behalf Of Dartmouth-Hitchcock Clinic System and method for real-time image registration during radiotherapy using deep learning

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013158389A (ja) * 2012-02-02 2013-08-19 Toshiba Corp X線ct装置
JP2016158890A (ja) * 2015-03-02 2016-09-05 国立大学法人 東京大学 生体内運動追跡装置
JP2017537717A (ja) * 2014-12-11 2017-12-21 エレクタ、インク.Elekta, Inc. Mri誘導リナックのモーション管理
JP2018029652A (ja) * 2016-08-22 2018-03-01 三菱電機株式会社 加熱調理器
WO2018042211A1 (en) * 2016-09-05 2018-03-08 Kheiron Medical Technologies Ltd Multi-modal medical image processing
WO2018048575A1 (en) * 2016-09-07 2018-03-15 Elekta, Inc. System and method for learning models of radiotherapy treatment plans to predict radiotherapy dose distributions
US20180144510A1 (en) * 2016-11-21 2018-05-24 Elekta Limited Systems and methods for real-time imaging
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法
JP2019525786A (ja) * 2016-07-08 2019-09-12 アヴェント インコーポレイテッド 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001026026A2 (en) * 1999-10-04 2001-04-12 University Of Florida Local diagnostic and remote learning neural networks for medical diagnosis
WO2011133606A2 (en) 2010-04-19 2011-10-27 The Regents Of The University Of California Real-time volumetric image reconstruction and 3d tumor localization based on a single x-ray projection image for lung cancer radiotherapy
US8565886B2 (en) * 2010-11-10 2013-10-22 Medtronic, Inc. Arousal state modulation with electrical stimulation
WO2013029649A1 (en) 2011-08-26 2013-03-07 Elekta Ab (Publ) Intra-fraction motion management system
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
WO2014144019A1 (en) 2013-03-15 2014-09-18 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for real-time 2d/3d deformable registration using metric learning
US9764162B1 (en) 2013-10-28 2017-09-19 Elekta, Inc. Automated, data-driven treatment management system for adaptive radiotherapy workflows
EP3316965B1 (en) * 2015-06-30 2020-05-13 Elekta Ltd. System and method for target tracking using a quality indicator during radiation therapy
GB201513208D0 (en) * 2015-07-27 2015-09-09 Univ Central Lancashire Methods and apparatuses for estimating bladder status
US11191490B2 (en) * 2015-12-02 2021-12-07 Siemens Healthcare Gmbh Personalized assessment of patients with acute coronary syndrome
US11664125B2 (en) * 2016-05-12 2023-05-30 Siemens Healthcare Gmbh System and method for deep learning based cardiac electrophysiology model personalization
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10748277B2 (en) * 2016-09-09 2020-08-18 Siemens Healthcare Gmbh Tissue characterization based on machine learning in medical imaging
CN110168658B (zh) 2016-10-05 2024-04-02 皇家飞利浦有限公司 患者监测系统和方法
US20200058408A1 (en) * 2016-10-17 2020-02-20 Koninklijke Philips N.V. Systems, methods, and apparatus for linking family electronic medical records and prediction of medical conditions and health management
CA3043038A1 (en) * 2016-11-22 2018-05-31 Hyperfine Research, Inc. Systems and methods for automated detection in magnetic resonance images
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
WO2018119366A1 (en) * 2016-12-23 2018-06-28 Heartflow, Inc. Machine learning of anatomical model parameters
US10918888B2 (en) * 2017-02-28 2021-02-16 Sun Nuclear Corporation Radiation therapy treatment verification with electronic portal imaging device transit images
US10255681B2 (en) * 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning
US20190154785A1 (en) 2017-11-17 2019-05-23 University Of Virginia Patent Foundation Cardiac and Respiratory Self-Gated Motion-Corrected Free-Breathing Spiral Cine Imaging
US10922816B2 (en) * 2018-08-27 2021-02-16 Siemens Healthcare Gmbh Medical image segmentation from raw data using a deep attention neural network
US10835761B2 (en) 2018-10-25 2020-11-17 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MR-LINAC)
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
US10803987B2 (en) 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013158389A (ja) * 2012-02-02 2013-08-19 Toshiba Corp X線ct装置
JP2017537717A (ja) * 2014-12-11 2017-12-21 エレクタ、インク.Elekta, Inc. Mri誘導リナックのモーション管理
JP2016158890A (ja) * 2015-03-02 2016-09-05 国立大学法人 東京大学 生体内運動追跡装置
JP2019525786A (ja) * 2016-07-08 2019-09-12 アヴェント インコーポレイテッド 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
JP2018029652A (ja) * 2016-08-22 2018-03-01 三菱電機株式会社 加熱調理器
WO2018042211A1 (en) * 2016-09-05 2018-03-08 Kheiron Medical Technologies Ltd Multi-modal medical image processing
WO2018048575A1 (en) * 2016-09-07 2018-03-15 Elekta, Inc. System and method for learning models of radiotherapy treatment plans to predict radiotherapy dose distributions
US20180144510A1 (en) * 2016-11-21 2018-05-24 Elekta Limited Systems and methods for real-time imaging
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法

Also Published As

Publication number Publication date
US11342066B2 (en) 2022-05-24
US20210057083A1 (en) 2021-02-25
AU2019378019B2 (en) 2023-03-09
WO2020102544A1 (en) 2020-05-22
AU2019378019A1 (en) 2021-07-01
CN113039578A (zh) 2021-06-25
US20200160972A1 (en) 2020-05-21
US10803987B2 (en) 2020-10-13
EP3881284A1 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
US11342066B2 (en) Real-time motion monitoring using deep neural network
US11547874B2 (en) Machine learning approach to real-time patient motion monitoring
US11491348B2 (en) Real-time patient motion monitoring using a magnetic resonance linear accelerator (MRLINAC)
US10791958B2 (en) Magnetic resonance projection imaging
JP6761128B2 (ja) 合成医療画像を生成するためのニューラルネットワーク
US20230126640A1 (en) Real-time motion monitoring using deep learning
CN117377516A (zh) 用于放疗治疗的实时解剖定位监测
US20220347493A1 (en) Real-time anatomic position monitoring in radiotherapy using machine learning regression
US20230377724A1 (en) Temporal prediction in anatomic position monitoring using artificial intelligence modeling
CN114728166A (zh) 使用mr linac的心脏消融
WO2022232749A1 (en) Real-time anatomic position monitoring for radiotherapy treatment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214