JP6960509B2 - 合成医療画像を生成するためのニューラルネットワーク - Google Patents

合成医療画像を生成するためのニューラルネットワーク Download PDF

Info

Publication number
JP6960509B2
JP6960509B2 JP2020147991A JP2020147991A JP6960509B2 JP 6960509 B2 JP6960509 B2 JP 6960509B2 JP 2020147991 A JP2020147991 A JP 2020147991A JP 2020147991 A JP2020147991 A JP 2020147991A JP 6960509 B2 JP6960509 B2 JP 6960509B2
Authority
JP
Japan
Prior art keywords
image
images
composite
imaging data
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020147991A
Other languages
English (en)
Other versions
JP2021003564A (ja
Inventor
シャオ ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elekta Inc
Original Assignee
Elekta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elekta Inc filed Critical Elekta Inc
Publication of JP2021003564A publication Critical patent/JP2021003564A/ja
Application granted granted Critical
Publication of JP6960509B2 publication Critical patent/JP6960509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1039Treatment planning systems using functional images, e.g. PET or MRI
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/4812MR combined with X-ray or computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/481MR combined with positron emission tomography [PET] or single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/4814MR combined with ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Pulmonology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
[01]
本出願は、2016年9月6日に出願された米国仮特許出願第62/384,171号および2016年10月14日に出願された米国仮特許出願第62/408,676号からの優先権の利益を主張し、これらのその開示全体が参照により本明細書に組み込まれる。
(技術分野)
[02]
本開示は、一般に、放射線療法で使用するための機械学習アルゴリズムを使用して合成画像を生成することに関する。より具体的には、本開示は、ニューラルネットワークを使用して磁気共鳴画像(MRI)画像からコンピュータ断層撮影(CT)画像を生成するためのシステムおよび方法に関する。
[03]
CT画像は伝統的に外部放射線治療の計画処理における画像データの主な情報源として使用されてきた。CT画像は患者の幾何学形状の正確な表現を提供し、CT値は放射線量計算のために電子密度に直接変換することができる。しかしながら、従来のCT画像はイメージング放射線源の使用を通じて生成されるので、CTを使用することは追加の放射線量を患者に曝す可能性がある。近年、放射線治療計画処理においてCT画像をMRI画像に置き換えることへの関心が浮上している。これは、MRIが電離放射線を含まず、より正確な標的および構造の描写のために優れた軟組織コントラストを提供するという事実によるものである。MRIはまた、組織代謝および機能性のような人体の機能的情報も捕獲する。しかしながら、MRI強度値は電子密度に直接関連しておらず、従来のMRIシーケンスは骨からMRI信号を得ることができない。したがって、疑似または合成CT画像(本明細書では「合成CT画像」と呼ぶ)のような「疑似CT画像」または「合成画像」を取得されたMRI画像から導出することができれば有益である。
[04]
MRI画像から導出された合成CT画像は、放射線療法治療計画における患者線量計算を容易にするため、または画像誘導のためのデジタル再構成放射線写真を生成するために使用することができる。合成CT画像はまた、放射線療法中の患者の位置決めにも使用することができる。したがって、患者がCT画像から生じる追加の放射線被曝から免れるために、MRI画像データを使用して合成CT画像を正確に生成することが望ましい。合成CT画像は、正確に、CTスキャナによって取得される「本物の」CT画像のようであることが望ましい。すなわち、合成CT画像は、例えば、相対ボクセル強度値およびコントラスト特徴に関して、実際のCT画像にできるだけ近いものであるべきである。CT画像強度値(CT数)とMRI強度値との間に直接的な数学的関係が存在しないため、正確な合成CT画像を生成することは簡単な作業ではない。
[05]
自動の合成CT画像生成のための既存の方法は、組織分類ベースのアプローチ、アトラスベースのアプローチ、モデルベースのアプローチという大きく3つのカテゴリに分類することができる。組織分類または組織セグメンテーションの方法は、最初にMRI画像を異なる組織タイプ(例えば、空気、脂肪、軟組織、または骨)の領域に分類し、次いで嵩密度割り当てを使用して各組織タイプに異なるCT数を割り当てる。自動組織セグメンテーションは、特に伝統的なMRI画像を使用する場合は難しい問題である。例えば、骨と空気は伝統的なMRI画像では分離できないまたは識別できません。従って、より正確な組織セグメンテーションのために、より精巧なMRIシーケンス(例えば、より高い解像度の画像を取得することができるMRI画像)がしばしば必要とされる。組織の細分化が可能であっても、解剖学的構造をいくつかの組織タイプにセグメンテーションすることは、実際の解剖学的構造の非常に粗い近似しか提供しない。例えば、前立腺と膀胱はどちらも軟部組織であるが、それらのCT強度は通常異なる。
[06]
アトラスベースのアプローチは、登録ベースのアプローチとしても知られている。合成CT生成の文脈では、「アトラス」という用語は、しばしば、対になったアトラスMRIとCT画像を含むデータセットを指し示す。一例では、MRI画像とCT画像とのペアリングは、画像レジストレーションによって実行することができる。所与の原MRI画像から合成CT画像を生成するために、アトラスベースの方法は、まず画像レジストレーション変換(通常は、単純な線形レジストレーションの代わりに、変形可能または非線形画像レジストレーションが必要である)を計算することによって各アトラスMRI画像を「アトラス」から原MRI画像に位置合わせする次いで、計算されたレジストレーション変換を適用して対応するアトラスCT画像を原MRI画像にマッピングし、変形アトラスCTを生成することができる。変形アトラスCT画像は、実際のCT画像(例えば、合成CT画像)の推定値を提供する。
[07]
通常、より良い精度を達成するために、複数の変形アトラスCTが計算され、そして平均化などによって、複数の変形アトラスCTが組み合わされて、原MRI画像に対応する最終の合成CT画像が生成され得る。しかしながら、大部分の既存の画像位置合わせ方法は単一チャンネルのMRI画像しか扱えない。また、多数のアトラスを使用すると、原MRI画像を各アトラスMRI画像に位置合わせしなければならないので、計算時間が長くなる可能性がある。これらの技術は全ての(アトラス選択−全部よりも少ない画像を使用できる)アトラスMRI画像およびアトラスCT画像を含む画像レジストレーション操作に対して全体のアトラスデータベースへの連続的なアクセスを必要とするので、処理が遅い。一例では、アトラス選択は、すべてのアトラスMRI画像およびアトラスCT画像のサブセットを選択するために使用することができる。
[08]
モデルベースまたは学習ベースのアプローチは、利用可能なトレーニングデータから予測モデルを構築することを目的としている。いちど予測モデルがトレーニングされると、対応するCT画像を予測するために同じタイプのいずれかの新たなMRI画像(例えば、トレーニングデータを取得するために使用されたものと同じであるMRIシーケンスを用いて取得した任意の新たなMRI画像)に適用することができる。トレーニング処理は通常、教師あり学習アルゴリズムを使用する。具体的には、教師あり学習アルゴリズムは、既知の入力データセットとそのデータに対する既知の応答または出力を使用してから、モデルを学習させて新しいデータに対する応答の合理的な予測を生成します。合成CT予測については、応答変数(例えばCT値)が実数であるため(分類の代わりに)回帰モデルが必要とされる。既存のモデルベースのアプローチおよび伝統的な学習アルゴリズムは、また、モデルへの入力として使用するためにある種の「特徴」の抽出を必要とする。既存の方法は、各方法がその回帰モデルへの入力として使用することができる特徴の種類が異なる。これらの既存の方法はまた手動で設計された機能を必要とする。さらに、既存の方法は単一ボクセルのCT数を予測する。したがって、これらの方法は、スライディングウィンドウ方式で適用されたり(例えば、一連の画像のサブ領域にモデルを適用することより)、ボクセルバイボクセル方式で適用されたりして、完全な合成CT画像を生成しなければならない。そのようなスライディングウィンドウ手法は、完全な合成CT画像を生成するためにしばしばかなりの計算時間およびリソースを必要とする。
[09]
したがって、MRI画像のような他の画像から合成CT画像を生成するために人工知能技術を使用する新しいシステムおよび方法が必要とされている。
[010]
一態様において、本開示は、第1の撮像モダリティを用いた撮像装置により取得された解剖学的部分の原画像に基づいて、解剖学的部分の合成画像を生成するためのコンピュータ実施方法を特徴とする。この方法は、第1の撮像モダリティを用いた撮像装置により取得された解剖学的部分の起源の画像を受信し、原画像に基づいて合成画像を予測するためにトレーニングされた畳み込みニューラルネットワークモデルを受信することを含むことができる。この方法は、また、少なくとも1つのプロセッサによって、畳み込みニューラルネットワークモデルを介して原画像を合成画像に変換することを含むことができる。この合成画像は、解剖学的部分の第2の撮像モダリティの描写に似ている可能性があり、第2の撮像モダリティは、第1の撮像モダリティとは異なり得る。第1の撮像モダリティは磁気共鳴画像法であり、そして第2の撮像モダリティはコンピュータ断層撮影法であり得る。第1の撮像モダリティおよび第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、および単一光子放出コンピュータ断層撮影の群から選択される。この方法は、また、第1の撮像モダリティを使用して取得された複数のトレーニング原画像を受信すること、第2の撮像モダリティを使用して取得された複数のトレーニングデスティネーション画像を受信することを含むことができ、各トレーニングデスティネーション画像はトレーニング原画像に対応し、畳み込みニューラルネットワークアーキテクチャを決定し、トレーニング原画像および対応するトレーニングデスティネーション画像を使用して畳み込みニューラルネットワークモデルをトレーニングすることができる。原画像は二次元画像であり得、合成画像は二次元画像であり得る。原画像は二次元画像のスタックを含むことができ、合成画像は二次元画像の対応するスタックを含むことができる。原画像は三次元ボリュームであり得、合成画像は三次元ボリュームとあり得る。原画像は三次元画像とすることができ、合成画像を生成することは、三次元画像から隣接する二次元画像の複数のスタックを選択することと、隣接する二次元画像の各スタックを畳み込みニューラルネットワークモデルを用いて合成二次元画像のスタックに変換することと、少なくとも1つのプロセッサによって、合成二次元画像のスタックを集約することにより合成画像を決定することとを含むことができる。原画像は三次元画像とすることができ、合成画像を生成することは、三次元画像の第1の面から二次元画像の第1のスタックを生成し、三次元画像の第2の面から二次元画像の第2のスタックを生成することと、二次元画像の第1のスタックおよび第2のスタックを畳み込みニューラルネットワークモデルを用いて合成二次元画像の第1のスタックおよび第2のスタックに変換することと、合成二次元画像の第1のスタックおよび第2にスタックを集約することにより合成画像を決定することとを含むことができる。隣接する二次元画像は、同一平面内にあり、その平面に直交する軸内に依存構造情報を担持することができる。隣接する二次元画像の複数のスタックは部分的に重なり合うことができ、合成二次元画像のスタックを集約することは、重なり合う合成二次元画像を平均することを含む。二次元画像の第1のスタックを合成二次元画像の第1のスタックを変換するには、第1の畳み込みニューラルネットワークモデルを使用することができ、二次元画像の第2のスタックを合成二次元画像の第2のスタックに変換するには、第1の畳み込みニューラルネットワークモデルを使用することができる。第1の畳み込みニューラルネットワークモデルと第2の畳み込みニューラルネットワークモデルは、2つの異なる解剖学的平面に対応させることができる。原画像は、異なる取得設定を使用する、または撮像素子の異なる取得チャンネルを使用して、解剖学的部分の多チャネル画像を含むことができる。多チャンネル画像には、T1強調磁気共鳴画像およびT2強調磁気共鳴画像を含むことができる。畳み込みニューラルネットワークモデルは、原画像の特徴マップを決定するように構成された第1の構成要素と、特徴マップから合成画像を決定するように構成された第2の構成要素とを含むことができる。第1の構成要素は複数の符号化層を含むことができ、第2の構成要素は複数の復号化層を含むことができる。第1の構成要素は、ダウンサンプリングを介して特徴マップのサイズを縮小するように構成することができ、第2の構成要素は、アップサンプリングを介して特徴マップのサイズを拡大するように構成することができる。畳み込みニューラルネットワークは複数の畳み込み層を含むことができ、モデルパラメータのセットは複数の畳み込み層によって使用される学習可能なフィルタ重みを含むことができる。畳み込みニューラルネットワークは10から500層を含むことができる。畳み込みニューラルネットワークモデルは、畳み込みニューラルネットワークモデルを用いてトレーニング原画像を合成画像に変換し、合成画像と対応するトレーニングデスティネーション画像との間の差を決定し、その差に基づいて畳み込みニューラルネットワークのモデルパラメータのセットを更新することを含むことができる。合成画像とデスティネーション画像との差が所定の閾値よりも小さいときにトレーニングを完了する。この差は、合成画像とデスティネーション画像に基づいて算出された損失関数によって測定することができる。
[011]
一態様では、本開示は、第1の撮像モダリティを使用して撮像装置によって取得された解剖学的部分の原画像に基づいて解剖学的部分の合成画像を生成するためのシステムを特徴とする。このシステムは、第1の撮像モダリティを使用して撮像装置によって取得された解剖学的部分の原画像を受け取り、その原画像に基づいて合成画像を予測するようにトレーニングされた畳み込みニューラルネットワークモデルを受け取るように構成される入力インターフェースを含むことができる。このシステムは、また、原画像と畳み込みニューラルネットワークモデルを記憶するように構成された少なくとも1つの記憶装置を含むことができる。このシステムは、また、畳み込みニューラルネットワークモデルを介して原画像を合成画像に変換するように構成された画像プロセッサを含むことができる。合成画像(例えば、擬似CT画像)は少なくとも1つの記憶装置に記憶することができる。合成画像は、解剖学的部分の第2の撮像モダリティ描写に似せることでき、第2の撮像モダリティ(例えばCT)は第1の撮像モダリティとは異なり得る。原画像は、異なる取得設定を用いて、または撮像装置の異なる取得チャネルを用いて取得された解剖学的部分のマルチチャネル画像を含むことができる。第1の撮像モダリティは磁気共鳴画像法であり、第2の撮像モダリティはコンピュータ断層撮影法であり得る。第1の撮像モダリティおよび第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、および単一光子放出コンピュータ断層撮影の群の中から選択することができる。入力インターフェースは、さらに、第1の撮像モダリティを使用して取得された複数のトレーニング原画像を受け取り、第2の撮像モダリティを使用して取得された複数のトレーニングデスティネーション画像を受け取るように構成することができる。画像プロセッサは、さらに、トレーニング原画像および対応するトレーニングデスティネーション画像を使用して畳み込みニューラルネットワークモデルをトレーニングするように構成することができる。原画像は二次元画像であり得、合成画像は二次元画像であり得る。原画像は二次元画像のスタックを含むことができ、合成画像は二次元画像の対応するスタックを含むことができる。原画像は三次元ボリュームであり得、合成画像は三次元ボリュームであり得る。原画像は三次元画像であることができ、画像プロセッサを、さらに、三次元画像から隣接する二次元画像の複数のスタックを選択し、隣接する二次元画像の各スタックを畳み込みニューラルネットワークモデルを用いて合成二次元のスタックに変換し、合成二次元画像のスタックを集約することによって合成画像を決定するように構成することができる。隣接する二次元画像は同一平面内にあってもよく、その平面に直交する軸内に依存構造情報を担持してもよい。隣接する二次元画像の複数のスタックは部分的に重なり合うことができ、合成二次元画像のスタックを集約することは、重なり合う合成二次元画像を平均することを含むことができる。原画像は三次元画像であることができ、画像プロセッサを、さらに、三次元画像の第1の面から二次元画像の第1のスタックを生成し、三次元画像の第2の面から二次元画像の第2のスタックを生成し、二次元画像の第1にスタックと第2のスタックを畳み込みニューラルネットワークモデルを用いて合成二次元画像の第1のスタックと第2のスタックを変換し、合成二次元画像の第1のスタックおよび第2のスタックを集約することによって合成画像を決定するように構成することができる。画像プロセッサを、第1の畳み込みニューラルネットワークモデルを用いて二次元画像の第1のスタックを合成二次元画像の第1のスタックに変換し、第2の畳み込みニューラルネットワークモデルを用いて二次元画像の第2のスタックを合成二次元画像の第2のスタックに変換するように構成することができ、第1の畳み込みニューラルネットワークモデルおよび第2の畳み込みニューラルネットワークモデルは、2つの異なる解剖学的平面に対応させることができる。原画像は、撮像装置の異なる取得チャネルを使用して取得された解剖学的部分のマルチチャネル画像を含むことができる。マルチチャネル画像は、T1強調磁気共鳴画像およびT2強調磁気共鳴画像を含むことができる。畳み込みニューラルネットワークモデルは、原画像の特徴マップを決定するように構成された第1の構成要素と、特徴マップから合成画像を決定するように構成された第2の構成要素とを含むことができる。第1の構成要素は複数の符号化層を含むことができ、第2の構成要素は複数の復号化層を含むことができる。第1の構成要素は、ダウンサンプリングを介して特徴マップのサイズを縮小するように構成することができ、第2の構成要素は、アップサンプリングを介して特徴マップのサイズを拡大するように構成することができる。畳み込みニューラルネットワークは複数の畳み込み層を含むことができ、モデルパラメータのセットは複数の畳み込み層によって使用される学習可能なフィルタ重みを含むことができる。畳み込みニューラルネットワークは10から500層を含むことができる。画像プロセッサを、さらに、畳み込みニューラルネットワークモデルを使用してトレーニング原画像を合成画像に変換し、合成画像と対応するトレーニングデスティネーション画像との間の差を決定し、その差に基づいてモデルパラメータのセットを更新するように構成することができる。この差は、合成画像と対応するトレーニングデスティネーション画像とに基づいて計算された損失関数によって測定することができる。
[012]
一態様において、本開示は、少なくとも1つのプロセッサによって実行されると、第1の撮像モダリティを使用して撮像装置によって取得された解剖学的部分の原画像に基づいて解剖学的部分の合成画像を生成する方法を少なくとも1つのプロセッサに実行させるような命令を含む非一時的なコンピュータ可読媒体を特徴とすることができる。この方法は、第1の撮像モダリティを用いた撮像装置により取得された解剖学的部分の起源の画像を受信し、原画像に基づいて合成画像を予測するためにトレーニングされた畳み込みニューラルネットワークモデルを受信することを含むことができます。この方法は、また、畳み込みニューラルネットワークモデルを介して原画像を合成画像に変換することを含むことができる。合成画像は、解剖学的部分の第2の撮像モダリティ描写に似ており、第2の撮像モダリティ(例えば、CT)は第1の撮像モダリティとは異なる。この方法は、また、第1の撮像モダリティを使用して取得された複数のトレーニング原画像を受信すること、第2の撮像モダリティを使用して取得された、各トレーニング原画像に対応する複数のトレーニングデスティネーション画像を受信すること、畳み込みニューラルネットワークを決定すること、トレーニング原画像および対応するトレーニングデスティネーション画像を用いて畳み込みニューラルネットワークモデルをトレーニングすることを含むことができる。原画像は三次元画像とすることができ、合成画像を生成することは、さらに、三次元画像から隣接した二次元画像の複数のスタックを選択することと、隣接する二次元画像の各スタックを畳み込みニューラルネットワークモデルを用いて合成二次元画像のスタックに変換することと、少なくとも1つのプロセッサにより、合成二次元画像のスタックを集約することによって合成画像を決定することとを含むことをできる。隣接する二次元画像の複数のスタックは部分的に重なり合うことができ、合成二次元画像のスタックを集約することは、重なり合う合成二次元画像を平均することを含むことができる。原画像は三次元画像とすることができ、合成画像を生成することは、三次元画像の第1の平面から二次元画像の第1のスタックを生成し、三次元画像の第2に平面から二次元画像の第2のスタックを生成することと、二次元画像の第1のスタックと第2のスタックを畳み込みニューラルネットワークモデルを用いて合成二次元画像の第1のスタックと第2のスタックに変換することと、合成二次元画像の第1のスタックと第2のスタックを集約することにより合成画像を決定することを含むことができる。二次元画像の第1のスタックを合成二次元画像スタックの第1のスタックに変換することは、第1の畳み込みニューラルネットワークモデルを使用することを含むことができ、二次元画像を第2のスタックを変換することは、第2の畳み込みニューラルネットワークモデルを使用することを含むことができる。第1の畳み込みニューラルネットワークモデルおよび第2の畳み込みニューラルネットワークモデルは、2つの異なる解剖学的平面に対応することができる。原画像は、撮像装置の異なる取得チャネルを使用して取得された解剖学的部分のマルチチャネル画像を含むことができる。マルチチャネル画像は、T1強調磁気共鳴画像およびT2強調磁気共鳴画像を含むことができる。畳み込みニューラルネットワークモデルは、原画像の特徴マップを決定するように構成された第1の構成要素と、特徴マップから合成画像を決定するように構成された第2の構成要素とを含むことができる。第1の構成要素は複数の符号化層を含むことができ、第2の構成要素は複数の復号化層を含むことができる。第1の構成要素は、ダウンサンプリングを介して特徴マップのサイズを縮小するように構成することができ、第2の構成要素は、アップサンプリングを介して特徴マップのサイズを拡大するように構成することができる。畳み込みニューラルネットワークは複数の畳み込み層を含むことができ、モデルパラメータのセットは複数の畳み込み層によって使用される学習可能なフィルタ重みを含むことができる。畳み込みニューラルネットワークは、10−500層を含むことができる。畳み込みニューラルネットワークモデルのモデルパラメータのセットをトレーニングすることは、トレーニングされた原画像を畳み込みニューラルネットワークモデルを使用して合成画像に変換することと、合成画像と対応するトレーニングデスティネーション画像との差を決定することと、その差に基づいてモデルパラメータのセットを更新することを含むことができる。この差は、合成画像と対応するトレーニングデスティネーション画像に基づいて算出した損失関数によって測定することができる。
[013]
一態様において、本開示は、第1の撮像モダリティを使用して撮像装置によって取得された解剖学的部分の原画像に基づいて解剖学的部分の合成画像を予測するための畳み込みニューラルネットワークモデルを生成するためのコンピュータ実施方法を特徴とする。この方法は、第1の撮像モダリティを用いて取得された複数のトレーニング原画像を受け取ることを含むことができる。この方法は、また、第2の撮像モダリティを使用して取得された、トレーニング原画像に対応する複数のトレーニングデスティネーション画像を受信することを含むことができる。この方法は、また、トレーニング原画像および対応するトレーニングデスティネーション画像を使用して、少なくとも1つのプロセッサにより、畳み込みニューラルネットワークモデルの1組のモデルパラメータをトレーニングすることを含むことができる。第1の撮像モダリティは磁気共鳴イメージングであり得、第2の撮像モダリティはコンピュータ断層撮影であり得る。第1の撮像モダリティおよび第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、単光子放出コンピュータ断層撮影の群の中から選択することができる。トレーニング原画像は、撮像装置の異なる収集チャンネルを使用して取得された解剖学的部分の多チャネル画像を含むことができる。マルチチャンネル画像はT1強調磁気共鳴画像とT2強調磁気共鳴画像を含めることができる。畳み込みニューラルネットワークモデルは、原画像の特徴マップを決定するように構成された第1の構成要素と、特徴マップから合成画像を決定するように構成された第2の構成要素とを含むことができる。第1の構成要素は複数の符号化層を含むことができ、第2の構成要素は複数の復号化層を含むことができる。第1の構成要素はダウンサンプリングして特徴マップのサイズを低減するように構成することができ、第2の構成要素はアップサンプリングを介して特徴マップのサイズを大きくするように構成することができる。畳み込みニューラルネットワークは、複数の畳み込み層を含むことができ、モデルパラメータのセットは、複数の畳み込み層により使用される学習可能なフィルタ重みを含むことができる。ニューラルネットワークは10−500層を含むことができる。畳み込みニューラルネットワークモデルのモデルパラメータをトレーニングすることは、トレーニング原画像を畳み込みニューラルネットワークモデルを用いて合成画像に変換することと、合成画像と対応するトレーニングデスティネーション画像との間の差を決定することと、この差に基づいてモデルパラメータのセットを更新することとを含むことができる。この差は、合成画像と対応するトレーニングデスティネーション画像に基づいて算出した損失関数によって測定することができる。
[014]
本実施形態の目的および利点は、部分的に以下の詳細な説明に記載され、そして部分的にその説明から明らかになり、または本実施形態の実施によって習得されることができる。前述の一般的な説明および以下の詳細な説明は共に例示的かつ説明的なものにすぎず、特許請求の範囲を限定するものではないことを理解されたい。
[015]
本明細書で使用されるように、用語「含む」、「含む」、またはそれらの任意の他の変形は、構成要素のリストを含むプロセス、方法、物品、または装置がそれらの構成要素のみを含むものではなく、明示的に列挙されていない、またはそのようなプロセス、方法、物品、または装置に固有な他の要素を含み得るような、非排他的な包含をカバーすることを意図している。
[016]
本明細書に組み込まれ、その一部を構成する添付の図面は、開示された実施形態を例示し、その説明と共に、開示された原理を説明するのに役立つ。
[017]
図1Aは、本開示のいくつかの実施形態による例示的な放射線治療システムを示す図である。
[018]
図1Bは、治療ビームを提供するように構成された放射線療法の出力を含むことができる例示的な放射線治療システムを示す図である。
[019]
図1Cは、コンピュータ断層撮影(CT)撮像システムのような結合された放射線治療システム及び撮像システムを含む例示的なシステムを示す図である。
[020]
図1Dは、核磁気共鳴(MR)撮像システムのような結合された放射線治療システム及び撮像システムを含む例示的なシステムの一部破断図を示す図である。
[021]
図2は、放射線療法ビームを整形し、導き、またはその強度を変調するための例示的なマルチリーフコリメータ構成の直交図を示す図である。
[022]
図3は、例示的なガンマナイフ放射線治療システムを示す図である。
[023]
図4Aおよび図4Bは、例示的なMRI画像と対応するCT画像との違いを示す図である。 図4Aおよび図4Bは、例示的なMRI画像と対応するCT画像との違いを示す図である。
[024]
図4Cは、取得したMRI画像から生成された例示的な合成CT画像を示す図である。
[025]
図5は、本開示のいくつかの実施形態による、例示的な画像変換システムを示す図である。
[026]
図6は、本開示のいくつかの実施形態による、例示的な画像前処理プロセスを示す図である。
[027]
図7Aは、本開示のいくつかの実施形態による、図5に示された予測モデルの例示的な畳み込み層のオペレーションを示す図である。
[028]
図7Bは、本開示のいくつかの実施形態による、図5に示された予測モデルの畳み込み層の例示的なスタックのオペレーションを示す図である。
[029]
図7Cは、本開示のいくつかの実施形態による、図5に示された予測モデルの例示的な最大プーリング層およびアンプーリング層のオペレーションを示す図である。
[030]
図7Dおよび図7Eは、本開示のいくつかの実施形態による、図5に示された画像変換システムにより用いられる、例示的な畳み込みニューラルネットワークを示す図である。 図7Dおよび図7Eは、本開示のいくつかの実施形態による、図5に示された画像変換システムにより用いられる、例示的な畳み込みニューラルネットワークを示す図である。
[031]
図7Fは、本開示のいくつかの実施形態による、図7Dおよび図7Eに示されたニューラルネットワークの選択された層によって生成される例示的な特徴マップを示す図である。
[032]
図8は、本開示のいくつかの実施形態による、CNNモデルをトレーニングするための例示的なトレーニング処理を示すフローチャートである。
[033]
図9Aは、本開示のいくつかの実施形態による、図8の処理を経て獲得されたトレーニングされたCNNモデルを用いた、例示的な画像変換処理を示すフローチャートである。
[034]
図9Bは、本開示のいくつかの実施形態による、図8の処理を経て獲得された少なくとも1つのトレーニングされたCNNモデルを用いた、例示的な画像変換処理を示すフローチャートである。
[001]
次に、添付の図面を参照しながら例示的な実施形態を詳細に参照する。可能な限り、同じまたは類似の部分を指すために、図面全体を通して同じ参照番号が使用される。図において、参照番号の左端の数字は、その参照番号が最初に現れる図を識別する。都合がよければどこでも、同じまたは同様の部分を指すために図面全体を通して同じ参照番号を使用する。開示された原理の例および特徴が本明細書に記載されているが、開示された実施形態の範囲から逸脱することなく、修正、適合、および他の実装が可能である。また、「含む」、「有する」、「含む」、「含む」という用語および他の同様の形態は、意味において等価であること、および以下の項目のうちのいずれか1つに続く項目においてオープンエンドとして解釈されることを意図し、これらの用語は、そのような構成要素の網羅的なリストであることを意味するのではなく、あるいはリストされた構成要素だけに限定されることを意味するのでもない。そして、単数形「a」、「an」、「the」は、文脈が明らかにそうでないことを指示しない限り、複数の言及を含むことを意図している。「例示的」という用語は、「理想的」というよりはむしろ「例」という意味で使用されている。
[035]
開示された実施形態は、伝達学習の原理を利用して、画像分類のためにトレーニングされた既存のニューラルネットワークのパラメータを使用して畳み込みニューラルネットワークを初期化するために限られたデータを使用する。開示された実施形態は、線形でも変形可能でも対象間の画像位置合わせを必要としない点で有利であり、MRI画像と対応するCT画像との間のマッピングを直接学習することができる。開示された実施形態は、パッチ精密化および融合を使用するアトラスベースの方法よりも優れた精度を有利に提供することができる。これは、文献で提案されている他のアトラスまたはパッチベースの方法でも一般的であるように、アトラスベースの方法は通常、類似のアトラス候補を見つけるためにパッチ比較に依存しているためである。小さなローカルパッチでは画像情報が制限される。したがって、特徴としてパッチの生の画像強度を使用することは、データにおける大きな冗長性を被り、識別力を低下させる可能性がある。これに対し、開示された実施形態は、フル画像から異なる縮尺および複雑さレベルで画像特徴の階層を自動的に学習することができる点で有利である。
[036]
開示された実施形態と一致する1つまたは複数の方法が18人の患者に対して試験され、その結果は、既存のファジィC平均法、登録にアトラスを使用する方法、ガウス混合回帰モデルを使用した方法、アトラス登録とそれに続くパッチ融合の方法を使用して得られた結果のような、文献に報告されている他の結果と比較して優れている。精度を向上させることに加えて、開示された実施形態は、またより短い計算時間ですむという結果をもたらす。たとえば、モデルのトレーニング(たとえば、ディープコンボリューションニューラルネットワーク(DCNN))に数日かかる場合でも、トレーニングは1回だけで済み、トレーニング処理の高速化は、複数のGPU、クラウドコンピュータ、またはスーパーコンピュータにより可能となる。トレーニングされたモデルを適用して新しい患者のための合成画像を作成することは、単一のGPUでほんの数秒で行うことができる。これに対し、既存のモデルベースまたはアトラスベースの方法では、はるかに長い時間(例えば、数分または数時間)がかかる。
[037]
開示された実施形態は、また、大量のトレーニングデータ(数100対の原画像とデスティネーション画像)を収容することができる。ニューラルネットワークは、モデル容量が大きいため、大量のデータから大きな恩恵を受けることができる。したがって、開示された実施形態の精度は、追加のトレーニングデータが利用可能になるにつれて向上する可能性がある。トレーニングデータの量を増やすと、トレーニング時間が長くなる可能性があるが、最終的なニューラルネットワークのサイズと合成画像の生成時間は同じままとなる。これに対し、既存のアトラスベースの方法または(既存のガウスプロセスモデルのような)他のモデルベースの方法を使用してトレーニングデータを増やすことは実用的ではない。さらに、これらの方法の計算時間は、しばしば使用されるアトラスの数に正比例する。さらに、アトラスベースのメソッドの精度はすぐに飽和する可能性があり、その結果、多数のアトラスを使用するときに精度の低下を避けるために、しばしばアトラスを選択する手順が必要になる。しかしながら、増加したトレーニングデータの使用はトレーニングされたニューラルネットワークモデルによって生成された最終合成画像の精度を改善することができる。
[038]
[039]
図1Aは、患者に放射線療法を提供するための例示的な放射線療法システム10を示す図である。放射線治療システム10は、画像処理装置12を含む。画像処理装置12はネットワーク20に接続されている。ネットワーク20はインターネット22に接続されている。ネットワーク20は、画像処理装置12を、データベース24、病院データベース26、腫瘍学情報システム(OIS)28、放射線治療装置30、画像取得装置32、表示装置34、表示装置34、およびユーザインターフェース36のうちの1つまたは複数と接続することができる。画像処理装置12は、放射線療法装置30によって使用される放射線療法治療計画16を生成するように構成されている。
[040]
画像処理装置12は、メモリ装置16、プロセッサ14、および通信インターフェース18を含むことができる。メモリ装置16は、オペレーティングシステム43、放射線療法治療計画42(例えば、オリジナル治療計画、適応治療計画など)、ソフトウェアプログラム44(例えば、人工知能、深層学習、ニューラルネットワーク、放射線治療計画ソフトウェア)のようなコンピュータ実行可能命令や、プロセッサ14によって実行されるべき他の任意のコンピュータ実行可能命令を含むことができる。一実施形態では、ソフトウェアプログラム44は、擬似CT画像などの合成画像を生成することによって、あるフォーマット(例えば、MRI)の医用画像を別のフォーマット(例えば、CT)に変換することができる。例えば、ソフトウェアプログラム44は、あるモダリティ(例えば、MRI画像)の内側画像46を異なるモダリティの合成画像(例えば、擬似CT画像)に変換するための予測モデルをトレーニングするための画像処理プログラムを含むことができ、あるいは、トレーニングされた予測モデルはCT画像をMRI画像に変換することができる。メモリ装置16は、医用画像46、患者データ45、および放射線療法治療計画42を作成し実施するのに必要な他のデータを含むデータを記憶することができる。
[041]
ソフトウェアプログラム44を記憶しているメモリ16に加えて、ソフトウェアプログラム44は、ハードドライブ、コンピュータディスク、CD−ROM、DVD、HD、ブルーレイDVD、USBフラッシュドライブ、SDカード、メモリースティック、またはその他の適切な媒体のような、取り外し可能なコンピュータ媒体に記憶することができ、ソフトウェアプログラム44は、画像処理装置14にダウンロードされると、画像プロセッサ14によって実行することができる。
[042]
プロセッサ14はメモリ装置16に通信可能に結合されてもよく、プロセッサ14はそこに格納されたコンピュータ実行可能命令を実行するように構成されてもよい。プロセッサ14は、医用画像46をメモリ16に送信または受信することができる。例えば、プロセッサ14は、通信インターフェース18およびネットワーク18を介して画像取得装置32から医用画像46を受信して、メモリ16に格納することができる。プロセッサ14は、また、メモリ16に格納された医用画像46を、通信インターフェース18を介してネットワーク20に送信し、データベース24または病院データベース26に格納することができる。
[043]
さらに、プロセッサ14は、放射線療法治療計画42を作成するために、医用画像46および患者データ45と共にソフトウェアプログラム44(例えば治療計画ソフトウェア)を利用することができる。医用画像46は、患者の解剖学的領域、臓器、または関心セグメンテーションデータのボリュームに関連する撮像データなどの情報を含むことができる。患者データ45は、(1)機能的臓器モデル化データ(例えば、直列対並列臓器、適切な用量反応モデルなど)、(2)放射線量データ(例えば、線量−体積ヒストグラム(DVH)情報)、または(3)患者および治療経過(例えば、他の手術、化学療法、以前の放射線療法など)に関する他の臨床情報のような情報を含むことができる。
[044]
さらに、プロセッサ14はソフトウェアプログラムを利用して、例えばニューラルネットワークモデルによって使用される更新されたパラメータなどの中間データを生成する、または、次にメモリ16に格納する中間の2Dまたは3D画像を生成する次に、プロセッサ14は、実行可能な放射線療法治療計画42を、通信インターフェース18を介してネットワーク20に放射線療法装置30に送信することができ、そこで放射線療法計画は患者を放射線で治療するために使用される。さらに、プロセッサ14は、ソフトウェアプログラム44を実行して、画像変換、画像セグメンテーション、ディープラーニング、ニューラルネットワーク、および人工知能などの機能を実施することができる。例えば、プロセッサ14は、医用画像をトレーニングまたは輪郭を描くソフトウェアプログラム44を実行することができ、そのようなソフトウェア44は、実行されると、境界検出器をトレーニングし、形状辞書を利用することができる。
[045]
プロセッサ14は、マイクロプロセッサ、中央処理装置(CPU)、グラフィック処理装置(GPU)、加速処理装置(APU)などのような1つまたは複数の汎用処理装置を含む処理装置とすることができる。より具体的には、プロセッサ14は、複合命令セット計算(CISC)マイクロプロセッサ、縮小命令セット計算(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、他の命令セットを実装するプロセッサ、または命令セットの組み合わせを実装するプロセッサとすることができる。プロセッサ14は、また、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、システムオンチップ(SoC)などのような1つまたは複数の専用処理装置によって実装されることができる。当業者には理解されるように、いくつかの実施形態では、プロセッサ14は、汎用プロセッサではなく、専用プロセッサであってもよい。プロセッサ14は、Intel(登録商標)によって製造されたPentium(登録商標)、Core(登録商標)、Xeon(登録商標)、またはItanium(登録商標)ファミリー、AMD(登録商標)によって製造されたTurion(登録商標)、Athlon(登録商標)、Sempron(登録商標)、Opteron(登録商標)、FX(登録商標)、Phenom(登録商標)ファミリーのマイクロプロセッサ、またはSun Microsytems(登録商標)によって製造された様々なプロセッサのような、1つまたは複数の既知の処理装置を含むことができる。プロセッサ14は、また、Nvidia(登録商標)によって製造されたGeForce(登録商標)、Quadro(登録商標)、Tesla(登録商標)ファミリー、Intel(登録商標)によって製造されたIris(登録商標)ファミリー、またはAMD(登録商標)によって製造されたRadeon(登録商標)ファミリーのGPUのような、グラフィック処理ユニットを含むことができる。プロセッサ14は、また、AMD(登録商標)によって製造されたDesktop A−4(6,8)シリーズ、Intel(登録商標)によって製造されたXeon Phi(登録商標)ファミリーのような、加速処理装置を含むことができる。開示された実施形態は、いかなるタイプのプロセッサにも限定されるものではなく、本明細書に開示された方法を実行するために大量のデータを識別、分析、維持、生成、および/または提供する、あるいはそのようなデータを操作するという計算要求を満たすように構成されている。さらに、「プロセッサ」という用語は、複数のプロセッサ、例えばマルチコア設計またはそれぞれがマルチコア設計を有する複数のプロセッサを含むことができる。プロセッサ14は、メモリ16に格納された一連のコンピュータプログラム命令を実行して、以下でさらに詳細に説明する様々な動作、プロセス、方法を実行することができる。
[046]
メモリ装置16は医用画像46を記憶することができる。いくつかの実施形態では、医用画像46は、1つまたは複数のMRI画像(例えば、2DMRI、3DMRI、2DストリーミングMRI、4DMRI、4D体積測定MRI、4DシネMRIなど)、機能的MRI画像(例えば、fMRI、DCE−MRI、拡散MRI)、コンピュータ断層撮影(CT)画像(例えば、2DCT、コーンビームCT、3DCT、4DCT)、超音波画像(例えば、2D超音波、3D超音波、4D超音波)、陽電子放出断層撮影(PET)画像、X線画像、X線透視画像、放射線治療ポータル画像、単一光放出コンピュータ断層撮影(SPECT)画像、コンピュータ生成合成画像(例えば、擬似CT画像)などを含むことができる。さらに、医用画像46はまた、例えばトレーニング画像、グラウンドトゥルース画像、輪郭画像のような、医用画像データを含むことができる。一実施形態では、医用画像46は画像取得装置32から受信する。したがって、画像取得装置32は、患者の医用画像を取得するためのMRI撮像装置、CT撮像装置、PET撮像装置、超音波撮像装置、蛍光透視装置、SPECT撮像装置、一体型線形加速器、MRI撮像装置、または他の医用撮像装置を含むことができる。医用画像46は、開示された実施形態と一致する動作を実行するために画像処理装置12が使用することができる任意の種類のデータまたは任意の種類のフォーマットで受信および格納することができる。メモリ装置12は、読み出し専用メモリ(ROM)、相変化ランダムアクセスメモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、シンクロナスDRAM(SDRAM)、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM)のようなダイナミックランダムアクセスメモリ(DRAM)、スタティックメモリ(例えば、フラッシュメモリ、フラッシュディスク、スタティックランダムアクセスメモリ)、他のタイプのランダムアクセスメモリ、キャッシュ、レジスタ、コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)または他の光学記憶装置、カセットテープ、他の磁気記憶装置、または、画像、データ、または、プロセッサ14または他の任意のタイプのコンピュータ装置によってアクセスされることが可能な(例えば、任意のフォーマットで格納されている)コンピュータ実行可能命令のような、非一時的コンピュータ可読媒体とすることができる。コンピュータプログラム命令は、プロセッサ14によってアクセスされ、ROM、または任意の他の適切なメモリ位置から読み出され、プロセッサ14による実行のためにRAMにロードされ得る。例えば、メモリ16は1つまたは複数のソフトウェアアプリケーションを記憶することができる。メモリ16に格納されたソフトウェアアプリケーションは、例えば、一般的なコンピュータシステム用のソフトウェア制御装置用のオペレーティングシステム43を含むことができる。さらに、メモリ16は、プロセッサ14によって実行可能なソフトウェアアプリケーション全体、またはソフトウェアアプリケーションの一部のみを記憶することができる。例えば、記憶装置16は1つ以上の放射線療法治療計画42を記憶することができる。
[047]
画像処理装置12は、プロセッサ14およびメモリ16に通信可能に結合されている通信インターフェース18を介してネットワーク20と通信することができる。通信インターフェース18は、画像処理装置12と放射線治療システム10の構成要素との間の通信接続を提供する(例えば、外部装置とのデータ交換を可能にする)。例えば、いくつかの実施形態では、通信インターフェース18は、ユーザインターフェース36に接続するための適切なインターフェース回路を有し、ユーザインターフェース36は、それを通してユーザが放射線治療システム10に情報を入力することができるハードウェアキーボード、キーパッド、またはタッチスクリーンとすることができる。
[048]
通信インターフェース18は、例えば、ネットワークアダプタ、ケーブルコネクタ、シリアルコネクタ、USBコネクタ、パラレルコネクタ、高速データ伝送アダプター(例えば、ファイバ、USB3.0、サンダーボルトなど)、無線通信アダプター(例えば、WiFiアダプターなど)、電気通信アダプタ(例えば、3G、4G/LTEなど)などを含むことができる。通信インターフェース18は、画像処理装置12がネットワーク20を介して遠隔に配置された構成要素などの他の機械および装置と通信することを可能にする1つまたは複数のデジタルおよび/またはアナログ通信装置を含むことができる。
[049]
ネットワーク20は、ローカルエリアネットワーク(LAN)、無線ネットワーク、クラウドコンピューティング環境(例えば、サービスとしてのソフトウェア、サービスとしてのプラットフォーム、サービスとしてのインフラストラクチャなど)、クライアントサーバ、ワイドエリアネットワーク(WAN)などの機能を提供することができる。例えば、ネットワーク20は、他のシステムS1(38)、S2(40)、およびS3(41)を含むことができるLANまたはWANであり得る。システムS1、S2、およびS3は、画像処理装置12と同一でもよく、または異なるシステムでもよい。いくつかの実施形態では、ネットワーク20内の1つまたは複数のシステムは、本明細書に記載の実施形態を協調的に実行する分散コンピューティング/シミュレーション環境を形成することができる。いくつかの実施形態では、1つまたは複数のシステムS1、S2、およびS3は、CT画像(例えば、医用画像46)を取得するCTスキャナを含むことができる。さらに、ネットワーク20をインターネット22に接続して、インターネット上に遠隔に存在するサーバおよびクライアントと通信することができる。
[050]
したがって、ネットワーク20は、画像処理装置12と、OIS28、放射線治療装置30、および画像取得装置32のような、他のさまざまなシステムおよび装置との間のデータ伝送を可能にすることができる。さらに、OIS28および/または画像取得装置32によって生成されたデータは、メモリ16、データベース24、および/または病院データベース26に格納することができる。データは、必要に応じてプロセッサ14によってアクセスされるために、通信インターフェース18を介してネットワーク20を介して送信/受信される。
[051]
画像処理装置12は、ネットワーク20を介してデータベース24と通信し、データベース24に格納されている複数の様々な種類のデータを送受信することができる。例えば、データベース24は、放射線療法装置30、画像取得装置32、または放射線療法に関連する他の機械に関する情報である機械データを含むことができる。機械データ情報は、放射ビームサイズ、アーク配置、ビームオンオフ時間、制御点、セグメント、マルチリーフコリメータ(MLC)構成、ガントリ速度、MRIパルスシーケンスなどを含み得る。データベース24は記憶装置とすることができる。当業者であれば、データベース24が集中方式または分散方式で配置された複数の装置を含むことができることを理解するであろう。
[052]
いくつかの実施形態では、データベース24はプロセッサ可読記憶媒体(図示せず)を含むことができる。一実施形態におけるプロセッサ可読記憶媒体は単一の媒体とすることができるが、「プロセッサ可読記憶媒体」という用語は、コンピュータ実行可能命令またはデータの1つまたは複数の組を記憶する単一の媒体または複数の媒体(例えば、集中型または分散型データベース、および/または関連キャッシュおよびサーバ)を含むと解釈されるべきである。「プロセッサ可読記憶媒体」という用語は、プロセッサによる実行のために一組の命令を記憶または符号化することができ、プロセッサに本開示の方法論のうちの任意の1つまたは複数を実行させる任意の媒体も含むものとする。したがって、「プロセッサ可読記憶媒体」という用語は、それだけに限らないが、固体メモリ、光および磁気媒体を含むものと解釈されるべきである。例えば、プロセッサ可読記憶媒体は、1つまたは複数の揮発性、非一時的、または不揮発性有形のコンピュータ可読媒体とすることができる。
[053]
画像プロセッサ14は、データベース24と通信して、画像をメモリ16に読み込むか、または画像をメモリ16からデータベース24に格納することができる。例えば、データベース24は、データベース24が画像取得装置32から受信した複数の画像(例えば、3DMRI、4DMRI、2DMRIスライス画像、CT画像、2D透視画像、X線画像、MRスキャンまたはCTスキャンからの生データ、医学におけるデジタル画像処理および通信(DIMCOM)データなど)を格納するように構成されることができる。データベース24は、ソフトウェアプログラム44を実行するとき、または放射線療法治療計画42を作成するときに、画像プロセッサ14によって使用されるデータを格納することができる。画像処理装置12は、データベース24、放射線治療装置30(例えば、MRI−Linac)および/または画像取得装置32のいずれかから撮像データ46(例えば、2DMRIスライス画像、CT画像、2D透視画像、X線画像、3DMRI画像、4DMRI画像など)(例えば、2DMRIスライス画像、CT画像、2D透視画像、X線画像、3DMRI画像、4DMRI画像など)を受信して治療計画42を生成することができる。
[054]
一実施形態では、放射線治療システム100は、患者の医用画像(例えば、磁気共鳴画像(MRI)画像、3DMRI、2DストリーミングMRI、4D体積測定MRI、コンピュータ断層撮影(CT)画像、コーンビームCT、陽電子放出断層撮影(PET)画像、機能的MRI画像(例えば、fMRI、 DCE ? MRIおよび拡散MRI)、X線画像、蛍光透視画像、超音波画像、放射線治療ポータル画像、単一光放出コンピュータ断層撮影(SPECT)画像など)を取得することができる画像取得装置32を含むことができる。画像取得装置32は、例えば、MRI撮像装置、CT撮像装置、PET撮像装置、超音波装置、蛍光透視装置、SPECT撮像装置、または患者の医療画像の1つまたは複数を取得するための任意の他の適切な医用撮像装置であり得る。撮像取得装置32によって取得された画像は、撮像データおよび/または試験データとしてデータベース24内に格納することができる。一例として、撮像取得装置32によって取得された画像は、医用画像データ46として画像処理装置12によってメモリ16に格納することもできる。
[055]
一実施形態では、例えば、画像取得装置32は、単一の装置(例えば、「MRI−Linac」とも呼ばれる線形加速器と組み合わせたMRI装置)として放射線治療装置30と一体化することができる。このようなMRI−Linacは、例えば、放射線治療計画42に従って放射線治療を所定の標的に正確に向けるように、患者の標的器官または標的腫瘍の位置を決定するために使用することができる。
[056]
画像取得装置32は、関心領域(例えば、標的器官、標的腫瘍、またはその両方)についての患者の解剖学的構造の1つまたは複数の画像を取得するように構成することができる。各画像、典型的には2D画像またはスライスは、1つまたは複数のパラメータ(例えば、2Dスライスの厚さ、向き、および位置など)を含むことができる。一例では、画像取得装置32は、任意の向きで2Dスライスを取得することができる。例えば、2Dスライスの配向は、矢状配向、冠状配向、または軸配向を含み得る。プロセッサ14は、標的臓器および/または標的腫瘍を含むように、2Dスライスの厚さおよび/または向きなどの1つまたは複数のパラメータを調整することができる。一例では、2Dスライスは3DMRIボリュームなどの情報から決定することができる。このような2Dスライスは、例えば放射線治療装置30を使用しているときに患者が放射線治療を受けている間に「リアルタイム」で画像取得装置32によって取得することができる。「リアルタイム」とは、少なくともミリ秒以下でデータを取得することを意味する。
[057]
画像処理装置12は、一人以上の患者に対する放射線療法治療計画42を生成して記憶することができる。放射線療法治療計画42は、各患者に適用されるべき特定の放射線量についての情報を提供することができる。放射線療法治療計画42は、また、ビーム角度、線量−ヒストグラム−容積情報、治療中に使用される放射線ビームの数、ビーム当たりの線量のような他の放射線療法情報を含むことができる。
[058]
画像プロセッサ14は、スウェーデン、ストックホルムのElektaAB社によって製造されているMonaco(登録商標)のような治療計画ソフトウェアなどのソフトウェアプログラム44を使用することによって、放射線療法治療計画42を生成することができる。放射線療法治療計画42を生成するために、画像プロセッサ14は、画像取得装置32(例えば、CT装置、MRI装置、PET装置、X線装置、超音波装置など)と通信して患者の画像にアクセスし、腫瘍などの標的を描写することができる。いくつかの実施形態では、腫瘍周囲のまたは腫瘍に近接した健康な組織など、危険にさらされている1つまたは複数の臓器(OAR)の描写が必要とされる。したがって、OARのセグメント化は、OARが標的腫瘍に近いときに実行される。さらに、標的腫瘍がOARに近い場合(例えば、膀胱および直腸に近接した前立腺)、次いで腫瘍からOARをセグメント化することによって、治療計画装置110は標的内だけでなくOAR内の線量分布をよく調べるようにする。
[059]
標的臓器または標的腫瘍をOARから描写するために、放射線治療を受けている患者の医用画像(例えば、MRI画像、CT画像、PET画像、fMRI画像、X線画像、超音波画像、放射線治療ポータル画像、SPECT画像)は、身体部分の内部構造を明らかにするために画像取得デバイス32によって非侵襲的に取得されてもよい。医用画像からの情報に基づいて、関連する解剖学的部分の三次元構造を得ることができる。加えて、治療計画プロセスの間、標的腫瘍の効率的な治療とOARの低照射(例えば、OARができるだけ低い放射線量を受ける)との間のバランスを達成するために(例えば、標的腫瘍が有効な治療のために十分な放射線量を受けるように)、多くのパラメータが考慮され得る。考慮され得る他のパラメータは、標的器官および標的腫瘍の位置、OARの位置、ならびにOARに対する標的の移動を含む。例えば、3D構造は、MRIまたはCT画像の各2D層またはスライス内でターゲットを輪郭付けするかまたはOARを輪郭付けし、各2D層またはスライスの輪郭を組み合わせることによって得ることができる。輪郭は、手動で(例えば、医師、線量測定者、または医療従事者により)または自動的に(例えば、スウェーデン、ストックホルムのElektaAB社によって製造されたアトラスベースの自動セグメンテーションソフトウェア、ABAS(登録商標)などのプログラムを用いて)生成されることができる。特定の実施形態において、標的腫瘍またはOARの3D構造は、治療計画ソフトウェアによって自動的に生成されることができる。
[060]
標的腫瘍が発見され、描写された後、線量測定者、医師、または医療従事者は、腫瘍(例えば、左右の耳下腺、視神経、眼、水晶体、内耳、脊髄、脳幹など)に近接するOARが受ける可能性のある任意の最大線量と同様に、標的腫瘍に適用される放射線量を決定することができる。各解剖学的構造(例えば、標的腫瘍、OAR)について放射線量が決定された後、所望の放射線量分布を達成するであろう1つ以上の治療計画パラメータを決定するために逆計画として知られるプロセスが実行されることができる。治療計画パラメータの例には、容積描写パラメータ(例えば、目標体積、輪郭に敏感な構造などを定義するもの)、標的腫瘍およびOARの周囲のマージン、ビーム角度選択、コリメータ設定、ならびにビームオン時間が含まれる。逆計画処理の間に、医師は、OARがどれだけの量の放射線を受けることができるかについての限界を設定する線量制約パラメータを定義する(例えば、腫瘍標的に対する全用量および任意のOARに対するゼロ用量を定義する;標的腫瘍に対する線量の95%を定義する;脊髄、脳幹、および光学構造がそれぞれ≦45Gy、≦55Gy、および<54Gyを受けることを定義する)ことができる。逆計画の結果は、メモリ16またはデータベース24に格納する放射線療法治療計画42を構成することができる。これらの治療パラメータのいくつかは相関している可能性がある。例えば、治療計画を変更する試みにおいて1つのパラメータ(例えば、標的腫瘍への線量を増加させるような異なる目的に対する重み付け)を調整することは、少なくとも1つの他のパラメータに影響を及ぼし得、それは次に異なる治療計画の開発をもたらし得る。したがって、画像処理装置12は、放射線療法装置30が患者に放射線療法治療を提供するために、これらのパラメータを有する調整された放射線療法治療計画42を生成することができる。
[061]
さらに、放射線治療システム10は、表示装置34とユーザインターフェース36とを含むことができる。表示装置34は、医用画像、インターフェース情報、治療計画パラメータ(例えば、輪郭、線量、ビーム角など)、治療計画、目標、目標の位置特定および/または目標の追跡、またはユーザに関連する情報を表示する1つまたは複数の表示画面を含むことができる。ユーザインターフェース36は、キーボード、キーパッド、タッチスクリーン、またはユーザが放射線治療システム10に情報を入力することができる任意の種類の装置とすることができる。あるいは、表示装置34およびユーザインターフェース36は、タブレットコンピュータ、例えばアップル(登録商標)iPad(登録商標)、レノボシンクパッド(登録商標)、サムスンギャラクシー(登録商標)のような装置に統合されてもよい。
[062]
さらに、放射線治療システム10の任意のおよびすべての構成要素は、仮想マシン(例えば、VMWare、Hyper−Vなど)として実装され得る。たとえば、仮想マシンはハードウェアとして機能するソフトウェアとすることができる。したがって、仮想マシンは、少なくとも1つ以上の仮想プロセッサ、1つ以上の仮想メモリ、および一緒になってハードウェアとして機能する1つ以上の仮想通信インターフェースを含むことができる。例えば、画像処理装置12、OIS28、画像取得装置32は仮想マシンとして実施することができる。利用可能な処理能力、メモリ、および計算能力が与えられれば、放射線治療システム10全体を仮想マシンとして実施することができる。
[063]
図1Bは、X線源または線形加速器のような放射線源、マルチリーフコリメータ(図示せず)、治療台116、撮像検出器114、および放射線療法出力104を含むことができる例示的な放射線治療装置102を示す。放射線治療装置102は、患者に治療を提供するために放射線ビーム108を放射するように構成されてもよい。放射線治療出力104は、以下の図2の例示的な例に示されているように、マルチリーフコリメータ(MLC)などの1つまたは複数の減衰器またはコリメータを含むことができる。
[064]
図1Bに戻ると、患者は、放射線療法治療計画に従って放射線療法線量を受けるためにテーブルまたは治療台116を使用して領域112に配置される。放射線療法出力104は、ガントリ106または他の機械的支持体に搭載されるか、取り付けることができる。治療台116が治療領域に挿入されると、1つまたは複数のシャーシモータ(図示せず)が治療台116の周りで架台106および放射線治療出力104を回転させることができる。一実施形態では、ガントリ106は、治療台116が治療領域に挿入されたときに治療台116の周りを連続的に回転可能である。別の実施形態では、治療台116が治療領域に挿入されると、ガントリ106は所定の位置まで回転することができる。例えば、ガントリ106は、治療出力104を軸(「A」)の周りで回転させるように構成することができる。治療台116および放射線療法出力104の両方は、横方向(「T」)への移動可能、横方向(「L」)への移動可能、または、横軸回りの回転のような1つまたは複数の軸を中心とする回転(「R」で示す)のような、患者の周囲の他の位置に独立して移動可能である。1つまたは複数のアクチュエータ(図示せず)に通信可能に接続されたコントローラは、放射線療法治療計画に従って患者を放射線ビーム108の位置に出入りさせるために、治療台116の移動または回転を制御することができる。治療台116とガントリ106の両方が互いに独立して多自由度で移動可能であるため、放射線ビーム108が正確に腫瘍を標的とすることができるように患者を位置決めすることが可能になる。
[065]
図1Bに示された(A軸、T軸、L軸を含む)座標系は、アイソセンタ110に位置する原点を有する。アイソセンタは、例えば、患者上または患者内の位置に所定の放射線量を送達するために、放射線治療ビーム108が座標軸の原点と交差する位置として定義することができる。例えば、アイソセンタ110は、軸線Aの周りにガントリ106によって位置決めされるような放射線治療出力104の様々な回転位置に対して放射線治療ビーム108が患者と交差する場所として定義することができる。
[066]
ガントリ106は、また、取り付けられた撮像検出器114を有してもよい。イメージング検出器114は、好ましくは、放射線源104の反対側に位置し、一例では、イメージング検出器114は、治療ビーム108のフィールド内に配置することができる。
[067]
イメージング検出器114は、治療ビーム108との位置合わせを維持するためなどに、好ましくは放射線治療出力104の反対側でガントリ106に取り付けることができる。ガントリ106が回転すると、撮像検出器114は回転軸を中心に回転する。一実施形態では、イメージング検出器114はフラットパネル検出器(例えば直接検出器またはシンチレータ検出器)とすることができる。このようにして、イメージング検出器114を使用して治療ビーム108を監視することができ、またはイメージング検出器114をポータルイメージングなどの患者の解剖学的構造をイメージングするために使用することができる。放射線治療装置102の制御回路は、システム100内に統合されていてもよく、システム100から離れていてもよく、図1Aに示す画像処理装置12により機能的に表されている。
[068]
例示的な例では、治療台116、治療用出力部104、またはガントリ106のうちの1つまたは複数を自動的に位置決めすることができ、治療用出力部104は特定の治療実施例の指定線量に従って治療ビーム108を確立することができる。一連の治療送達は、ガントリ106、治療台116、または治療出力104の1つまたは複数の異なる向きまたは位置を使用するような放射線療法治療計画に従って指定することができる。治療送達は連続して起こり得るが、アイソセンタ110のように、患者上または患者内の所望の治療場所で交差し得る。それにより、治療部位の近くの組織への損傷を低減または回避しながら、処方された累積線量の放射線療法を治療部位に送達することができる。
[069]
図1Cは、線形加速器と、コンピュータ断層撮影(CT)撮像システムのような撮像システムとを組み合わせることを含み得る例示的な放射線治療装置102を示す。CT撮像システムは、キロ電子ボルト(keV)エネルギー範囲のX線エネルギーを提供するような撮像X線源118を含むことができる。撮像用X線源118は、フラットパネル検出器などの撮像用検出器122に向けられる扇形および/または円錐形のビーム120を提供する。放射線治療システム102は、図1Bに関連して説明された、放射線治療出力104、ガントリ106、プラットフォーム116、および別のフラットパネル検出器114を含むようなシステム102と同様とすることができる。X線源118は、撮像のために比較的低エネルギーのX線診断ビームを供給することができる。
[070]
図1Cの例示的な例では、放射線治療出力部104およびX線源118は、互いに90度回転方向に離れて同じ回転ガントリ106に取り付けることができる。別の例では、2つ以上のX線源をガントリ106の円周に沿って取り付けることができ、例えばそれぞれが独自の検出器配置を有して複数の角度の診断撮像を同時に提供することができる。同様に、複数の放射線治療出力104を提供することができる。
[071]
図1Dは、放射線治療装置と開示された実施形態と一致する核磁気共鳴(MR)撮像システム(例えば、MR−Linacとして当技術分野で知られている)のような撮像システムとの組み合わせることを含むことができる。図示するように、システム300は、治療台210、画像取得装置140、および放射線送達装置130を含むことができる。システム300は、放射線療法治療計画に従って患者に放射線療法を施す。いくつかの実施形態では、画像取得装置140は、第1のモダリティの原画像(例えば、図4Aに示されたMRI画像)または第2のモダリティのデスティネーション画像(例えば、図4Bに示されたCT画像)を取得する図1Aにおける画像取得装置32に対応している。
[072]
治療台210は、治療セッション中に患者(図示せず)を支持することができる。いくつかの実装形態では、治療台210が、治療台210上に横たわっている患者をシステム300の内外に移動させることができるように、水平の並進軸(「I」とラベル付けされている)に沿って移動することができる。治療台210は、また、並進軸を横切る中心垂直回転軸を中心に回転してもよい。そのような移動または回転を可能にするために、治療台210は、治療台を様々な方向に動かし、様々な軸に沿って回転させることを可能にするモータ(図示せず)を有することができる。コントローラ(図示せず)は、適切に治療計画に従って患者を位置決めするために、これらの移動または回転を制御することができます。
[073]
いくつかの実施形態では、画像取得装置140は、治療セッションの前、最中、および/または後に患者の2Dまたは3DのMRI画像を取得するために使用されるMRI装置を含むことができる。画像取得装置140は、磁気共鳴撮像用の一次磁場を発生させるための磁石146を含むことができる。磁石146の動作によって発生した磁力線は、中心並進軸Iと実質的に平行に延びることができる。磁石146は、並進軸Iと平行に延びる軸を有する1つ以上のコイルを含むことができる。いくつかの実施形態では、磁石146内の1つまたは複数のコイルは、磁石146の中央窓147がコイルを含まないように離間されてもよい。他の実施形態では、磁石146内のコイルは、それらが放射線治療装置130によって生成された波長の放射線に対して実質的に透明であるように十分に薄いか、または密度が低くてもよい。画像取得装置140はまた、磁石146の外側の磁場を打ち消すかまたは減少させるために、ほぼ等しい大きさおよび反対の極性の磁石146の外側の磁場を生成することができる1つまたは複数の遮蔽コイルを含むことができる。以下に説明するように、放射線治療装置130の放射線源134は、磁界が少なくとも一次的に相殺される、または、低減される領域に配置することができる。
[074]
画像取得装置140は、また、2つの勾配磁場コイル148および149を含むことができ、これらは一次磁場に重ね合わされる勾配磁場を発生させることができる。勾配磁場コイル148および149は、プロトンの位置を決定することができるようにプロトンの空間符号化を可能にする勾配を合成磁場内に発生させることができる。勾配磁場コイル148および149は、磁石146と共通の中心軸の周りに配置されてもよく、その中心軸に沿って変位されてもよい。変位は、勾配磁場コイル148と149との間にギャップまたは窓を作り出すことがある。磁石146がコイル間に中央窓147も含む実施形態では、2つの窓は互いに整列していてもよい。
[075]
いくつかの実施形態では、画像取得装置140は、X線、CT、CBCT、スパイラルCT、PET、SPECT、光断層撮影法、蛍光撮像、超音波撮像、放射線治療ポータル撮像装置などのようなMRI以外の撮像装置であってもよい。当業者によって認識されるように、画像取得装置140の上記説明は特定の実施形態に関するものであり、限定することを意図するものではない。
[076]
放射線治療装置130は、X線源または線形加速器などの放射線源134、およびマルチリーフコリメータ(MLC)132(以下の図2に示す)を含むことができる。放射線治療装置130はシャーシ138上に取り付けることができる。治療台210が治療領域に挿入されると、1つまたは複数のシャーシモータ(図示せず)が治療台210の周りでシャーシ138を回転させることができる。一実施形態では、治療台210が治療領域に挿入されると、シャーシ138は治療台210の周りを連続的に回転可能であり得る。シャーシ138は、また、好ましくは放射線源134の反対側に配置され、シャーシ138の回転軸が放射線源134と検出器との間に配置された状態で取り付けられた放射線検出器(図示せず)を有してもよい。さらに、放射線治療システム300は、例えば、治療台210、画像取得装置140、および放射線治療装置130のうちの1つまたは複数を制御するために使用される制御回路(図示せず)を含むことができる。放射線治療装置130の制御回路は、放射線治療システム300内に一体化されていてもよく、またはそれから離れていてもよい。
[077]
放射線療法治療セッション中、患者は治療台210上に配置される。次いで、システム300は、治療台210を磁気コイル146、148、149、およびシャーシ138によって画定された治療領域内に移動させる。次いで、制御回路は、放射線治療計画に従ってコイル148と149との間の窓を通して患者に放射線を送達するように放射線源134、MLC132、およびシャーシモータを制御する。
[078]
図1B、図1C、図1Dは、放射線治療出力が中心軸(例えば、軸「A」)を中心に回転させることができる構成を含む、患者への放射線治療を提供するように構成された放射線治療装置の例を示す。他の放射線治療出力構成を使用することができる。例えば、放射線治療出力は、多自由度を有するロボットアームまたはマニピュレータに取り付けることができる。さらに別の例では、治療出力は、患者から横方向に離れた領域に位置するように固定することができ、患者を支持するプラットフォームを使用して放射線治療アイソセンタを患者内の特定の標的部位と位置合わせすることができる。
[079]
上述したように、図1B、図1C、図1Dにより説明された放射線治療装置は、患者内の特定の標的部位への放射線療法ビームの強度を整形、方向付け、または変調するためのマルチリーフコリメータを含む。図2は、腫瘍140の断面または投影に近似する開口を画定するように自動的に位置決めすることができるリーフ132Aから132Jを含む例示的なマルチリーフコリメータ(MLC)132を示す。リーフ132Aから132Jは放射線治療ビームの変調を可能にする。リーフ132Aから132Jは、放射線治療計画に従って、開口部以外の領域で放射線ビームを減衰または遮断するように指定された材料で作ることができる。例えば、リーフ132Aから132Jは、板の長軸が(図1Bの平面図に示すような)ビーム方向と平行に向けられ、端部がビーム方向と直角に向けられた、例えば、タングステンを含む金属板を含むことができる。MLC132の「状態」は、腫瘍140または他の標的部位の形状または位置により良く近似する治療ビームを確立するように、放射線療法治療の過程中に適応的に調整することができる。これは、静的コリメータ構成を使用することと、または「オフライン」治療計画技法を使用して排他的に決定されたMLC132の構成を使用することとを比較することである。腫瘍または腫瘍内の特定の領域への特定の放射線量分布を生成するためにMLC132を使用する放射線療法技術は、強度変調放射線療法(IMRT)と呼ぶことができる。
[080]
図3は、本開示のいくつかの実施形態による、別の種類の放射線治療装置130(例えば、Leksell Gamma Knife(登録商標))の例を示す。図3に示すように、放射線療法治療セッションにおいて、患者202は、手術または放射線療法を受けている患者の身体部分(例えば、頭部)を安定に保つために、座標枠220を着用することができる。座標フレーム220および患者位置決めシステム222は空間座標系を確立することができ、それは患者を撮像している間または放射線手術中に使用することができる。放射線治療装置130は、複数の放射線源212を封入するための保護ハウジング214を含むことができる。放射源212は、ビームチャネル216を介して複数の放射ビーム(例えばビームレット)を生成することができる。複数の放射ビームは、異なる方向からアイソセンタ218に集束するように構成することができる。個々の放射線ビームは比較的低い強度を有するが、異なる放射線ビームからの複数の線量がアイソセンタ218に蓄積すると、アイソセンタ218は比較的高いレベルの放射線を受け取ることができる。特定の実施形態では、アイソセンタ218は、腫瘍のような、外科手術または治療中の標的に対応することができる。
[081]
図4Aおよび図4Bは、どの画像取得装置32が利用されているかに基づいて、異なる画像診断様式を使用して取得された例示的な画像間の違いを示す。例えば、異なる画像様式は患者組織を異なるように特徴付ける。結果として、異なる撮像モダリティを使用して同じ基礎となる対象から取得された画像は、画像特性において互いに類似しないことが多い。例えば、図4Aは、画像を取得するためにMRI装置を使用して取得された患者の頭部の二次元(2D画像を示し、図4Bは、CT装置を使用して取得された同じ対象物の対応する2D画像を示す。図4Aおよび図4Bに示すように、2つの画像は同じ対象を表し、それらは顕著に異なる画像特性を提示する。例えば、図4Aにおいて、頭蓋骨および硝子体は、MRI画像によって示されるように、ほぼ同一の強度値を有する。しかしながら、これに対し、図4Bは、CT画像によって示される頭蓋骨の明るさ(例えば、白い輪郭)により示されるように、頭蓋骨および硝子体について非常に異なる強度値を示す。したがって、MRI画像とCT画像の強度値は大きく異なる可能性がある。
[082]
開示されるシステムおよび方法は、第1のモダリティを使用して取得された原画像(例えば、図4Aに示すようなMRI画像)から合成画像(例えば、疑似CT画像)を生成し、第2のモダリティを使用して取得されたデスティネーション画像(例えば、図4Bに示すようなCT画像)に似せることに関する。
[083]
参照する図4Cは、3つの異なる面からの患者の頭部のMR及びCT画像を比較し、エラーマップを提供する。例えば、図4Cの最上行は、3つの異なる解剖学的平面からMRIを使用して取得された3つの原画像を示す。第2行は、開示された画像変換システムおよび方法を使用して、最上行に示されたMRI画像に基づいて生成された合成CT画像を示す。第3行は、CTを使用して取得した同じ対象物の3つの平面画像を示す。第4行は、合成CT画像(第2行)と、取得したCT画像(第3行)との間の差を表すエラーマップを示す。第4行に示されるように、合成CT画像は、頭部領域のほとんどの部分について、取得されたCT画像内のCT値によく似たピクセル値を提供する。図4の例では、エラーマップは、エラー(例えば、合成CT画像内の対応するボクセルと対応する実CT画像との間の強度の差)が最小限(例えば、典型的なCT画像のノイズレベル内)であり、特に骨と空気の境界の周りの異なる組織タイプ間の境界面に限定されることを示している。
[084]
図5は、開示されている実施形態と一致する例示的な画像変換システム400を示す。いくつかの実施形態では、画像変換システム400は、画像取得装置140、画像データベース420、画像変換ユニット440、トレーニング画像412を格納するトレーニングデータベース410、トレーニングユニット430、およびネットワーク460を含む。イメージング変換システム400は、2つの機能:(a)トレーニング画像412を使用して予測モデルをトレーニングするトレーニングユニット430を提供すること;(b)合成画像を生成するためにトレーニングされた予測モデルを使用するように構成された画像変換ユニット440を提供すること、を実行することができる。一例では、画像取得装置140は、図1Aに示すように画像取得装置32に対応する。
[085]
開示されたシステムおよび方法は合成画像を生成するために予測モデルを使用する。上記の開示では、本明細書で使用される「合成画像」という用語は、一般に、あるモダリティで取得された画像(例えば、CT画像)を表すかまたはそれに類似する任意のコンピュータ生成画像データを指し示す一方、異なるモダリティを使用して撮像装置から取得された実際の画像データ(例えば、MRI画像)を指し示す。以下に説明されるように、そのような合成画像は、第1のモダリティ(例えば、MRI)を用いて取得された原画像から第2のモダリティ(例えば、CT)を用いて生成された画像に類似するように変換される。予測モデルは、組織分類、アトラスへの位置合わせ、または手作業で作成された特徴を必要とするモデルベースの方法を必要とせずに、画像の自動変換を可能とする利点がある。
[086]
いくつかの実施形態では、開示されているシステム、方法、デバイス、およびプロセスは、MRI画像のような別のモダリティを使用して取得された画像からの合成CT画像の生成に関する。いくつかの態様では、予測モデルは、畳み込みニューラルネットワーク(CNN)またはディープニューラルネットワークのタイプなどのニューラルネットワーク、および当技術分野で知られている他のタイプの人工知能であり得る。したがって、合成画像生成は2つのステージを含む。第1のステージでは、予測モデルは、トレーニング用MRI画像およびそれらの対応する実際のCT画像を含むトレーニング用データを使用して生成される(「トレーニングされる」または「学習される」としても知られている)。トレーニング処理は、予測モデルのパラメータまたは重み付けを学習するためにトレーニングデータを自動的に使用することができる。これらのパラメータまたは重み付けは、最適性基準に従って繰り返し学習することができる。第2のステージでは、合成CT画像(例えば、擬似CT画像とも呼ばれる)が予測モデルを使用してMRI画像から生成される。
[087]
「原画像」は、核磁気共鳴画像法(MRI)などの第1の撮像モダリティを使用して取得された画像を指す。「デスティネーション画像」は、コンピュータ断層撮影(CT)などの、第1のモダリティとは異なる第2のモダリティを使用して取得された画像を指す。
[088]
上述のように、「合成画像」は、1つまたは複数の「原画像」から生成された「デスティネーション画像」に似た画像を指す。いくつかの実施形態では、合成画像は擬似CT画像と呼ばれる。すなわち、合成画像はデスティネーション画像の特性を有する。例えば、1つまたは複数のMRI画像(「原画像」)から生成された合成CT画像(「合成画像」)は、CTスキャナによって取得される実際のCT画像(「デスティネーション画像」)の特徴を有する。本開示全体を通して、原画像がMRI画像であり、デスティネーション画像がCT画像であるとして、実施例が説明される。しかし、これは限定ではない。あるいは、例えば、原画像をCT画像とし、デスティネーション画像をMRI画像とすることができる。1つまたは複数のMRI画像から合成CT画像を生成することができる実施例では、典型的なCT撮像処理のように患者を電離放射線にさらすことなく、合成CT画像を放射線療法計画処理で使用することができる。
[089]
本明細書で使用されるとき、2つの画像の間の差が所定の閾値基準より小さいとき、画像は他の画像に「似ている」とされる。一実施例では、合成CT画像は、2つの画像間のボクセル毎の強度の差が20ハウンズフィールド単位未満であり、いくつかの実施例では、平均で100ハウンズフィールド単位未満である場合、対応するCT画像に「似ている」ということができる。例えば、この差は、2つの画像間のピクセル値の差を示すエラーマップとして決定される。この差は、2つの画像に基づいて計算された平均絶対誤差または平均二乗誤差などの損失関数によって測定することができる。しかしながら、本開示による合成画像(例えば、擬似CT画像)は、他の種類の画像閾値基準を使用してデスティネーション画像に似ていることが示される。さらに、本開示によるシステムおよび方法は、デスティネーション画像が原画像に類似するために必ずしもそのような所定のしきい値基準を適用する必要はない。言い換えれば、そして以下に説明されるように、本開示によるシステムおよび方法は、そのような所定の閾値基準を使用して、原画像とデスティネーション画像との間のある程度の類似性を潜在的に検証することができる。本開示によるシステムおよび方法は、所定の閾値基準を満たす合成画像(例えば、擬似CT画像を含む)を生成することができる。
[090]
トレーニングユニット430が予測モデルをトレーニングするために、トレーニング画像を利用することができる。開示された実施形態によれば、トレーニングデータベース410は、1組以上のトレーニング画像412を格納するように構成されてもよい。トレーニング画像の各セットは、第1の撮像モダリティを使用して取得された1つまたは複数の原画像(「原画像」)と、第2の撮像モダリティで取得された対応するデスティネーション画像(「デスティネーション画像s」)とを含む。1つまたは複数の原画像と対応するデスティネーション画像は、同じ対象物について取得され、この対象物の対応するビュー(例えば、実質的に同じ向きであるが異なるタイプの撮像モダリティを使用して撮影された同じ解剖学的部分の画像)を含み得る。以下に説明するように、原画像とデスティネーション画像は、2D画像または3D画像のいずれかでもよい。いくつかの実施形態において、データベース410は、患者に対する腫瘍治療計画を管理する腫瘍学情報システムの一部である。いくつかの態様では、データベース410は、以前に1つまたは複数の放射線治療セッション中に画像取得装置140により取得された画像を有する画像のデータベースからこれらの画像のセットを受信することができる。
[091]
画像データベース420は、第1の撮像モダリティを使用して取得された画像を格納することができる。いくつかの実施形態において、画像取得装置140は、画像データベース420に格納されている画像を取得する。画像データベース420に格納されている画像は、また、1つまたは複数の放射線療法治療セッション中に取得された画像に対応することができる。以下に説明されるように、画像は2D画像および/または3D画像であり得る。
[092]
いくつかの態様では、画像変換システム400はトレーニングステージを実行するように構成される。いくつかの実施形態では、訓練ユニット430は、訓練データベース410からの訓練データを使用して予測モデルを訓練するように構成されている。トレーニングユニット430は、当業者によって認識されるように、ハードウェアおよび/またはソフトウェアで実施される。トレーニングステージ中、トレーニングユニット430は、トレーニングデータベース410から受信したトレーニング原画像に基づいて推定合成画像を生成するように構成されている。トレーニングユニット430は、また、推定合成画像をトレーニングデスティネーション画像(例えばCT画像)と比較することによってエラーマップを生成し、次いで合成画像と実際のCT画像との間の差を識別する生成されたエラーマップに基づいて予測モデルのパラメータを調整することができる。トレーニングユニット430は、特定の停止基準が満たされるまで予測モデルのトレーニングを続けるように構成される(モデル予測と実際のCT画像との間の誤差をチェックし、トレーニングの反復回数に基づいて、または、モデル誤差が閾値よりも小さい場合には、トレーニングすることもできる)。一実施例では、停止反復基準は、トレーニング反復の数がしきい値を超えたときに満たすことができる(例えば、100を超えるトレーニングエポックがあった場合、ニューラルネットワークトレーニングでは、1エポックは、すべてのトレーニングデータを一度に通過するための反復の数に等しくなる)。一実施例では、2つの画像間のボクセル毎の強度差が閾値(例えば、20ハウンズフィールド単位)未満である場合、停止基準を満たすことができる。トレーニングユニット430は、トレーニングされた予測モデルを保存してもよく、これは後で画像変換ユニット440によって使用されてもよい。
[093]
別の態様では、画像変換システム400は変換ステージを実行するように構成することもできる。変換ステージの間、画像変換ユニット440は、トレーニングユニット430からトレーニング済み予測モデルを受け取るように構成される。いくつかの実施形態では、画像変換部440は、画像データベースから受信した原画像422から合成画像を生成するように構成される。画像変換部440は、当業者により認識されるように、ハードウェアおよび/またはソフトウェアで実現することができる。画像変換部440は、トレーニングされた予測モデルと受信した原画像422とを用いて合成画像を生成するように構成することができる。
[094]
いくつかの実施形態において、画像変換システム400は、ユーザインターフェース(例えば、タブレット、iPad(登録商標)、モバイル機器などをも含み得るコンピュータを備えたグラフィカルユーザインターフェース)によってアクセスされるべき合成画像を表示し、治療計画でさらに使用するために合成画像を画像データベース420に格納し、合成画像を治療計画ソフトウェア115に提供するように構成することができる。さらなる例として、画像変換システム400は、原画像および合成画像をトレーニングデータベース410に格納するように構成されてもよい。そのような記憶された画像はトレーニング画像412の一部になり得る。様々な態様では、原画像および合成画像の格納は、自動、半自動、または手動であり得る。画像変換ユニット440は、当業者によって認識されるように、ハードウェアおよび/またはソフトウェアで実現され得る。
[095]
図1に関連して説明したように、画像取得装置140は、(上述したように)MRI、機能的MRI(例えば、fMRI、DCE−MRI、拡散MRI)、CT、CBCT、スパイラルCT、PET、SPECT、X線、光断層撮影、蛍光イメージング、超音波イメージング、放射線療法ポータルイメージング、などを含む、1つまたは複数の撮像モダリティを用いて画像を取得するように構成されている。いくつかの実施形態では、画像取得装置140は、トレーニングデータベース410、画像データベース420、トレーニングユニット430、画像変換ユニット440に取得された画像を提供する。
[096]
ネットワーク460は、図4の構成要素間の通信を提供するように構成される。例えば、ネットワーク460は、通信を提供し、情報を交換し、および/または1つまたは複数の装置間の電子情報の交換を容易にする、任意の種類の(インフラストラクチャを含む)ネットワークとすることができる。これに関して、ネットワーク460は、有線接続(例えば、LANまたは他の有線接続)、無線接続(例えば、WiFi、Bluetooth(登録商標)、ZigBee、NFC、WiMAX、LETなど)、コンピュータバス、直列接続、並列接続、イーサネット(登録商標)接続、ローカルエリアネットワークまたはワイドエリアネットワーク、インターネット接続、衛星接続、またはクラウドコンピューティングサービスへの接続、または、画像変換システム400の構成要素が任意のフォーマットで任意の通信プロトコルの下で互いに情報を送受信することを可能とする、それら接続の任意の組み合わせを含むことができる。
[097]
図4は画像変換システム400の例示的構成のみを示すと考えられる。いくつかの実施形態では、追加の構成要素を追加することができ、および/または図示の構成要素を組み合わせ、分割し、修正し、または除去することができる。例えば、トレーニングステージは前もって実行されてもよく、他のシステムによって別々に実行されてもよい。したがって、画像変換システム400は、トレーニングデータベース410またはトレーニングユニット430を含まなくてもよい。さらに、いくつかの態様では、画像変換システム400の少なくとも1つの構成要素は、残りの構成要素から地理的に離れたところに配置されることができ、ネットワーク460を介して残りの構成要素と通信することができる。例えば、トレーニングユニット430およびトレーニングデータベース410を含むトレーニングステージを研究開発部門に配置することができ、一方、画像変換ユニットおよび原画像を含む変換ステージを放射線治療クリニック内に配置することができる。
[098]
さらに他の実施形態では、画像変換システム400の2つ以上の構成要素を単一の場所(例えば放射線治療室)に設置することができる。また、図4では画像変換システム400の様々な構成要素を別々のものとして示しているが、画像変換システム400はこれらの構成要素のうちのいくつかを単一の装置に実装することができる。例えば、データベース410およびトレーニングユニット430は、タブレット、ラップトップ、デスクトップ、ワークステーション、サーバ、または専用の画像変換装置などの単一の装置内に実装することができる。同様に、トレーニングユニット430および画像変換ユニット440は単一の装置内に実装することができる。
[099]
図6は、例示的な画像の前処理プロセス600を示す。プロセス600では、トレーニングステージの一部として、またはトレーニングステージによって行われる処理の前に、トレーニングユニット430によって実行され得る。プロセス600の特定の態様(例えば、原画像601を受信すること)は、また、変換ステージの一部としてまたはその前に、画像変換ユニット440によって実行され得る。ステップ610では、画像変換システム400は、第1の撮像モダリティを使用して取得された患者の原画像422を受け取る。開示された実施形態によれば、原画像422は画像取得装置140から受信してもよく、あるいは、画像変換システム400がトレーニングデータベース410からトレーニング画像412を受信してもよい。そして、画像変換システムは、正規化されるべき原画像を提供する。
[0100]
ステップ603では、トレーニングユニット430は原画像422を正規化する。この正規化処理は、予測モデルに提供される入力画像データを標準化することによって画像変換システム400の精度を向上させることができる。ステップ603では、トレーニングユニット430は、原画像422に対して様々な処理機能を実行して、標準化された整列、解像度、および/または強度値分布を有する正規化原画像を生成する。例えば、トレーニングユニット430は、画像内の対象物の向きを調整するように、取得された原画像422を標準CT画像と位置合わせすることができる。トレーニングユニット430は、また、正規化された原画像が基準解像度および/または基準視野を有するように原画像422をリサンプリングすることができる。例えば、原画像は、補間法を用いてアップサンプリングされてもよく、または平均化法または最大プーリング法を用いてダウンサンプリングされてもよい。一例では、対応するデスティネーション画像と同じ空間解像度を有する原画像を提供するなどのために、原画像をアップサンプリングまたはダウンサンプリングする。
[0101]
さらに、トレーニングユニット430は、標準化された強度値分布によりよく近似するように原画像422の強度値分布を補正することができる。例えば、原画像422がMRI画像(例えば、例示的画像611)である場合、トレーニングユニット430は、当技術分野で知られているN3バイアス場補正アルゴリズムを使用して原画像の強度の不均一性を補正することができる。当技術分野で知られているように、ジョイントヒストグラム登録、ランドマークまたはヒストグラムマッチング、または動的ヒストグラムワーピングのような他の補正アルゴリズムを適用することができる。ステップ603の最後で、正規化された原画像が作成されてステップ605に提供される。
[0102]
ステップ605では、トレーニングユニット230は、正規化された原画像からバイナリマスク(例えば、例示的画像615)を生成することができる。トレーニングユニット430は、正規化された原画像422の望ましくない部分(例えば、定位頭部フレームに対応する部分)を除去するためにバイナリマスクを使用するように構成することができる。トレーニングユニット430は、しきい値処理および空間フィルタリングを正規化された原画像に適用することによってバイナリマスクを生成することができる。トレーニングユニット430は、当業者に知られている方法に従って、原画像422の画像強度値のヒストグラムに基づいて閾値を自動的に決定することができる。例えば、トレーニングユニット430は、正規化された原画像の各強度値に適用または比較するための閾値を決定することができる。トレーニングユニット430は、正規化された原画像の各強度値を閾値と比較することができる。所定の閾値は、デフォルトの強度値であり得る。この比較を通して、トレーニングユニット430は、論理「1」または「0」の強度値を有するバイナリマスク画像を生成することができる。バイナリマスク画像内の強度値は、元の原画像の対応する強度値が閾値を満たすか超えるかに依存する。いくつかの実装形態では、トレーニングユニット430はまた、最終的なバイナリマスクを生成するために、既知の形態学的操作を使用してこの結果として生じるバイナリマスク画像を空間的にフィルタリングすることができる。
[0103]
トレーニング部430は、次に、原画像内の定位頭部フレームを除去するために生成されたバイナリマスクを使用することができる。例えば、バイナリマスク内の原画像の部分は、それらの元の強度値を維持することができる。バイナリマスクの外側のデスティネーション画像の他の部分は、その後、所定の強度値に設定することができる。
[0104]
ステップ607では、トレーニングユニット430は、他の撮像モダリティ(例えば、CT画像617)を使用して取得された同じ対象物のデスティネーション画像412を受信する。デスティネーション画像412は、トレーニングデータベース410から受け取ることができる。このデスティネーション画像412は、原画像61に示されている対象物に対応することができる。例えば、原画像61は、患者の解剖学的構造の特定の部分のMRI画像であり、デスティネーション画像412は、同じ解剖学的部分の対応するCT画像である。トレーニングユニット430は、画像取得装置140またはトレーニングデータベース410からデスティネーション画像412を受け取ることができる。例えば、デスティネーション画像412がCT画像である場合、デスティネーション画像412は、定位頭部フレームの部分(例えば、頭部フレームに対応する画像要素618Aおよび画像要素618B)を含んでいてもよい。通常、定位頭部フレームは、対応するMRI画像(例えば、原画像611)には示されていない。
[0105]
ステップ609では、トレーニングユニット430はデスティネーション画像412を正規化する。原画像61の正規化は上述されており、このステップ609では、デスティネーション画像の正規化が画像変換システム400の精度を向上させる。デスティネーション画像の正規化は、後述する図7Dに示すように、予測モデル、例えば、ニューラルネットワーク700をトレーニングするために提供された入力データを標準化することによって実行される。トレーニングユニット430は、標準化された整列、解像度、および/または強度値分布を有する正規化されたデスティネーション画像を生成するためにデスティネーション画像に対して様々な処理機能を実行することができる。
[0106]
いくつかの態様では、画像レジストレーションまたは画像位置合わせ処理が実行され、トレーニング画像の各ペアについてデスティネーション画像が原画像と位置合わせされる。デスティネーション画像および原画像は、異なる画像装置または異なる走査時間で取得され、それらは空間的に位置合わせされていなくてもよいので、この処理が必要とされる。
[0107]
いくつかの態様では、デスティネーション画像はバイナリマスクを使用してセグメント化してもよい。例えば、バイナリマスクは、患者に関連する画像部分に対応させることができる。バイナリマスクの外側のデスティネーション画像の他の部分は、その後、所定の強度値に設定される。所定の値は、デフォルトの強度値であり得る。例えば、デスティネーション画像がCT画像であるとき、部分は、−1000のハウンズフィールドスケール値に設定される。このように、バイナリマスクを使用することによって、例えば定位頭部フレームを示すCT画像の部分は、頭部フレーム部分がバイナリマスクの外側にあるため、全体的にまたは部分的(例えば、画像619)に除去または縮小される。
[0108]
しかしながら、画像変換システム400は、オプションのステップとして処理600を含むことができる。いくつかの実施形態では、画像変換システム400は、処理600のすべての面を利用しない。例えば、画像変換システム400は、取得画像を直接使用して予測モデルをトレーニングする。例えば、画像が頭部フレームのような画像特徴を含まない場合、処理600は利用されないこともある。開示された方法は、前処理なしに予測モデルをトレーニング画像に適応するようにトレーニングすることができる。例えば、画像変換システム400は、処理600に含まれる機能を使用することによって、前処理されなかったトレーニング原画像およびトレーニングデスティネーション画像についてトレーニングされた予測モデルを使用して、高品質合成画像を生成することができる。
[0109]
前処理の有無にかかわらず、トレーニングユニット430は、予測モデルをトレーニングするためにトレーニング画像(トレーニング原画像およびトレーニングデスティネーション画像を含む)を使用することができる。具体的には、予測モデルは、既知のタイプの教師付き機械学習である畳み込みニューラルネットワーク(CNN)である。畳み込みニューラルネットワークは、入力を出力に変換する別個の層のスタックを含み得る。層は、入力サイズ、出力サイズ、および層の入力と出力の関係が異なる場合がある。各層は、層のスタック内の1つまたは複数の上流層および下流層に接続される。したがって、畳み込みニューラルネットワークの性能は層の数に依存し、畳み込みニューラルネットワークの複雑さは、層の数が増えるにつれて増大する。畳み込みニューラルネットワークは、それが1より多いステージの非線形特徴変換を有する場合、これは通常、ネットワーク内の層の数がある数を超えることを意味し、「深い(deep)」と見做される例えば、いくつかの畳み込みニューラルネットワークは、約10−30層、またはある場合には数百層を超える層を含み得る。畳み込みニューラルネットワークモデルの実施例には、AlexNet、VGGNet、GoogLeNet、ResNetなどがある。これらの畳み込みニューラルネットワークモデルは、画像認識タスク用に設計されており、開示された実施形態におけるフル畳み込みニューラルネットワークモデルの符号化部分で使用することができる。
[0110]
図7A−7Eは、例示的な畳み込みニューラルネットワークモデルの構造と様々な構成要素を示す。とりわけ、畳み込みニューラルネットワークは、通常、複数の畳み込み層、逆畳み込み層、プーリング層(例えば、ダウンサンプリング層)、およびアンプーリング層(例えば、アップサンプリング層)を含むことができる。図7Aは、畳み込みニューラルネットワークの例示的な畳み込み層の動作を示す。そのような畳み込み層は、1組の学習可能なフィルタ関数を用いて畳み込み層への入力の2次元または3次元の畳み込みを実行するように構成されている。学習可能なフィルタ関数は、各重みが畳み込み演算中に画像ピクセルに適用されることになる重みWの行列、およびオフセット値bによって定義することができる。重み行列Wとオフセットbは、トレーニングステージで学習する必要があるモデルパラメータの1つである。畳み込み層は、これらの畳み込みの結果に活性化関数をさらに適用するように構成されてもよい。活性化関数の非限定的な例としては、整流された線形単位関数、シグモイド関数、双曲線正接関数、または同様の非線形関数が挙げられる。フィルタ関数の組み合わせと活性化関数は次のように表現される。
[0111]
Figure 0006960509
[0112]
式1は2つの部分:学習可能なフィルタ関数W*X+bと、活性化関数max(0,・)とで構成されている。いくつかの実施形態において、Xは、二次元(例えば、画像)または三次元(例えば、画像のスタック)である。活性化関数max(0,・)をこの学習可能なフィルタ関数の出力に適用して出力hを生成する。この出力すなわち特徴マップは、入力内の特徴の重要性を示している。活性化関数max(0,・)は、畳み込み演算の負の値をゼロにすることによって活性化フィルタとして作用し得る整流された線形単位関数である。いくつかの実施形態では、ゼロパディングを使用して、hの空間サイズがXの空間サイズと同じであること確認する。非限定的な例として、Xが1024×1024のとき、ゼロパディングを使用して、hの空間サイズも1024×1024でもあること確認する。nxnフィルタ関数を使用するとき、Xがフィルタで畳み込まれる前に、ゼロのn−1行(または列)を行列Xのマージンに追加する。非限定的な例として、学習可能なフィルタ機能は3×3フィルタであり、その場合、2行2列のゼロをXに追加する。例えば、ゼロの行と列をXの各余白に追加する。
[0113]
説明のために、図7Aは、畳み込み層における二次元入力特徴マップへ学習可能フィルタ機能および活性化機能を適用することを示す。この例示的な3x3フィルタ関数(重み行列711aおよびオフセット値711bを含む)と活性化機能は、例示的な4×4入力特徴マップ713aに適用されて、4x4出力特徴マップ713cを生成する。入力特徴マップ713aは、ゼロパディング715によって示されるように、まず2行2列のゼロでパディングされる。ここで、1列(または1行)のゼロが入力特徴マップ713aの各マージンに追加される。しかし、当業者によって理解されるように、ゼロパディングの量は、重み付け行列711aのサイズと、ゼロパディングの特定の量および配置に依存するが、このことは限定的であることを意図しない。ゼロパディングの後、入力特徴マップ713aは、6x6となり、そのn番目の行、m番目の列において値xn、mを有する(n、m=1、2、...6)。重み行列711aは、合計9個の重み付け、例えば、フィルタ行列のj行k列の重みに対するwj,kを含む。図示の例では、オフセット値711bは単一のオフセット値である。予測モデルは、重み付けマトリックス711aをゼロパディングされた入力特徴マップ713aで畳み込むように構成され、その結果は中間マップ713bとして示されている。畳み込みを実行するために、それぞれの位置で、重み行列711aは、ゼロパディングされた入力特徴マップ713aの3x3の部分と重複している。例えば、図7Aに示すように、重み付け行列711aは、x3,5を中心とする3×3部分と重なる(畳み込み入力719a)。入力特徴マップ713aのそれぞれのピクセル値は、それらと重なり合うそれぞれの重み付けで乗算され、乗算結果は中間マップ713bにおいて値h2,4を導出するために合計される。(畳み込み出力719b)。畳み込み層は、中間マップ713bの各要素をオフセット値711bと合計し、各結果の和に活性化関数max(0,・)を適用することにより、出力特徴マップ713cを生成する。例えば、図7Aに示すように、オフセット値711bと値h2,4の合計がゼロより小さいとき。起動関数出力719cはそれをゼロに調整する。出力特徴マップ713cの他の値は、学習可能なフィルタスライドとして計算され、入力特徴マップ713aの異なる部分と重なる。
[0114]
同様に、畳み込み層は、畳み込み層における三次元入力特徴マップに学習可能フィルタ関数と活性化関数を適用する。ここで、重み付け行列は三次元である。二次元の場合と同様に、予測モデルは、重み付け行列をゼロパディングされた入力特徴マップで畳み込み、中間のマップを生成するように構成される。しかし、三次元の場合には、重み付け行列は、各位置で、ゼロパディングされた入力特徴の容積と重なり合う。例えば、入力特徴マップが2つの画像のスタックを含む場合、重み付け行列は3×3×3であり、畳み込み演算時にゼロパディングされた入力特徴マップの3×3×3の容積と重なり合う。二次元の場合と同様に、入力特徴マップのそれぞれのピクセル値は、それらと重なり合うそれぞれの重み付けで乗算され、乗算結果は、三次元中間マップにおける対応する値を導出するために合計される。この対応する値は、オフセット値と合計され、活性化関数が結果に適用されて三次元出力特徴マップを生成する。
[0115]
畳み込みニューラルネットワークは、1つまたは複数の畳み込み層を含む畳み込み層のスタックを含むことができる。いくつかの実施形態では、これらのスタックは、2層から5層の畳み込み層を含み得る。さらに、畳み込み層の異なるスタックは、異なる数の畳み込み層を含むことができる。図7Bは、畳み込み層の例示的なスタックである、畳み込み層720の動作を示す。畳み込み層720は、特徴マップ721aを受信し、特徴マップ721cを出力するように構成さている。畳み込み層720は、特徴マップ721aを用いて特徴マップ721bを生成するように構成された畳み込み層723aと、特徴マップ721bを用いて特徴マップ721cを生成するように構成された畳み込み層723bとを含む。特徴マップ721a、特徴マップ721b、特徴マップ721cのそれぞれにおける特徴マップの数は予め定められていてもよい。
[0116]
いくつかの実施形態では、特徴マップ721aは、対象物の1つまたは複数の原画像を含み得る。例えば、特徴マップ721aは、T1強調MRI画像、T2強調MRI画像、造影剤を用いて生成されたMRI画像を含み得る。追加の例として、特徴マップ721aは、対象物の2D画像のスタック内に異なるスライスを含み得る。これらのスライスは隣接していてもよい。様々な実施形態において、特徴マップ721aは、予測モデルの他の構成要素によって生成された1つまたは複数の特徴マップのスタックを含み得る。例えば、特徴マップ721aは、予測モデルの前の畳み込み層によって生成された64個の特徴マップのスタックを含み得る。
[0117]
特徴マップ721bは、畳み込み層723aによって生成された特徴マップを含み得る。いくつかの実施形態では、畳み込み層723aは、式1に従ってこれらの特徴マップを生成することができる。例えば、畳み込み層723aは、学習可能なフィルタ機能および活性化機能を適用して、特徴マップ721b内の各特徴マップを生成することができる。各学習可能フィルタ関数は、重み行列およびオフセット値によって記述される。重み行列およびオフセットの値は学習可能フィルタのパラメータであり、これは畳み込みニューラルネットワークモデルのトレーニングステージにおけるデータから学習することができる。重み行列内のパラメータの数は、学習可能フィルタ関数の空間サイズおよび特徴マップ721a内の特徴マップの数に依存する。例えば、入力特徴マップ721aが1個の特徴マップを含み、フィルタ関数の空間サイズがm×nである場合、重み行列はm×n×1個のパラメータを含む。出力特徴マップ721bがk個の特徴マップを含む場合、k個の学習可能なフィルタ機能を使用することができ、したがって、畳み込み層723a内のパラメータの総数はk×(m×n×l+1)となる。図7Bに示すように、特徴マップ721bおよび特徴マップ721a内の特徴マップは同じ空間サイズである。様々な実施形態において、特徴マップ721aおよび特徴マップ721b内の特徴マップの数は異なり得る。例えば、特徴マップ721aは3つの特徴マップを含み、一方、特徴マップ721bはそれより多いまたは少ない特徴マップを含む。
[0118]
特徴マップ721bは次の畳み込み層723bへの入力として提供され、それは特徴マップ721cを生成する。畳み込み層723aと同様に、畳み込み層723bは、式1に従ってこれらの特徴マップを生成し、1つまたは複数の学習可能なフィルタ機能および起動機能を適用することを含む。再び、特徴マップ721bおよび特徴マップ721c内の特徴マップの数は、同じでもよく、異なっていてもよい。例えば、特徴マップ721bは64個の特徴マップを含み、一方、特徴マップ721bは128個の特徴マップを含む。
[0119]
図7Cは、予測モデルの例示的な最大プーリング層およびアンプーリング層の動作を示す。プーリング層は、畳み込み層から受け取った入力特徴マップを受け取り、ダウンサンプリングして、縮小サイズの出力特徴マップを生成する。この出力特徴マップは、入力特徴マップよりも低い空間解像度を有し、その結果としての畳み込み層は、より高い空間解像度で前の畳み込み層によって学習された画像特徴よりも大きな空間範囲または大きな空間不変性で画像特徴を学習する。したがって、予測モデルは、異なるレベルの空間解像度で特徴を学習するのを助けるためにプーリング層を使用し、変換精度を改善することができる。例えば、プーリング層は、2つの入力特徴値のストライドを有する2×2ウィンドウ(すなわち、重ならないウィンドウ)を使用して、各次元において2の係数で特徴マップをダウンサンプリングする。ストライドは異なってもよく、使用されるウィンドウは、3×3、4×4、8×8、16×16、32×32のような他の任意の適切なサイズでもよいと考えられる。
[0120]
いくつかの実施形態では、図7Cに示すように、プーリング層は最大プーリング層であってもよく、これはプーリングウィンドウ内の最大値に等しい単一の値を選択する。図7Cの例では、プーリングウィンドウは2×2ウィンドウである。プーリングウィンドウに対して他の適切な大きさが考えられる。図7Cは、プーリングウィンドウ733a内の値を示す、プーリング層731aの一部を示す。予測モデルは、プーリング層731aとポストダウンサンプリング特徴マップ735aとを結ぶ矢印によって示されるように、プーリングウィンドウ733a内の最大値(すなわち、0.8)をポストサンプリング特徴マップ735a内の対応する位置に出力するように構成される。予測モデルは、プーリング層731a内に最大値の位置を格納するようにも構成される。例えば、予測モデルは、プーリング層731aとバイナリマスク737とを結ぶ矢印によって示される位置をバイナリマスク737に格納するように構成されてもよい。バイナリマスク737は、プーリング層731Aと同じサイズであり、入力特徴が各ウィンドウ内の最大値を有することを示す。バイナリマスク737内の「1」(すなわち「真」)のピクセル値は、プーリング層731aの対応するピクセルがウィンドウ内に最大値を含むことを示し、バイナリマスク737内の「0」(すなわち「偽」)のピクセル値は、同様に、特徴マップの対応するピクセルがウィンドウ内でその最大値を含まないことを示す。図7Cに示すように、プーリングウィンドウ733a内のピクセル値0.3、0.6、0.1に対応するバイナリマスク737のピクセルは、それらのピクセル値がプーリングウィンドウ733a内の最大ピクセル値ではないので、ピクセル値「0」を有し、一方、プーリングウィンドウ733a内のピクセル値0.8に対応するバイナリマスク737のピクセルは、0.8がプーリングウィンドウ733aの最大ピクセル値なので、ピクセル値「1」を有する。予測モデルは、バイナリマスク737とアンプーリング層731bとを結ぶ矢印によって示されるように、最大値の位置に関するこの情報をアンプーリング層に提供するように構成される。
[0121]
アンプーリング層は、アップサンプリングによって入力特徴マップのサイズを増大させることができる。このアップサンプリングは、特徴マップの空間解像度を高め、合成画像内に高解像度の詳細を正確に描写するための画像変換システム400の能力を高めることができる。いくつかの実施形態では、各アンプーリング層は、対応するプーリング層に用いられる2×2のプーリングウィンドウに一致する、2×2のアンプーリングウィンドウの大きさを使用することができる。したがって、アンプーリング層は、特徴マップの大きさを各次元で2倍に増加させることができる。アンプーリングウィンドウに対して他の適切な大きさが考えられる。
[0122]
いくつかの実施形態では、図7Cに示されるように、予測モデルは、プレアップサンプリング特徴マップ735b内のピクセル値をアンプーリング層731b内のピクセル値に関連付けるように構成される。図7Cに示されるように、プレアップサンプリング特徴マップ735b内のピクセルは、アンプーリング層731b内のアンプーリングウィンドウ733bに対応している。バイナリマスクは、プレアップサンプリング特徴マップ735b内のピクセルとアンプーリング層731b内のピクセルとの間の対応をさらに定義する。このバイナリマスクは、対応するプーリング層によって生成された可能性がある。例えば、対応するプーリング層731aによって生成されたバイナリマスク737は、アンプーリング層731bにより使用される。上述のように、バイナリマスク737は、プーリング層731aのどのピクセル値が、ポストダウンサンプリング特徴マップ735aに格納されたかを示すことができる。図7Cに示すように、バイナリマスク737の対応する部分の右上の値が「1」であるので、ピクセル値0.7を有するアップサンプリング特徴マップ735b内のピクセルは、アンプーリングウィンドウ733b内の右上のピクセルに対応している。予測モデルは、プレアップサンプリング特徴マップ735bとアンプーリング層731bとを結ぶ矢印によって示されるように、アンプーリング層731b内の対応するピクセルをプレアップサンプリング特徴マップ735b内のピクセルのピクセル値に設定するように構成されている。アンプーリングウィンドウ733bの残りの要素は、ゼロのような所定の値に設定される。
[0123]
図7Dおよび図7Eは、開示された実施形態による、画像変換システム400によって使用される予測モデルの例示的な実装形態であるニューラルネットワーク700を示す。ニューラルネットワーク700は、各値は画像内のピクセルに対応する、値の行列によって表されるデジタル画像を変換するように構成される。行列のサイズは、画像の空間的サイズに対応する。例えば、1024×1024の行列は、1024×1024の空間サイズの画像に対応する。原画像を表す行列と合成画像を表す生成された行列は、同じサイズ(すなわち空間解像度)を有する。ピクセル単位で(一度に行列の1つの値で)合成画像を予測する従来の方法とは異なり、開示された方法は、原画像と同じ空間サイズの合成画像全体を(一度に行列のすべての値で)予測する。
[0124]
本明細書に記載されるように、ニューラルネットワーク700は、入力741および出力751を含む。いくつかの実施形態では、入力741および出力751の空間サイズ(すなわち空間解像度)は同じである。例えば、入力741は少なくとも1つの1024×1024ピクセルの原画像を受け取り、出力751は少なくとも1つの1024×1024ピクセルの計算された合成画像を出力する。しかしながら、ニューラルネットワーク700は他の空間サイズの画像データを処理する。
[0125]
ニューラルネットワーク700の入力741は、1つまたは複数の原画像を受け入れるように構成されている。3D画像を変換するようにニューラルネットワーク700をトレーニングするとき、隣接する2D画像が依存構造情報を含むので、入力741が隣接する画像のスタックを受け取るときにニューラルネットワーク700の精度を高めることができる。依存構造情報は、隣接する2D画像のスタックに示されている解剖学的構造間の空間的に依存した関係を含み得る。これらの空間依存関係は、2D画像の解剖学的平面に直交する軸に沿っている。非限定的な例として、スタックの第1の画像内の第1のピクセル群によって表される解剖学的構造の形状および種類は、また、第1の画像に隣接する第2の画像内の第2のピクセル群によって表される。これは、第1の画像および第2の画像が解剖学的平面に直交する軸に沿って互いに空間的に隣接しているからである。結果として、2つの画像は、これらの画像に示されている解剖学的構造のある程度の依存性または連続性を有することになる。したがって、1つの画像内の解剖学的構造の形状、サイズ、および/またはタイプは、同じ平面に沿った別の隣接する画像内の解剖学的構造の形状、サイズ、および/またはタイプの追加情報を提供する。依存構造情報の効果は、スタック内の隣接画像の数、画像内に描かれている解剖学的構造、および/または画像を取得するために使用される撮像モダリティのような様々な要因に依存し得る。
[0126]
いくつかの実施形態において、入力741は、また、マルチチャンネルMRI画像を受信するように構成されてもよい。例えば、チャネル741の1つまたは複数の第1の入力はT1強調MRI画像を受信するように構成され、チャネル741の1つまたは複数の第2の入力はT2強調MRI画像を受信するように構成される。当技術分野で知られているように、T1は縦緩和定数であり、T2は組織内の励起陽子が平衡に戻る速度を支配する横緩和定数である。これらの速度定数は互いに異なり、そして組織間でも異なる。MRI画像化パラメータに応じて、MRI画像中の組織のコントラストおよび明るさは、T1速度定数(T1強調MRI画像)またはT2速度定数(T2強調MRI画像)によって主に決定される。したがって、T1強調MRI画像およびT2強調MRI画像は、撮像対象についての異なる情報を伝達する。ニューラルネットワーク700は、T1強調MRI画像の第1のチャネルおよびT2強調MRI画像の別のチャネルを使用することによって提供される追加の情報を使用するように構成され、変換精度を改善する。追加的または代替的に、チャネルは、スピン密度のような当技術分野で知られている他の組織パラメータに関連する画像、または造影剤を使用して取得されたMRI画像に充てられてもよい。
[0127]
図7Dおよび図7Eに示すように、画像データは、符号化ステージ740および復号化ステージ750を介して入力741から出力751に流れる。符号化ステージ740は、入力画像から特徴マップを抽出するように構成されている。いくつかの実装形態では、符号化ステージ740は、完全に接続された層を含まなくてもよい。完全に接続された層では、一般に、入力特徴マップの各ピクセルが出力特徴マップの各ピクセルに寄与する。当該技術分野において認識されているように、完全に接続された層は極めて多数のパラメータを必要とし、画像分類作業に適した特徴を生成する。このような特徴は、この用途ではほとんど利益をもたらさず、完全に接続された層を除外することは畳み込みニューラルネットワークをトレーニングするのに必要とされるパラメータの数を減らすことができる。復号化ステージ750は、符号化ステージ740から出力された特徴マップを原画像と同じ空間解像度を有する合成画像に変換するように構成される。
[0128]
図7Dおよび図7Eに示されるように、ニューラルネットワーク700は、畳み込み層(例えば、畳み込み層743aおよび畳み込み層753a)と、プーリング層(例えば、プーリング層745a)と、アンプーリング層(例えば、アンプーリング層755a)のスタックを含む。図7Aおよび図7Bに示されるように、畳み込み層のスタックは、入力特徴マップ(すなわち原画像)に基づいて出力特徴マップを生成するように構成されている。図7Cに示されるように、プーリング層は、特徴マップをダウンサンプリングするように構成され、アンプーリング層は、特徴マップをアップサンプリングするように構成されている。
[0129]
図7Dおよび図7Eに示すように、ニューラルネットワーク700は、異なる空間解像度のレベルの階層に配置されている。5つのそのようなレベルが図7Dおよび図7Eに示されているが、ニューラルネットワーク700は追加のレベルまたはより少ないレベルを含むことができる。各レベルは符号化セクションおよび復号化セクション(それらは符号化ステージ740および復号化ステージ750を含むすべてのレベルにわたって組み合わさる)を有する。階層内の空間解像度の各レベルは、入力画像の空間サイズに応じて、特定の空間サイズの特徴マップと関連付けられてもよい。最低レベルを除いて、各レベルの符号化セクションの出力は、次のレベルの符号化セクションの入力に提供される。例えば、最高レベルの畳み込み層743aの出力は、次に低いレベルのプーリング層745aの入力に提供される。最高レベルを除いて、復号化部の出力は次に高いレベルの復号化部の入力に供給される。例えば、2番目に最も低いレベルでの畳み込み層753dの出力は、次の上位レベルのアンプーリング層755Cの入力に提供される。
[0130]
さらに、符号化ステージ740内の1つまたは複数の層は、復号化ステージ750内の対応する層に直接接続される。例えば、畳み込み層743aの最後の層は、1つまたは複数の特徴マップを復号化ステージ750に出力することができる。これらの特徴マップは、アンプーリング層755bの出力特徴マップと組み合わされ(例えば、スタックされ)、畳み込み層753bへの入力を生成する。図7Dおよび図7Eは、畳み込み層743dへの畳み込み層743aと、アンプーリング層755dへのアンプーリング層755aとの間の直接接続をそれぞれ示している。提供される機能マップは、アンプーリング層755dへのアンプーリング層755aの破線部分のように、図7Dおよび図7Eにおいて示されている符号化ステージ740と復号化ステージ750との間の直接接続は、符号化ステージ740において学習された高解像度の特徴が復号化ステージ750において使用されることを可能にする。これは、より正確な合成画像を生成するための復号化ステージ750の能力を可能にするかまたは改善することができる。そのような直接接続は、また、ニューラルネットワーク700の柔軟性を向上させる。例えば、直接接続を介して提供されるより高い解像度の特徴が正確な合成画像を生成するのに十分である場合、ニューラルネットワーク700は、より低い空間解像度の特徴に小さな重みを割り当てるようにトレーニングされる。
[0131]
ニューラルネットワーク700の最高のレベルは、入力741、畳み込み層743a、アンプーリング層755a、畳み込み層753a、出力層759を含む。いくつかの実施形態では、畳み込み層743a、畳み込み層753a、出力層759は、1つまたは複数の畳み込み層のスタックである。例えば、畳み込み層743aおよび畳み込み層753aは、それぞれ、2つから5つの畳み込み層を含み得る。あるいは、出力層759は単一の畳み込み層を含んでもよい。図7Aおよび図7Bにおいて説明されているように、これらの畳み込み層は、それらのそれぞれの入力特徴マップに1つまたは複数の学習可能なフィルタ関数を適用することによって、出力特徴マップを生成することができる。例えば、畳み込み層743aおよび畳み込み層753aを含む1つまたは複数の畳み込み層は、それぞれ50−100個(例えば64個)の学習可能なフィルタ関数を適用して、対応する数の出力特徴マップを生成することができる。
[0132]
ニューラルネットワーク700の次の下のレベルは、プーリング層745a、畳み込み層743b、アンプーリング層755b、畳み込み層753bを含む。いくつかの実施形態では、畳み込み層743bおよび畳み込み層753bは、1つまたは複数の畳み込み層のスタックであり得る。例えば、畳み込み層743bおよび畳み込み層753bは、それぞれ、2つから5つの畳み込み層を含み得る。図7Aおよび図7Bにおいて説明されているように、これらの畳み込み層は、それらのそれぞれの入力特徴マップに1つまたは複数の学習可能なフィルタ関数を適用することによって出力特徴マップを生成することができる。例えば、畳み込み層743bと畳み込み層753bを含む1つまたは複数の畳み込み層は、100個と200個の間(例えば、128個)の学習可能フィルタ関数を適用し、対応する数の出力特徴マップを生成する。プーリング層745aは、次に高いレベルのアンプーリング層755aに対応する。例えば、プーリング層745aは、その入力特徴層内の最大値の位置を示すバイナリマスクを生成し、これらの表示をアンプーリング層755aに提供するように構成されている。アンプーリング層755aは、その入力特徴マップをアップサンプリングするときにバイナリマスクを使用するように構成されている。
[0133]
ニューラルネットワーク700の次の下のレベルは、プーリング層745b、畳み込み層743c、アンプーリング層755c、畳み込み層753cを含む。いくつかの実施形態では、畳み込み層743cおよび畳み込み層753cは、1つまたは複数の畳み込み層のスタックであり得る。例えば、畳み込み層743cおよび畳み込み層753cはそれぞれ、2つから6つの畳み込み層を含むことができる。図7Aおよび図7Bにおいて説明されているように、これらの畳み込み層は、それらのそれぞれの入力特徴マップに1つまたは複数の学習可能なフィルタ関数を適用することによって出力特徴マップを生成することができる。例えば、畳み込み層743cおよび畳み込み層753cを含む1つまたは複数の畳み込み層は、150個から300個の間(例えば、256個)の学習可能なフィルタ関数を適用して、対応する数の出力特徴マップを生成することができる。プーリング層745bは、次に高いレベルのアンプーリング層755bに対応する。例えば、プーリング層745bは、その入力特徴マップ内の最大値の位置の指示を生成し、これらの指示をアンプーリング層755bに提供するように構成される。アンプーリング層755bは、特徴マップをアップサンプリングするときにこれらの指示を使用するように構成される。
[0134]
ニューラルネットワーク700の次の下のレベルは、プーリング層745c、畳み込み層743d、アンプーリング層755d、畳み込み層753dを含む。いくつかの実施形態では、畳み込み層743dおよび畳み込み層753dは、1つまたは複数の畳み込み層のスタックであり得る。例えば、畳み込み層743dおよび畳み込み層753dはそれぞれ、2つから6つの畳み込み層を含むことができる。図7Aおよび図7Bにおいて説明されているように、これらの畳み込み層は、それらのそれぞれの入力特徴マップに1つまたは複数の学習可能なフィルタ関数を適用することによって出力特徴マップを生成することができる。例えば、畳み込み層743dおよび畳み込み層753dを含む1つまたは複数の畳み込み層はそれぞれ、対応する数の出力特徴マップを生成するために300個から600個の間(例えば、512個)の学習可能なフィルタ関数を適用することができる。プーリング層745cは、次に高いレベルのアンプーリング層755cに対応する。例えば、プーリング層745cは、その入力特徴層における最大値の位置の指示を生成し、これらの指示をアンプーリング層755cに提供するように構成されてもよい。アンプーリング層755cは、特徴マップをアップサンプリングするときにこれらの指示を使用するように構成される。
[0135]
ニューラルネットワーク700の最も低いレベルは、プーリング層745d、畳み込み層743e、畳み込み層753eを含む。いくつかの実施形態において、畳み込み層743eおよび畳み込み層753eは、畳み込み層のスタックであり得る。例えば、畳み込み層743eおよび畳み込み層753eはそれぞれ、2つから5つの畳み込み層を含み得る。図7Aおよび図7Bにおいて説明されているように、これらの畳み込み層は、それらのそれぞれの入力特徴マップに1つまたは複数の学習可能なフィルタ関数を適用することによって出力特徴マップを生成することができる。例えば、畳み込み層743eおよび畳み込み層753eを含む1つまたは複数の畳み込み層はそれぞれ、800個から1200個の間(例えば、1024個)の学習可能なフィルタ関数を適用して、対応する数の出力特徴マップを生成することができる。プーリング745dは、次に高いレベルのアンプーリング層755dに対応する。例えば、プーリング層745dは、その入力特徴層内の最大値の位置の指示を生成し、これらの指示をアンプーリング層755dに提供するように構成されてもよい。アンプーリング層755dは、特徴マップをアップサンプリングするときにこれらの指示を使用するように構成される。
[0136]
図7Dおよび図7Eにおいて説明されたように、1つまたは複数の原画像(例えば、原画像761)が入力741としてニューラルネットワーク700に提供される。ニューラルネットワーク700は、符号化ステージ740および復号化ステージ750を介して入力741を伝播させて、出力751として1つまたは複数のデスティネーション画像(例えば、デスティネーション画像769)を生成するように構成される。図7Fは、符号化処理および復号化処理のステップ中にニューラルネットワーク700の選択された層によって生成された例示的な特徴マップを示す。特に、図7Fは、原画像761から始まり特徴マップ763eで終わる、符号化ステージ740の各ステップ中に生成された特徴マップを示す。図示されているように、これらの例示的な特徴マップの相対空間サイズは、符号化ステージの間に減少する(理解を容易にするために、特徴マップ763dおよび特徴マップ763eの拡大バージョンが提供されている)。これらの特徴マップは、また、各マップ内の特徴の空間的広がりの増大、および各マップの空間分解能の低下をも表している。図7Eは、また、特徴マップ773eで始まりデスティネーション画像779で終わる、復号化ステージ750の各ステップ中に生成される特徴マップを示す。図示されているように、これらの例示的な特徴マップの相対空間サイズは、復号化ステージ中に増加する(理解を容易にするために、特徴マップ773eおよび特徴マップ773dの拡大バージョンが提供されている)。これらの特徴マップは、また、各マップ内の特徴の減少する空間的広がり、および各マップの増加する空間解像度をも表している。
[0137]
第1の符号化ステップとして、畳み込み層743aは、1つまたは複数の原画像を受信して、特徴マップを生成するように構成されている。図7Cにおいて説明されたように、畳み込み層743aは、1つまたは複数の畳み込み層のスタックを含み得る。いくつかの実施形態では、畳み込み層743aは、原画像761のような1つまたは複数の原画像を受け取り、特徴マップ763aのような特徴マップを出力するように構成されている。上述されたように、開示されたシステムおよび方法は特定の空間サイズの画像に限定されない。例えば、いくつかの実施形態において、1つまたは複数の原画像の空間的な大きさは、1024×1024ピクセルのように、128×128ピクセルより大きくてもよい。いくつかの実施形態では、1つまたは複数の原画像は、少なくとも1つのT1強調MRI画像、T2強調MRI画像、および造影剤を使用して生成されたMRI画像を含み得る。追加の例として、1つまたは複数の原画像は、2D画像のスタック内に異なるスライスを含み得る。いくつかの実施形態では、畳み込み層743Aは、特徴マップを符号化ステージ740の次の下位のレベルに出力するように構成され得る。符号化ステージ7の40の次の下位のレベルは、プーリング745aおよび畳み込み層743bを含み得る。畳み込み層743aは、また、特徴マップを復号化ステージ750に直接出力するように構成されてもよい。
[0138]
第2の符号化ステップとして、プーリング層745aは、畳み込み層743aから受信された特徴マップをダウンサンプリングし、より小さい空間サイズを有するダウンサンプリングされた特徴マップを生成するように構成され得る。畳み込み層743bは、これらのダウンサンプリングされた特徴マップを受け取り、特徴マップ763bなどの出力特徴マップを生成するように構成され得る。図示するように、特徴マップ763bは、特徴マップ763aよりも小さい空間サイズを有し得る。いくつかの態様では、特徴マップ763bの空間サイズは少なくとも一次元で特徴マップ763aの空間サイズの半分であり得る。いくつかの実施形態では、畳み込み層743bは、特徴マップを符号化ステージ740の次に下位のレベルに出力するように構成され得る。符号化ステージ740のこの次に下位のレベルは、プーリング層745bおよび畳み込み層743cを含み得る。畳み込み層743bは、また、出力特徴マップを復号化ステージ750に直接提供するように構成されてもよい。
[0139]
第3の符号化ステップとして、プーリング層745bは、畳み込み層743bから受信された特徴マップをダウンサンプリングし、より小さい空間サイズを有するダウンサンプリングされた特徴マップを生成するように構成され得る。畳み込みレイヤ743cは、これらのダウンサンプリングされた特徴マップを受け取り、特徴マップ763cなどの出力特徴マップを生成するように構成され得る。図示されるように、特徴マップ763cは、特徴マップ763bよりも小さい空間サイズを有し得る。いくつかの態様では、特徴マップ763cの空間サイズは少なくとも一次元で特徴マップ763bの空間サイズの半分であり得る。いくつかの実施形態では、畳み込み層743cは、特徴マップを符号化ステージ740の次に下位のレベルに出力するように構成され得る。符号化ステージ740の次に下位のレベルは、プーリング層745cおよび畳み込み層743dを含み得る。畳み込みレイヤ743cは、また、出力特徴マップを復号化ステージ750に直接提供するように構成されてもよい。
[0140]
第4の符号化ステップとして、プーリングレイヤ745cは、畳み込みレイヤ743cから受信された特徴マップをダウンサンプリングし、より小さい空間サイズを有するダウンサンプリングされた特徴マップを生成するように構成され得る。畳み込みレイヤ743dは、これらのダウンサンプリングされた特徴マップを受け取り、特徴マップ763dなどの出力特徴マップを生成するように構成され得る。図示されるように、特徴マップ763dは、特徴マップ763cよりも小さい空間サイズを有し得る。いくつかの態様では、特徴マップ763dの空間サイズは少なくとも一次元で特徴マップ763cの空間サイズの半分であり得る。いくつかの実施形態では、畳み込み層743dは、特徴マップを符号化ステージ740の最下位のレベルに出力するように構成される。符号化ステージ740の最下位のレベルは、プーリング層745dおよび畳み込み層743eを含み得る。畳み込み層743dは、また、出力特徴マップを復号化ステージ750に直接提供するように構成されてもよい。
[0141]
第5の符号化ステップとして、プーリング層745dは、畳み込みレイヤ743dから受信した特徴マップをダウンサンプリングし、より小さい空間サイズを有するダウンサンプリングされた特徴マップを生成するように構成され得る。畳み込みレイヤ743eは、これらのダウンサンプリングされた特徴マップを受け取り、特徴マップ763eなどの出力特徴マップを生成するように構成され得る。図示されるように、特徴マップ763eは、特徴マップ763dよりも小さい空間サイズを有し得る。いくつかの態様では、特徴マップ763eの空間サイズは、少なくとも一次元で特徴マップ763dの空間サイズの半分であり得る。いくつかの実施形態では、畳み込み層743eは、これらの出力特徴マップを復号化ステージ750の最下位レベルに提供するように構成される。
[0142]
第1の復号化ステップでは、畳み込み層753eは、畳み込み層743eから受け取った特徴マップを使用して、特徴マップ773eなどの出力特徴マップを生成するように構成される。いくつかの実施形態では、畳み込み層753eは、これらの出力特徴マップを復号化ステージ750のより高いレベルに提供するように構成され得る。復号化ステージ750のより高いレベルは、プール解除層755dおよび畳み込み層753dを含み得る。
[0143]
第2の復号化ステップでは、アンプーリング層755dは、畳み込み層753eから受け取った特徴マップをアップサンプリングし、空間サイズが増加したアップサンプリングされた特徴マップを生成するように構成され得る。図7Cにおいて説明されたように、アンプーリング層755dは、プーリング745dによって生成されたバイナリマスクを使用して、畳み込み層753eから受信した特徴マップ内の値を対応するアップサンプリングされた特徴マップに割り当てることができる。畳み込み層753dは、アンプーリング層755dから受信したアップサンプリングされた特徴マップを使用して、特徴マップ773dのような出力特徴マップを生成するように構成されることができる。いくつかの態様では、畳み込み層753dは、また、畳み込み層743dから受信した特徴マップを使用して出力特徴マップを生成することができる。例えば、畳み込み層753dは、畳み込み層743dから受け取られた特徴マップと、アンプーリング層755dから受け取られ、アップサンプリングされた特徴マップとを含む特徴マップのスタックに1つまたは複数の学習可能なフィルタ関数を適用するように構成され得る。いくつかの実施形態では、畳み込み層753dによって生成された出力特徴マップは、畳み込み層753dによって復号化ステージ750のより高いレベルに提供される。復号化ステージ750のより高いレベルは、プール解除層755cおよび畳み込み層753cを含み得る。
[0144]
第3の復号化ステップでは、アンプーリング層755cは、畳み込みレイヤ753dから受信した特徴マップをアップサンプリングし、空間サイズが増加したアップサンプリングされた特徴マップを生成するように構成される。図7Cにおいて説明されたように、アンプーリング755cは、プーリング745cによって生成されたバイナリマスクを使用して、畳み込み層753dから受信した特徴マップ内の値を対応するアップサンプリングされた特徴マップに割り当てることができる。畳み込み層753cは、アンプーリング層755cから受信されたアップサンプリングされた特徴マップを使用して、特徴マップ773cなどの出力特徴マップを生成するように構成することができる。いくつかの態様では、畳み込み層753cは、また、出力特徴マップを生成するために畳み込み層743cから受信した特徴マップを使用することができる。例えば、畳み込み層753cは、畳み込み層743cから受信した特徴マップと、アンプーリング層755cから受信したアップサンプリングされた特徴マップとを含む特徴マップのスタックに1つまたは複数の学習可能なフィルタ関数を適用するように構成することができる。いくつかの実施形態では、畳み込み層753cによって生成された出力特徴マップは、畳み込み層753cによって復号化ステージ750のより高いレベルに提供される。復号化ステージ750のより高いレベルは、プール解除層755bおよび畳み込み層753bを含み得る。
[0145]
第4の復号化ステップでは、アンプーリング層755bは、畳み込み層753cから受信された特徴マップをアップサンプリングし、空間サイズが増加したアップサンプリングされた特徴マップを生成するように構成され得る。図7Cにおいて説明されたように、アンプーリング層755bは、プーリング層745bによって生成されたバイナリマスクを使用して、畳み込み層753cから受信した特徴マップ内の値を対応するアップサンプリングされた特徴マップに割り当てることができる。畳み込みレイヤ753bは、アンプーリング層755bから受信されたアップサンプリングされた特徴マップを使用して、特徴マップ773bなどの出力特徴マップを生成するように構成することができる。いくつかの態様では、畳み込み層753bは、また、出力特徴マップを生成するために畳み込み層743bから受信した特徴マップを使用することができる。例えば、畳み込み層753bは、畳み込み層743bから受信された特徴マップと、アンプーリング層755bから受信されたアップサンプリングされた特徴マップとを含む特徴マップのスタックに1つまたは複数の学習可能なフィルタ関数を適用するように構成することができる。いくつかの実施形態では、畳み込み層753bによって生成された出力特徴マップは、畳み込み層753bによって復号化ステージ750の最高位レベルに提供される。復号化ステージ750の最高位レベルは、プール解除層755a、畳み込み層753a、および出力層759を含み得る。
[0146]
第5の復号化ステップでは、アンプーリング層755aは、畳み込み層753bから受信した特徴マップをアップサンプリングし、空間サイズが増加したアップサンプリングされた特徴マップを生成するように構成される。図7Cにおいて説明されるように、アンプーリング層755aは、プーリング層745aによって生成されたバイナリマスクを使用して、畳み込み層753bから受信した特徴マップ内の値を対応するアップサンプリングされた特徴マップに割り当てることができる。畳み込み層753aは、アンプーリング層755aから受信されたアップサンプリングされた特徴マップを使用して、特徴マップ773aなどの出力特徴マップを生成するように構成されてもよい。いくつかの態様では、畳み込み層753aはまた、出力特徴マップを生成するために畳み込み層743aから受信した特徴マップを使用することができる。例えば、畳み込み層753aは、畳み込み層743aから受信された特徴マップと、アンプーリング層755aから受信されたアップサンプリングされた特徴マップとを含む特徴マップのスタックに1つまたは複数の学習可能なフィルタ関数を適用するように構成される。いくつかの実施形態では、出力層759は、畳み込み層753aから受け取った出力特徴マップを使用して、デスティネーション画像779などの少なくとも1つのデスティネーション画像を生成するように構成される。いくつかの実施形態では、少なくとも1つのデスティネーション画像が出力751に提供される。
[0147]
図7Dおよび図7Eに示す例示的実施形態では、ニューラルネットワーク700は、3チャンネル画像を変換するための3千万個を超えるパラメータを有する27個の畳み込み層を含む。この例示的な構成は限定的であることを意図していない。例えば、符号化ステージ740と復号化ステージ750との間のニューラルネットワーク700内の層の数は、おおよそ10個から数百個の範囲(例えば、500個)であり得る。層数が増えると、モデルパラメータの数も増え、予測の精度が向上する。しかしながら、特にトレーニングステージでは、多数の層も計算コストの増加を招く可能性がある。プロセッサの計算能力が向上するにつれて、適切な層数は変化し得る。同様に、ニューラルネットワーク700は、より多いまたはより少ないレベルの空間分解能を含み得る。いくつかの実施形態では、異なる数の入力チャネルが使用されてもよく、または異なる画像サイズが使用されてもよい。
図8は、開示された実施形態による、ニューラルネットワーク700をトレーニングするための例示的なトレーニング処理800を示すフローチャートである。いくつかの実施形態では、トレーニング処理800は、上記のトレーニングユニット430によって実行され、ニューラルネットワーク700のモデルパラメータθ={W,b,W,b,…}を学習する。トレーニング処理800は、トレーニングユニット430がトレーニング画像のセットを受信したときに開始することができる(ステップ810)。上述のように、トレーニング画像のセットは、第1の撮像モダリティを使用して取得された1つまたは複数の原点画像と、第2の撮像モダリティを使用して取得された対応する宛先画像とを含み得る。例えば、トレーニング画像は、頭部、胴体、腹部、および/または四肢などの患者の解剖学的領域の単一チャネルまたは複数チャネルのMRI画像を含み得る。いくつかの実施形態では、対応するデスティネーション画像は、患者の同一または類似の解剖学的領域のCTスキャンによって取得されてもよい。
[0148]
図8に示すように、トレーニングユニット430はステップ812で予測モデルを初期化することができる。例えば、トレーニングユニット430は、CNNモデルをトレーニングするための反復インデックスを例えば0に初期化することができる。いくつかの実施形態において、トレーニングユニット430は、また、ニューラルネットワーク700のパラメータを初期化し得る。例えば、畳み込み層重み付けはランダムな値に初期化されてもよく、および/または畳み込み層バイアスはゼロに初期化されてもよい。いくつかの実施形態では、トレーニングユニット430は、プレトレーニングされたモデルからのパラメータを使用して符号化ステージ730のパラメータを初期化することができる。例えば、トレーニングユニット430は、画像分類などの他のタスクについてトレーニングされたモデルから重み付けを借りることができる。これは、画像変換システム400がニューラルネットワークの伝達学習特性を利用して許容可能な解への収束を早めることを可能にしている。
[0149]
ステップ814から822は、1つまたは複数の停止基準が満たされるまで(例えば、反復プロセスが所定の基準に従って収束するまで)反復して実行されてもよい。各反復において、最大の反復数に達するまで、トレーニングデータの新しいバッチを無作為に選択し、CNNモデルをトレーニングするために使用することができる。いくつかの実施形態では、各バッチは30−60セットのトレーニング画像を含み得る。例えば、各バッチは、約50対の原画像とデスティネーション画像を含むことができる。
[0150]
ステップ814において、トレーニングユニット430は、トレーニングデータのバッチを選択するように構成されてもよい。いくつかの実施形態において、このトレーニングデータは、データベース410に格納されているトレーニングデータからランダムに選択されてもよい。トレーニングユニット430は、トレーニングデータを前処理するように任意に構成されている。例えば、トレーニングユニット430は、データベース410から1つまたは複数のトレーニング画像412を受け取り、それらを処理して特定の画像特徴を除去するように構成することができ、これは上述の処理600と矛盾しない。ステップ816において、トレーニングユニット430は、トレーニング画像の各セットについてニューラルネットワーク700の現在のパラメータに従って合成画像を計算するように構成されてもよい。ステップ818において、トレーニングユニット430は、計算された合成画像とトレーニングデータとに基づいて(例えば、図2に関して上述したように)エラーマップを生成するように構成されてもよい。例えば、トレーニングデータが原画像と対応するデスティネーション画像とを含むとき、トレーニングユニット430は、合成画像とデスティネーション画像との間の差としてエラーマップを生成するように構成され得る。
[0151]
ステップ820では、トレーニングユニット430は、ステップ818により生成されたエラーマップに基づいて、ニューラルネットワーク700のパラメータを決定または更新するように構成することができる。例えば、当業者に知られている逆伝播アルゴリズムを使用して、ニューラルネットワーク700のパラメータを決定または更新することができる。いくつかの実施形態では、バックプロパゲーションアルゴリズムは、ニューラルネットワーク700のパラメータに関して損失関数を最小化するように構成することができる。例えば、バックプロパゲーションアルゴリズムは、損失関数の値を減らすためにモデルパラメータを更新することができる。当業者は、モデル予測の平均絶対誤差(MAE)のようなトレーニングユニット430が実装し得る様々な損失関数に精通しており、それは以下のように決定され得る。
[0152]
Figure 0006960509
[0153]
ここで、y(θ)は、合成画像の各ボクセルで計算されたCT強度値を示し、zは、デスティネーション画像の各ボクセルでのCT強度値(例えば、真の値)を示し、nは、画像ボクセルの総数であり、E(θ)は、MAEを示す。損失関数としてMAEを使用すると、学習が改善され、学習データがノイズやアーティファクトなどの外れ値に対して頑健になる。
[0154]
Figure 0006960509
[0155]
ここで、E(θ)はMSEを表す。
[0156]
逆伝搬アルゴリズムを使用して、畳み込みフィルタの重み付けWkおよびオフセット値bのようなモデルパラメータ(θ)に関する損失関数の勾配を計算することができる。次いで、モデルパラメータは、確率論的勾配降下アルゴリズムを使用することによって繰り返し更新することができる。いくつかの実施形態では、内部共変シフトを低減するために、各正規化層の後にバッチ正規化を実行することができる。
[0157]
モデルトレーニング中にトレーニングデータの数を人為的に増加させるために単純なデータ増強を実行することもできる。そのようなデータ増強では、MR画像およびCT画像の各対について、ピクセルのランダムな平行移動または各空間次元での画像の反転を介して、新しい対の原画像およびデスティネーション画像を作成することができる。そのようなデータ増強を使用することによって、本開示による例示的な実施形態は、訓練データの量を増加させ、したがって訓練ユニット430内でより高度に訓練された予測モデルを生成することができる。
[0158]
ステップ822において、トレーニングユニット430は、停止基準が満たされたか否かを判定するように構成される。所定の最大反復の数または所定の画質尺度(例えば、推定合成画像と目的画像との間の差が十分に小さいことを示す損失関数値)のような様々な停止基準を使用することができる。例えば、トレーニングユニット430は、インデックスが所定の最大の反復数以上であるかどうかを判定するように構成される。追加的または代替的に、トレーニングユニット430は、例えば、損失関数が特定のしきい値基準より小さいかどうかを判定することによって、合成画像の精度が予想される精度を満たすかまたは超えるかどうかを判定するように構成され得る。トレーニングユニット430が、停止基準が満たされていないと判断した場合、トレーニング処理800はステップ814に戻る。トレーニングユニット430が、停止基準が満たされたと判断した場合、トレーニング処理800はステップ824に進む。ステップ824において、トレーニングユニット430は、画像変換部440により、後で使用するためにニューラルネットワーク700の更新バージョンを格納するように構成される。
[0159]
図9Aは、本開示のいくつかの実施形態による、図8のプロセス800を通して得られたトレーニングされた畳み込みニューラルネットワーク(例えば、ニューラルネットワーク700)を用いた例示的な画像変換処理900Aを示すフローチャートである。画像変換処理900Aは、画像変換ユニット440によって実行される。一実施形態では、画像変換ユニット440は、トレーニング画像と同じ撮像モダリティを使用して取得された原画像から合成画像を生成するように構成されている。例えば、ニューラルネットワーク700がMRI画像についてトレーニングされるとき、画像変換ユニット440は、MRI画像に基づいて合成画像を生成するように構成されている。同様に、ニューラルネットワーク700がシングルチャネルMRI画像についてトレーニングされるとき、画像変換ユニット440は、同じタイプのシングルチャネルMRI画像(例えば、T1強調画像)を使用するように構成されている。ニューラルネットワーク700がマルチチャネルMRI画像についてトレーニングされるとき、画像変換ユニット440は同じタイプのマルチチャネルMRI画像を使用するように構成されている。
[0160]
図9Aに示すように、処理900Aは、ステップ912において画像変換ユニット440が1つまたは複数の原画像を受け取ると、開始する。いくつかの態様では、画像変換ユニット440は、画像データベース420、画像変換システム400の別の構成要素、または別のシステムから1つまたは複数の原画像を受け取るように構成される。ステップ914において、画像変換ユニット440は、変換プロセスの精度を高めるために、上述のプロセス600により、任意に1つまたは複数の原画像を前処理し、原画像に関連するアーティファクトを除去するように構成されている。
[0161]
画像変換ユニット440は、ステップ918においてニューラルネットワーク700を受け取るように構成されてもよい。いくつかの態様では、ニューラルネットワーク700は、トレーニングユニット430、画像変換システム400の他の構成要素、または他のシステムから受け取ることができる。ステップ920において、画像変換ユニット440は、ニューラルネットワーク700を用いて1つまたは複数の合成画像を計算するように構成されている。次いで、ステップ922において、画像変換ユニット440は1つまたは複数の合成画像を出力する。出力することには、さらなる分析または観察のために1つまたは複数の合成画像を表示すること、1つまたは複数の合成画像を非一時的媒体に格納すること、または、または1つまたは複数の合成画像をコンピュータプロセス、プログラム、および/またはアプリケーションに提供することを含む。非一時的媒体およびコンピュータプロセス、プログラム、および/またはアプリケーションは、離れたシステム上にあってもよい。
[0162]
処理900Aは、2D原画像および3D原画像の両方を変換するように実行される。3D画像を変換する場合、ニューラルネットワーク700は、3D合成画像を生成するように修正される。上述のように、ニューラルネットワーク700の入力731は、3D原画像から選択された隣接する2D画像のスタックを受け入れるように構成されてもよい。同様に、ニューラルネットワーク700の出力層749は、3D合成画像に組み立てることができる、対応する数の隣接合成画像を生成するように構成されてもよい。いくつかの実施形態では、3D原画像を2D原画像のスタックに分割することができる。いくつかの実施形態では、原画像のスタックは重なってもよい。例えば、第1のスタックは第1から第3の画像スライスを含み、第2のスタックは第2から第4の画像スライスを含み、第3のスタックは第3から第5の画像スライスを含む。次いで、画像変換ユニット440は、これらの原画像のスタックを対応する合成画像のスタックに変換するように構成される。例えば、画像のスタックが3つの画像を含むとき、画像変換ユニット440は、スタック内の3つの原画像のそれぞれに対応する3つの合成画像も生成するように構成される。原画像のスタックと一致して、合成画像のスタックも重なってもよい。その結果、3D合成画像内の所与の1つのスライスに対して、複数の2D合成画像が生成される可能性がある。これらの複数の合成画像を融合して、スライスに対する1つの合成画像を導き出すことができる。融合には様々なルールを使用することができる。例えば、複数の画像を平均する、中央値を使用する、などしてもよい。
[0163]
図9Bは、開示された実施形態による、3D画像変換処理900Bを説明する例示的フローチャートを示す。いくつかの実施形態では、処理900Bは画像変換ユニット440によって実行される。処理900Bは、ステップ928において、画像変換ユニット440が1つまたは複数の3D原画像を受け取るようことにより開始する。3D画像は、画像データベース420から、または画像変換システム400の他の構成要素から受信されてもよい。3D画像は、患者の頭部、胴体、腹部、四肢、または他の任意の解剖学的領域の画像の一部または全部の画像を含み得る。
[0164]
ステップ930において、画像変換ユニット440は、受け取った3D原画像の解剖学的平面を選択するように構成されている。ステップ932において、画像変換ユニット440は、受信した3D画像と選択された平面とに基づいて2D原画像の1つ以上のスタックを生成するように構成されている。例えば、画像変換ユニット440は、軸平面、矢状面、および冠状面を含む3つの解剖学的平面の中から選択するように構成されている。画像変換ユニット440は、選択された解剖学的平面に沿って受信された3D原画像から2D原画像を生成するように構成されている。いくつかの態様では、画像変換ユニット440は、一連の個々の原画像または一連の原画像のスタックを生成するように構成されている。
[0165]
ステップ934において、画像変換ユニット440は、ニューラルネットワーク(例えば、ニューラルネットワーク700)を受信するように構成されている。受信されたニューラルネットワークは、選択された解剖学的平面に対応している。例えば、受信されたニューラルネットワークは、選択された解剖学的平面に沿って画像(または画像のスタック)を用いてトレーニングされる。選択された解剖学的平面に沿ったそのような画像(または画像のスタック)は、選択された解剖学的平面に直交する軸についての依存構造情報をまとめて含む。受信されたニューラルネットワークは選択された解剖学的平面に沿った画像を使用してトレーニングされているので、このニューラルネットワークは変換効率を改善するためにこの依存構造情報を使用することができる。例えば、受信したニューラルネットワークのパラメータまたは重み付けは、この依存構造情報を反映している。選択された解剖学的平面(例えば、矢状面から冠状面)の変化に応答して、画像変換ユニット440は、新たに選択された解剖学的平面に対応する別のニューラルネットワークを受信するように構成されている。例えば、画像変換ユニット440は、選択された平面に従って、アキシャルニューラルネットワーク(axial neural network)、コロナルニューラルネットワーク(coronal neural network)、またはサジタルニューラルネットワーク(sagittal neural network)を受け取る。以前に受信されたニューラルネットワークが、変換効率を改善するために以前に選択された解剖学的平面に直交する軸について従属構造情報を使用することができたように、新たに受信されたニューラルネットワークは、変換効率を改善するために新たに選択された解剖学的平面に直交する軸について従属構造情報を使用することが可能である。いくつかの実施形態では、画像変換ユニット440は、複数の平面(例えば、スタックがコロナル画像、サジタル画像、またはスタックがアキシャル画像、サジタル画像などを含むことができるような複数の解剖学的平面)に沿って画像(または画像のスタック)で訓練されたニューラルネットワークを受信するように構成されている。したがって、画像変換ユニット440は、このニューラルネットワークを使用して、任意の選択された解剖学的平面または複数の解剖学的平面に沿って原点画像から合成画像を生成するように構成される。
[0166]
ステップ936において、画像変換ユニット440は、受信したニューラルネットワークを使用して、対応する合成画像、または合成画像のスタックを生成するように構成されている。上述のように、これらのネットワークがその特定の解剖学的平面に特有の従属構造情報を使用するので、変換効率を特定の解剖学的平面に沿って画像(または画像のスタック)を使用して訓練されたニューラルネットワークを使用して改善することができる。画像変換ユニット440は、すべての選択された原画像、または選択された原画像のスタックが合成画像に変換されるまでステップ936を繰り返すことができる。
[0167]
いくつかの実施形態において、画像変換ユニット440は、ステップ934の後にステップ930を実行する。例えば、画像変換ユニット440によって受信されたトレーニングされたニューラルネットワークは、複数の平面(例えば、3つ全ての平面)に沿って2D原画像を使用してトレーニングされる。そのような場合、画像変換ユニット440は、異なる平面のそれぞれを繰り返し選択し、選択された平面に沿って2D原画像を生成するように構成されている。3つの平面に沿ったこれらの2D原画像は、独立してニューラルネットワーク700に入力され、それぞれの平面に沿った合成画像を生成してもよい。例えば、アキシャル2D原点画像は、ニューラルネットワーク700に入力され、軸方向合成画像を出力する。サジタル2D原点画像は、ニューラルネットワーク700に入力され、サジタル合成画像となる。そして最後に、コロナル2D原点画像は、ニューラルネットワーク700に入力され、コロナル合成画像となる。あるいは、3つ全ての平面の2D原画像を単一のシーケンス(例えば、アキシャル2D原画像と、それに続くサジタル2D原画像と、それに続くコロナル2D原画像)で組み合わせ、3つの平面から積み重ねられた画像を使ってトレーニングされた、同じニューラルネットワーク700に入力する。
[0168]
ステップ938において、画像変換ユニット440は、結果として生じる2D合成画像を3D合成画像に集約するように構成されている。そのような集約は、選択された平面に直交する軸に沿って合成画像を積み重ね、3D合成画像を得る。
[0169]
ステップ940において、画像変換ユニット440は、3D原画像の全ての平面が処理されたかどうかを決定する。例えば、画像変換ユニット440は、所定の3D画像ボリュームが処理されるまで各平面を処理し続ける。あるいは、画像変換ユニット440は、所定数の2D平面画像が処理されるまで処理を続けてもよい。ステップ940で使用された基準に基づいてすべての平面が処理された場合、処理900Bはステップ942に続く。すべての平面が処理されていない場合、画像変換ユニット440はステップ930に戻り、処理のために別の画像平面を選択する。
[0170]
各平面の3D合成画像は3D画像内の任意の所与のピクセルにピクセル値を提供するので、各ピクセルは3つの異なるピクセル値を有する。したがって、3D合成画像を組み合わせて最終的な3D合成画像を決定することができる。ステップ942において、画像変換ユニット440は最終の3D合成画像を決定する。画像変換ユニット440は、各選択された平面(例えば、アキシャル面、サジタル面、コロナル面)に対応する3D合成画像を組み合わせる(例えば、当該技術分野で「融合する」として知られているように)ことによって最終的な3D合成画像を決定する。いくつかの実施形態では、融合された3D合成画像のボクセルの値は平均値である。例えば、3枚の融合された3D合成画像がそれぞれ70、80、30のCT値を有する場合、ボクセルは60の平均CT値を有する。別の実施例として、上記の例では、中間のボクセル値70を使用してもよい。ボクセルの値を組み合わせる他の方法を使用してもよく、上記の例は限定的であることを意図しない。このようにして、各解剖学的平面に特有の依存構造情報を最終的な3D合成画像に組み込むことができる。
[0171]
本明細書では、ソフトウェアコードまたは命令として実施または定義することができる様々な動作または機能を説明する。そのようなコンテンツは、直接実行可能の(「オブジェクト」または「実行可能」形式の)ソースコード、または差分コード(「デルタ」または「パッチ」コード)であり得る。本明細書に記載の実施形態のソフトウェア実装は、コードまたは命令を格納した製品を介して、または通信インターフェースを介してデータを送信するように通信インターフェースを動作させる方法を介して、提供することができる。
[0172]
機械またはコンピュータ可読記憶媒体は、1つまたは複数の非一時的媒体(例えば、集中型または分散型データベース、および/または関連するキャッシュおよびサーバ)を含むことができる。そのような機械またはコンピュータ可読記憶媒体は、機械に説明された機能または動作を実行させることができるコンピュータ実行可能命令またはデータを記憶することができる。そのような機械またはコンピュータ可読記憶媒体は、記録可能/記録不可能媒体(例えば、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイスなど)のような、機械(例えば、コンピューティング装置、電子システムなど)によってアクセス可能な形式で情報を記憶する任意のメカニズムを含み得る。例えば、「機械可読記憶媒体」または「コンピュータ可読記憶媒体」という用語は、それに限定されるものではないが、固体メモリ、光媒体、および磁気媒体を含むと解釈されるべきである。
[0173]
通信インターフェースは、メモリバスインターフェース、プロセッサバスインターフェース、インターネット接続、ディスクコントローラなどのような、他の装置と通信するために、有線、無線、光学などの媒体のいずれかとインターフェースをとる任意の機構を含むことができる。通信インターフェースは、構成パラメータを提供すること、および/または通信インターフェースを準備する信号を送信することによって、ソフトウェアコンテンツを記述するデータ信号を提供することができる。通信インターフェースは、通信インターフェースに送信された1つまたは複数のコマンドまたは信号を介してアクセスすることができる。

Claims (24)

  1. 人体の解剖学的部分の合成撮像データを生成するためのコンピュータ実施方法であって、
    前記方法は、
    前記人体の前記解剖学的部分の原撮像データを受信することであって、前記原撮像データは第1の撮像モダリティを用いて撮像装置によって取得され、前記原撮像データは前記解剖学的部分の第1の撮像モダリティ描写を提供する複数の画像を含むことと、
    前記原撮像データに基づいて前記合成撮像データを予測するためにトレーニングされた畳み込みニューラルネットワークモデルを受信することと、
    前記畳み込みニューラルネットワークモデルの使用を介して前記原撮像データを前記合成撮像データに変換することであって、前記合成撮像データは前記解剖学的部分の第2の撮像モダリティ描写に似ている複数の画像を含み、前記第2の撮像モダリティは前記第1の撮像モダリティと異なることとを有し、
    前記原撮像データを前記合成撮像データに変換することは、
    前記畳み込みニューラルネットワークモデルを用いて、前記原撮像データの前記複数の画像から1つまたはそれ以上の合成画像を生成することと、
    1つまたはそれ以上の生成された合成画像の複数のセットを集約することと、
    前記集約された1つまたはそれ以上の生成された合成画像の複数のセットから前記合成撮像データを決定することと
    を含む
    ことを特徴とする方法。
  2. 請求項1記載の方法において、
    前記第1の撮像モダリティおよび前記第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、および単一光子放出コンピュータ断層撮影の群から選択される
    ことを特徴とする方法。
  3. 請求項1記載の方法において、
    前記合成撮像データは、二次元画像のスタックとして提供される前記複数の画像を含む
    ことを特徴とする方法。
  4. 請求項1記載の方法において、
    前記原撮像データは三次元ボリューム内に提供され、前記合成撮像データは三次元ボリューム内に提供される
    ことを特徴とする方法。
  5. 請求項1記載の方法において、
    前記原撮像データを受信することは、前記原撮像データから隣接する二次元画像の複数のスタックを選択することを含み、
    前記1つまたはそれ以上の合成画像を生成することは、前記畳み込みニューラルネットワークモデルを使用して、前記隣接する二次元画像の各スタックから合成二次元画像のスタックを生成することを含む
    ことを特徴とする方法。
  6. 請求項1記載の方法において、
    前記原撮像データを受信することは、三次元撮像データの第1の平面から二次元画像の第1のスタックを生成し、前記三次元撮像データの第2の平面から前記二次元画像の第2のスタックを生成することを含み、
    前記1つまたはそれ以上の合成画像を生成することは、前記畳み込みニューラルネットワークモデルを使用して、前記二次元画像の前記第1のスタックおよび前記第2のスタックから合成二次元画像の第1のスタックおよび第2のスタックを生成することを含む
    ことを特徴とする方法。
  7. 請求項1記載の方法において、
    前記方法は、更に、
    前記第1の撮像モダリティを用いて取得された複数のトレーニングする原画像を受信することと、
    前記第2の撮像モダリティを用いて取得された複数のトレーニングするデスティネーション画像を受信することであって、各トレーニングするデスティネーション画像はトレーニングする原画像に対応することと、
    畳み込みニューラルネットワークアーキテクチャを決定することと、
    前記決定された畳み込みニューラルネットワークアーキテクチャに基づいて、前記トレーニングする原画像と対応するトレーニングするデスティネーション画像を用いて前記畳み込みニューラルネットワークモデルをトレーニングすることと
    を有する
    ことを特徴とする方法。
  8. 請求項7記載の方法において、
    前記畳み込みニューラルネットワークモデルをトレーニングすることは、更に、
    前記畳み込みニューラルネットワークモデルを用いて前記トレーニングする原画像を合成画像に変換することと、
    前記合成画像と前記対応するトレーニングするデスティネーション画像との間の差を決定することと、
    前記差に基づいて前記畳み込みニューラルネットワークモデルのモデルパラメータを更新することとを含む
    ことを特徴とする方法。
  9. 人体の解剖学的部分の原撮像データに基づいて前記解剖学的部分の合成撮像データを生成するためのシステムであって、
    前記システムは、
    前記人体の前記解剖学的部分の原撮像データを受信し、前記原撮像データは第1の撮像モダリティを用いて撮像装置によって取得され、前記原撮像データは前記解剖学的部分の第1の撮像モダリティ描写を提供する複数の画像を含み、そして、
    前記原撮像データに基づいて前記合成撮像データを予測するためにトレーニングされた畳み込みニューラルネットワークモデルを受信するように構成された入力インターフェースと、
    前記原撮像データおよび前記畳み込みニューラルネットワークモデルを記憶するように構成された少なくとも1つの記憶装置と、
    前記畳み込みニューラルネットワークモデルの使用を介して前記原撮像データを前記合成撮像データに変換し、前記合成撮像データは前記解剖学的部分の第2の撮像モダリティ描写に似ている複数の画像を含み、前記第2の撮像モダリティは前記第1の撮像モダリティと異なように構成された画像プロセッサとを有し、
    前記画像プロセッサは、
    前記畳み込みニューラルネットワークモデルを用いて、前記原撮像データの前記複数の画像から1つまたはそれ以上の合成画像を生成し、
    1つまたはそれ以上の生成された合成画像の複数のセットを集約し、
    前記集約された1つまたはそれ以上の生成された合成画像の複数のセットから前記合成撮像データを決定する操作で、
    前記原撮像データを前記合成撮像データに変換するように構成されている
    ことを特徴とするシステム。
  10. 請求項9記載のシステムにおいて、
    前記第1の撮像モダリティおよび前記第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、および単一光子放出コンピュータ断層撮影の群の中から選択される
    ことを特徴とするシステム。
  11. 請求項9記載のシステムにおいて、
    前記合成撮像データは、二次元画像のスタックとして提供される前記複数の画像を含む
    ことを特徴とするシステム。
  12. 請求項9記載のシステムにおいて、
    前記原撮像データは三次元ボリューム内に提供され、前記合成撮像データは三次元ボリューム内に提供される
    ことを特徴とするシステム。
  13. 請求項9記載のシステムにおいて、
    前記原撮像データを受信する操作は、前記原撮像データから隣接する二次元画像の複数のスタックを選択する操作を含み、
    前記1つまたはそれ以上の合成画像を生成する操作は、前記畳み込みニューラルネットワークモデルを使用して、前記隣接する二次元画像の各スタックから合成二次元画像のスタックを生成する操作を含む
    ことを特徴とするシステム。
  14. 請求項9記載のシステムにおいて、
    前記原撮像データを受信する操作は、三次元撮像データの第1の平面から二次元画像の第1のスタックを生成し、前記三次元撮像データの第2の平面から前記二次元画像の第2のスタックを生成する操作を含み、
    前記1つまたはそれ以上の合成画像を生成する操作は、前記畳み込みニューラルネットワークモデルを使用して、前記二次元画像の前記第1のスタックおよび前記第2のスタックから合成二次元画像の第1のスタックおよび第2のスタックを生成する操作を含む
    ことを特徴とするシステム。
  15. 請求項9記載のシステムにおいて、
    前記画像プロセッサは、更に、
    前記第1の撮像モダリティを用いて取得された複数のトレーニングする原画像を受信し、
    前記第2の撮像モダリティを用いて取得された複数のトレーニングするデスティネーション画像を受信し、各トレーニングするデスティネーション画像はトレーニングする原画像に対応し、
    畳み込みニューラルネットワークアーキテクチャを決定し、
    前記決定された畳み込みニューラルネットワークアーキテクチャに基づいて、前記トレーニングする原画像と対応するトレーニングするデスティネーション画像を用いて前記畳み込みニューラルネットワークモデルをトレーニングするように構成されている
    ことを特徴とするシステム。
  16. 請求項15記載のシステムにおいて、
    前記畳み込みニューラルネットワークモデルをトレーニングする操作は、更に、
    前記畳み込みニューラルネットワークモデルを用いて前記トレーニングする原画像を合成画像に変換し、
    前記合成画像と前記対応するトレーニングするデスティネーション画像との間の差を決定し、
    前記差に基づいて前記畳み込みニューラルネットワークモデルのモデルパラメータを更新する操作を含む
    ことを特徴とするシステム。
  17. 少なくとも1つのプロセッサにより実行されたときに、前記少なくとも1つのプロセッサが、人体の解剖学的部分の合成撮像データを生成する方法を実行するような命令を含む非一時的コンピュータ可読媒体であって、
    前記方法は、
    前記人体の前記解剖学的部分の原撮像データを獲得することであって、前記原撮像データは第1の撮像モダリティを用いて撮像装置によって取得され、前記原撮像データは前記解剖学的部分の第1の撮像モダリティ描写を提供する複数の画像を含むことと、
    前記原撮像データに基づいて前記合成撮像データを予測するためにトレーニングされた畳み込みニューラルネットワークモデルを識別することと、
    前記畳み込みニューラルネットワークモデルの使用を介して前記原撮像データを前記合成撮像データに変換することであって、前記合成撮像データは前記解剖学的部分の第2の撮像モダリティ描写に似ている複数の画像を含み、前記第2の撮像モダリティは前記第1の撮像モダリティと異なることとを有し、
    前記原撮像データを前記合成撮像データに変換することは、
    前記畳み込みニューラルネットワークモデルを用いて、前記原撮像データの前記複数の画像から1つまたはそれ以上の合成画像を生成することと、
    1つまたはそれ以上の生成された合成画像の複数のセットを集約することと、
    前記集約された1つまたはそれ以上の生成された合成画像の複数のセットから前記合成撮像データを決定することと
    を含む
    ことを特徴とする非一時的コンピュータ可読媒体。
  18. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記第1の撮像モダリティおよび前記第2の撮像モダリティは、磁気共鳴イメージング、コンピュータ断層撮影、超音波イメージング、陽電子放出断層撮影、および単一光子放出コンピュータ断層撮影の群から選択される
    ことを特徴とする非一時的コンピュータ可読媒体。
  19. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記合成撮像データは、二次元画像のスタックとして提供される前記複数の画像を含む
    ことを特徴とする非一時的コンピュータ可読媒体。
  20. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記原撮像データは三次元ボリューム内に提供され、前記合成撮像データは三次元ボリューム内に提供される
    ことを特徴とする非一時的コンピュータ可読媒体。
  21. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記原撮像データを獲得することは、前記原撮像データから隣接する二次元画像の複数のスタックを選択することを含み、
    前記1つまたはそれ以上の合成画像を生成することは、前記畳み込みニューラルネットワークモデルを使用して、前記隣接する二次元画像の各スタックから合成二次元画像のスタックを生成することを含む
    ことを特徴とする非一時的コンピュータ可読媒体。
  22. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記原撮像データを獲得することは、三次元撮像データの第1の平面から二次元画像の第1のスタックを生成し、前記三次元撮像データの第2の平面から前記二次元画像の第2のスタックを生成することを含み、
    前記1つまたはそれ以上の合成画像を生成することは、前記畳み込みニューラルネットワークモデルを使用して、前記二次元画像の前記第1のスタックおよび前記第2のスタックから合成二次元画像の第1のスタックおよび第2のスタックを生成することを含む
    ことを特徴とする非一時的コンピュータ可読媒体。
  23. 請求項17記載の非一時的コンピュータ可読媒体において、
    前記方法は、
    前記第1の撮像モダリティを用いて取得された複数のトレーニングする原画像を受信することと、
    前記第2の撮像モダリティを用いて取得された複数のトレーニングするデスティネーション画像を受信することであって、各トレーニングするデスティネーション画像はトレーニングする原画像に対応することと、
    畳み込みニューラルネットワークアーキテクチャを決定することと、
    前記決定された畳み込みニューラルネットワークアーキテクチャに基づいて、前記トレーニングする原画像と対応するトレーニングするデスティネーション画像を用いて前記畳み込みニューラルネットワークモデルをトレーニングすることと
    を更に有する命令により実行される
    ことを特徴とする非一時的コンピュータ可読媒体。
  24. 請求項23記載の非一時的コンピュータ可読媒体において、
    前記畳み込みニューラルネットワークモデルをトレーニングすることは、更に、
    前記畳み込みニューラルネットワークモデルを用いて前記トレーニングする原画像を合成画像に変換することと、
    前記合成画像と前記対応するトレーニングするデスティネーション画像との間の差を決定することと、
    前記差に基づいて前記畳み込みニューラルネットワークモデルのモデルパラメータを更新することと
    を含む
    ことを特徴とする非一時的コンピュータ可読媒体。
JP2020147991A 2016-09-06 2020-09-03 合成医療画像を生成するためのニューラルネットワーク Active JP6960509B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662384171P 2016-09-06 2016-09-06
US62/384,171 2016-09-06
US201662408676P 2016-10-14 2016-10-14
US62/408,676 2016-10-14
JP2019534634A JP6761128B2 (ja) 2016-09-06 2017-07-14 合成医療画像を生成するためのニューラルネットワーク

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019534634A Division JP6761128B2 (ja) 2016-09-06 2017-07-14 合成医療画像を生成するためのニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2021003564A JP2021003564A (ja) 2021-01-14
JP6960509B2 true JP6960509B2 (ja) 2021-11-05

Family

ID=59582003

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019534634A Active JP6761128B2 (ja) 2016-09-06 2017-07-14 合成医療画像を生成するためのニューラルネットワーク
JP2020147991A Active JP6960509B2 (ja) 2016-09-06 2020-09-03 合成医療画像を生成するためのニューラルネットワーク

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019534634A Active JP6761128B2 (ja) 2016-09-06 2017-07-14 合成医療画像を生成するためのニューラルネットワーク

Country Status (7)

Country Link
US (3) US10867417B2 (ja)
EP (1) EP3509696A1 (ja)
JP (2) JP6761128B2 (ja)
CN (2) CN113822960A (ja)
AU (1) AU2017324069B2 (ja)
RU (1) RU2698997C1 (ja)
WO (1) WO2018048507A1 (ja)

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10027816B2 (en) * 2016-08-03 2018-07-17 Pindrop Security, Inc. Call authentication using call forwarding
US10867417B2 (en) 2016-09-06 2020-12-15 Elekta, Inc. Neural network for generating synthetic medical images
WO2018082084A1 (zh) * 2016-11-07 2018-05-11 中国科学院自动化研究所 融合全卷积神经网络和条件随机场的脑肿瘤自动分割方法
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
US10699412B2 (en) * 2017-03-23 2020-06-30 Petuum Inc. Structure correcting adversarial network for chest X-rays organ segmentation
US11273553B2 (en) * 2017-06-05 2022-03-15 Autodesk, Inc. Adapting simulation data to real-world conditions encountered by physical processes
US11517768B2 (en) * 2017-07-25 2022-12-06 Elekta, Inc. Systems and methods for determining radiation therapy machine parameter settings
US10753997B2 (en) * 2017-08-10 2020-08-25 Siemens Healthcare Gmbh Image standardization using generative adversarial networks
CN107688783B (zh) * 2017-08-23 2020-07-07 京东方科技集团股份有限公司 3d图像检测方法、装置、电子设备及计算机可读介质
US10803984B2 (en) * 2017-10-06 2020-10-13 Canon Medical Systems Corporation Medical image processing apparatus and medical image processing system
US11517197B2 (en) * 2017-10-06 2022-12-06 Canon Medical Systems Corporation Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction
DE102017126158A1 (de) * 2017-11-08 2019-05-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Ultraschall-Bilderzeugungssystem
US10762620B2 (en) 2017-11-27 2020-09-01 Nvidia Corporation Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene
US11270161B2 (en) 2017-11-27 2022-03-08 Nvidia Corporation Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene
US10755407B2 (en) * 2018-01-30 2020-08-25 General Electric Company Systems and methods for capturing deep learning training data from imaging systems
US11880962B2 (en) * 2018-02-15 2024-01-23 General Electric Company System and method for synthesizing magnetic resonance images
US11088750B2 (en) * 2018-02-16 2021-08-10 Qualcomm Incorporated Feedback of beam switch time capability
US11589834B2 (en) * 2018-03-07 2023-02-28 Rensselaer Polytechnic Institute Deep neural network for CT metal artifact reduction
JP7023162B2 (ja) 2018-04-03 2022-02-21 富士フイルム株式会社 予測装置、予測方法、及び予測プログラム
EP3550515A1 (en) * 2018-04-05 2019-10-09 Siemens Healthcare GmbH Cross-modality image synthesis
US10657410B2 (en) * 2018-04-13 2020-05-19 Siemens Healthcare Gmbh Method and system for abnormal tissue detection using z-scores in a joint histogram
BR112020021311A2 (pt) * 2018-04-19 2021-01-19 Subtle Medical, Inc. Sistemas e métodos para aperfeiçoar a formação de imagem de ressonância magnética pela utilização de aprendizagem profunda
US11435460B2 (en) * 2018-05-07 2022-09-06 Fujifilm Sonosite, Inc. Ultrasound imaging system with style transfer image enhancement
JP7014044B2 (ja) * 2018-05-15 2022-02-01 コニカミノルタ株式会社 超音波診断装置
EP3572822B1 (en) * 2018-05-23 2022-03-09 RaySearch Laboratories AB Medical image conversion
US20210110520A1 (en) * 2018-05-25 2021-04-15 Vidur MAHAJAN Method and system for simulating and constructing original medical images from one modality to other modality
KR102096388B1 (ko) * 2018-06-05 2020-04-06 네이버 주식회사 모바일 환경에서 실시간 추론이 가능한 dnn 구성을 위한 최적화 기법
CN108737750A (zh) 2018-06-07 2018-11-02 北京旷视科技有限公司 图像处理方法、装置及电子设备
EP3582227A1 (de) * 2018-06-15 2019-12-18 Siemens Healthcare GmbH Verfahren zum betrieb einer medizinischen bildaufnahmeeinrichtung, bildaufnahmeeinrichtung, computerprogramm und elektronisch lesbarer datenträger
US11756160B2 (en) 2018-07-27 2023-09-12 Washington University ML-based methods for pseudo-CT and HR MR image estimation
WO2020028257A2 (en) 2018-07-30 2020-02-06 Hyperfine Research, Inc. Deep learning techniques for magnetic resonance image reconstruction
EP3834135A4 (en) * 2018-08-07 2022-05-04 BlinkAI Technologies, Inc. IMAGE ENHANCEMENT ARTIFICIAL INTELLIGENCE TECHNIQUES
EP4273793A3 (en) 2018-08-15 2023-12-20 Hyperfine, Inc. Deep learning techniques for suppressing artefacts in magnetic resonance images
WO2020035864A1 (en) * 2018-08-16 2020-02-20 Technion Research & Development Foundation Limited Systems and methods for ultrasonic imaging
JP7174568B2 (ja) * 2018-08-17 2022-11-17 日本放送協会 超解像装置およびそのプログラム
CN109124669A (zh) * 2018-08-30 2019-01-04 沈阳柏敖生信生物科技有限公司 一种整形前ct数据测量方法
JP6746160B1 (ja) * 2018-09-12 2020-08-26 株式会社Splink 診断支援システムおよび方法
US11475991B2 (en) * 2018-09-28 2022-10-18 Varian Medical Systems International Ag Methods and systems for adaptive radiotherapy treatment planning using deep learning engines
US20200104695A1 (en) * 2018-09-28 2020-04-02 Varian Medical Systems International Ag Methods and systems for radiotherapy treatment planning using deep learning engines
JP7098498B2 (ja) * 2018-10-01 2022-07-11 富士フイルム株式会社 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
JP7129869B2 (ja) * 2018-10-01 2022-09-02 富士フイルム株式会社 疾患領域抽出装置、方法及びプログラム
EP3633622A1 (en) 2018-10-02 2020-04-08 Koninklijke Philips N.V. Generation of pseudo radiographic images from optical images
US20210346720A1 (en) * 2018-10-10 2021-11-11 Washington University Image deformation methods and curved couch for radiotherapy treatment planning
JP7097794B2 (ja) * 2018-10-18 2022-07-08 富士フイルム医療ソリューションズ株式会社 情報処理システム及び情報処理方法
GB201817049D0 (en) * 2018-10-19 2018-12-05 Mirada Medical Ltd System and method for automatic delineation of medical images
US11083913B2 (en) * 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
US10835761B2 (en) 2018-10-25 2020-11-17 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MR-LINAC)
KR20200052441A (ko) * 2018-10-29 2020-05-15 삼성전자주식회사 뉴럴 네트워크를 이용하여 3d 미세구조를 생성하는 방법 및 장치
TW202023489A (zh) * 2018-11-08 2020-07-01 美商外科劇院有限責任公司 用於光學追蹤之系統及方法
WO2020123788A1 (en) 2018-12-14 2020-06-18 The Board Of Trustees Of The Leland Stanford Junior University Qualitative and quantitative mri using deep learning
KR20200075623A (ko) * 2018-12-18 2020-06-26 (주)제노레이 2차원 의료 영상 및 3차원 의료 영상의 정합을 이용한 치과 치료 계획 장치 및 방법
US11354791B2 (en) * 2018-12-19 2022-06-07 General Electric Company Methods and system for transforming medical images into different styled images with deep neural networks
US11013936B2 (en) 2018-12-21 2021-05-25 Varian Medical Systems International Ag Methods and systems for generating dose estimation models for radiotherapy treatment planning
US20220051781A1 (en) * 2018-12-21 2022-02-17 Varian Medical Systems International Ag Methods and systems for radiotherapy treatment planning based on deep transfer learning
TWI697010B (zh) * 2018-12-28 2020-06-21 國立成功大學 醫療矢面影像的取得方法、神經網路的訓練方法及計算機裝置
US20200281570A1 (en) * 2019-01-17 2020-09-10 Canon Medical Systems Corporaion Apparatus
WO2020155137A1 (en) * 2019-02-02 2020-08-06 Shanghai United Imaging Healthcare Co., Ltd. Radiation therapy system and method
JP7237624B2 (ja) * 2019-02-07 2023-03-13 浜松ホトニクス株式会社 画像処理装置および画像処理方法
EP3933764A4 (en) * 2019-02-28 2022-04-27 FUJIFILM Corporation AREA DETERMINATION DEVICE, METHOD, PROGRAM, LEARNING DEVICE, METHOD, PROGRAM AND IDENTIFICATION DEVICE
JP7387270B2 (ja) 2019-03-06 2023-11-28 キヤノンメディカルシステムズ株式会社 医用画像処理装置、学習方法、x線診断装置、医用画像処理方法、およびプログラム
KR20210141550A (ko) 2019-03-14 2021-11-23 하이퍼파인, 인크. 공간 주파수 데이터로부터 자기 공명 이미지를 생성하기 위한 딥 러닝 기법
WO2020198854A1 (en) * 2019-03-29 2020-10-08 Polyvalor, Limited Partnership Method and system for producing medical images
JP2020170408A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
EP3726460B1 (en) * 2019-04-06 2023-08-23 Kardiolytics Inc. Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images
EP3958965A4 (en) * 2019-04-26 2023-01-11 Spectronic AB GENERATION OF SYNTHETIC ELECTRON DENSITY IMAGES FROM MAGNETIC RESONANCE IMAGES
JP7242410B2 (ja) * 2019-04-26 2023-03-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線ct装置及び学習用データの生成方法
WO2020246996A1 (en) * 2019-06-06 2020-12-10 Elekta, Inc. Sct image generation using cyclegan with deformable layers
US11067786B2 (en) * 2019-06-07 2021-07-20 Leica Microsystems Inc. Artifact regulation methods in deep model training for image transformation
EP3754558A1 (en) * 2019-06-20 2020-12-23 Koninklijke Philips N.V. Method and system for generating a synthetic elastrography image
US11200456B2 (en) 2019-07-31 2021-12-14 GE Precision Healthcare LLC Systems and methods for generating augmented training data for machine learning models
US11040221B2 (en) 2019-08-13 2021-06-22 Elekta Ltd. Adaptive radiation therapy using composite imaging slices
BR112022003391A2 (pt) * 2019-08-23 2022-05-17 Subtle Medical Inc Sistemas e métodos para a tomografia precisa e rápida de emissão de positron utilizando o aprendizado pro-fundo
JP7170602B2 (ja) * 2019-08-27 2022-11-14 富士フイルム富山化学株式会社 学習データ作成装置及び方法、並びに機械学習装置及び方法
EP4031895A1 (en) 2019-09-18 2022-07-27 Bayer Aktiengesellschaft System, method, and computer program product for predicting, anticipating, and/or assessing tissue characteristics
ES2955349T3 (es) * 2019-09-18 2023-11-30 Bayer Ag Predicción de imágenes MRI mediante un modelo de predicción entrenado por aprendizaje supervisado
US11557038B2 (en) 2019-10-17 2023-01-17 Electronics And Telecommunications Research Institute Apparatus and method for x-ray data generation
RU2716914C1 (ru) * 2019-10-22 2020-03-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Юго-Западный государственный университет" (ЮЗГУ) Способ автоматической классификации рентгеновских изображений с использованием масок прозрачности
CN110895320B (zh) * 2019-10-31 2021-12-24 清华大学 基于深度学习的无变形单次激发平面回波成像方法及装置
CN110852325B (zh) * 2019-10-31 2023-03-31 上海商汤智能科技有限公司 图像的分割方法及装置、电子设备和存储介质
US11145042B2 (en) * 2019-11-12 2021-10-12 Palo Alto Research Center Incorporated Using convolutional neural network style transfer to automate graphic design creation
WO2021100906A1 (ko) * 2019-11-20 2021-05-27 오주영 심층신경망을 이용한 가상 엑스레이 영상 표시 방법
US11424037B2 (en) 2019-11-22 2022-08-23 International Business Machines Corporation Disease simulation in medical images
US11596807B2 (en) * 2019-11-25 2023-03-07 Accuray Incorporated Partial deformation maps for reconstructing motion-affected treatment dose
CN111105472B (zh) * 2019-11-26 2024-03-22 上海联影智能医疗科技有限公司 Pet图像的衰减校正方法、装置、计算机设备和存储介质
US20230010686A1 (en) * 2019-12-05 2023-01-12 The Regents Of The University Of California Generating synthetic patient health data
JP7483361B2 (ja) * 2019-12-06 2024-05-15 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
KR102530103B1 (ko) * 2020-01-17 2023-05-09 재단법인대구경북과학기술원 X-ray 영상 합성을 위한 장치 및 그 방법
US11348243B2 (en) 2020-01-24 2022-05-31 GE Precision Healthcare LLC Systems and methods for medical image style transfer using deep neural networks
US11077320B1 (en) 2020-02-07 2021-08-03 Elekta, Inc. Adversarial prediction of radiotherapy treatment plans
JPWO2021171394A1 (ja) * 2020-02-26 2021-09-02
JP7323885B2 (ja) * 2020-03-04 2023-08-09 株式会社Kompath 画像処理装置、画像処理モデル生成装置、学習用データ生成装置、及びプログラム
CN113359076B (zh) * 2020-03-06 2022-09-27 上海联影医疗科技股份有限公司 磁共振成像方法、装置、计算机设备和存储介质
US11562482B2 (en) * 2020-03-30 2023-01-24 Varian Medical Systems International Ag Systems and methods for pseudo image data augmentation for training machine learning models
CN111583303A (zh) * 2020-05-09 2020-08-25 江苏瑞尔医疗科技有限公司 基于mri图像生成伪ct图像的系统及方法
WO2021236306A1 (en) * 2020-05-22 2021-11-25 Virginia Commonwealth University Synthetic ct using mri
CN111915555A (zh) * 2020-06-19 2020-11-10 杭州深睿博联科技有限公司 一种3d网络模型预训练方法、系统、终端及存储介质
WO2022011023A1 (en) * 2020-07-07 2022-01-13 The General Hospital Corporation Determining a clinical parameter via evaluation of sequential medical images
CN111915733B (zh) * 2020-08-11 2022-10-25 天津大学 基于LeNet网络的三维锥束X射线发光断层成像方法
CN111931772B (zh) * 2020-09-18 2021-02-09 平安科技(深圳)有限公司 医学图像处理方法、装置、设备及存储介质
CN112233125B (zh) * 2020-10-15 2023-06-02 平安科技(深圳)有限公司 图像分割方法、装置、电子设备及计算机可读存储介质
WO2022106302A1 (en) 2020-11-20 2022-05-27 Bayer Aktiengesellschaft Representation learning
WO2022120762A1 (zh) * 2020-12-10 2022-06-16 中国科学院深圳先进技术研究院 多模态医学图像生成方法和装置
EP4019084A1 (en) * 2020-12-22 2022-06-29 Koninklijke Philips N.V. Planning apparatus for planning a radiation therapy
WO2022163402A1 (ja) * 2021-01-26 2022-08-04 富士フイルム株式会社 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置
WO2022179896A2 (en) 2021-02-26 2022-09-01 Bayer Aktiengesellschaft Actor-critic approach for generating synthetic images
US11908047B2 (en) * 2021-03-11 2024-02-20 Siemens Healthineers Ag Generating synthetic x-ray images and object annotations from CT scans for augmenting x-ray abnormality assessment systems
KR102514709B1 (ko) * 2021-03-12 2023-03-29 한국과학기술원 두 단계 비지도 학습 기반 뉴럴 네트워크를 이용한 3차원 비행시간 자기공명혈관영상 처리 방법 및 그 장치
KR102320431B1 (ko) * 2021-04-16 2021-11-08 주식회사 휴런 의료 영상 기반 종양 검출 및 진단 장치
US11989871B2 (en) 2021-06-02 2024-05-21 Canon Medical Systems Corporation Model training apparatus and method
US11823399B2 (en) * 2021-06-16 2023-11-21 Siemens Medical Solutions Usa, Inc. Multi-scan image processing
WO2023279188A1 (en) * 2021-07-08 2023-01-12 Elekta Limited Quality factor using reconstructed images
RU2768544C1 (ru) * 2021-07-16 2022-03-24 Общество С Ограниченной Ответственностью "Инновационный Центр Философия.Ит" Способ распознавания текста на изображениях документов
WO2023054089A1 (ja) * 2021-10-01 2023-04-06 ソニーグループ株式会社 映像処理システム、並びに、医療情報処理システムおよび動作方法
CN113962984A (zh) * 2021-11-15 2022-01-21 北京航空航天大学 基于深度学习算法的质子ct成像方法、装置和电子设备
WO2023129630A1 (en) * 2021-12-30 2023-07-06 Memorial Sloan-Kettering Cancer Center Systems and methods for magnetic resonance fingerprinting with increased volumetric coverage using deep learning reconstruction
EP4210069A1 (en) 2022-01-11 2023-07-12 Bayer Aktiengesellschaft Synthetic contrast-enhanced ct images
CN114513662B (zh) * 2022-04-19 2022-06-17 北京云中融信网络科技有限公司 一种qp自适应环内滤波方法、系统、电子设备及存储介质
CN114796901A (zh) * 2022-05-30 2022-07-29 北京大学第一医院 一种腰骶神经根的自动勾画方法、设备及存储介质
JP2023176256A (ja) * 2022-05-31 2023-12-13 楽天グループ株式会社 画像からデータを予測する方法、コンピュータシステム、及びコンピュータ可読媒体
WO2024107695A1 (en) * 2022-11-16 2024-05-23 Subtle Medical, Inc. Systems and methods for arbitrary level contrast dose simulation in mri
KR102593628B1 (ko) * 2023-07-10 2023-10-24 주식회사 뉴큐어엠 고품질 의료 영상 생성 방법 및 시스템
CN116977471B (zh) * 2023-08-04 2024-06-07 广州柏视医疗科技有限公司 一种生成合成计算机断层扫描图像的方法和设备
KR102631389B1 (ko) * 2023-11-13 2024-01-30 주식회사 뉴큐어엠 Ct 영상 기반의 mri 영상 생성 방법 및 시스템

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3770280B2 (ja) * 1996-03-29 2006-04-26 株式会社日立メディコ 三次元画像の表示方法及び装置
US6819790B2 (en) * 2002-04-12 2004-11-16 The University Of Chicago Massive training artificial neural network (MTANN) for detecting abnormalities in medical images
EP2457216B1 (en) 2009-07-20 2017-11-08 Koninklijke Philips N.V. Anatomy modeling for tumor region of interest definition
US8774482B2 (en) * 2010-05-20 2014-07-08 Siemens Aktiengesellschaft Generating pseudo-CT image volumes from ultra-short echo time MR
RU2587427C2 (ru) * 2010-07-30 2016-06-20 Конинклейке Филипс Электроникс Н.В. Улучшающий фильтр для конкретного органа для надежной сегментации медицинских изображений
US20130208964A1 (en) 2010-10-25 2013-08-15 Koninklijke Philips Electronics N.V. System for the segmentation of a medical image
US9256965B2 (en) 2013-01-30 2016-02-09 Impac Medical Systems, Inc. Method and apparatus for generating a derived image using images of different types
US9412076B2 (en) 2013-07-02 2016-08-09 Surgical Information Sciences, Inc. Methods and systems for a high-resolution brain image pipeline and database program
JP6378778B2 (ja) * 2014-03-28 2018-08-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 組織種類分離の助けを借りて磁気共鳴画像に基づき1つ以上のコンピュータ断層撮影画像を生成する方法及び装置
CN106462948B (zh) * 2014-04-01 2019-06-25 皇家飞利浦有限公司 一种估计伪亨氏单位值的方法
US10149987B2 (en) 2014-05-04 2018-12-11 Spectronic Ab Method and system for generating synthetic electron density information for dose calculations based on MRI
US9740710B2 (en) 2014-09-02 2017-08-22 Elekta Inc. Systems and methods for segmenting medical images based on anatomical landmark-based features
US9922272B2 (en) * 2014-09-25 2018-03-20 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
KR102328269B1 (ko) * 2014-10-23 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
US9349178B1 (en) 2014-11-24 2016-05-24 Siemens Aktiengesellschaft Synthetic data-driven hemodynamic determination in medical imaging
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning
US10867417B2 (en) 2016-09-06 2020-12-15 Elekta, Inc. Neural network for generating synthetic medical images
CN107920279B (zh) 2016-10-08 2020-03-20 华为技术有限公司 评估视频质量的方法和设备
US10916001B2 (en) * 2016-11-28 2021-02-09 Adobe Inc. Facilitating sketch to painting transformations
US11449757B2 (en) * 2017-05-16 2022-09-20 Sightline Innovation Inc. Neural network system for non-destructive optical coherence tomography

Also Published As

Publication number Publication date
CN113822960A (zh) 2021-12-21
US20240185477A1 (en) 2024-06-06
AU2017324069B2 (en) 2019-12-19
EP3509696A1 (en) 2019-07-17
RU2698997C1 (ru) 2019-09-02
US20190362522A1 (en) 2019-11-28
JP2019534763A (ja) 2019-12-05
AU2017324069A1 (en) 2019-05-02
US11954761B2 (en) 2024-04-09
JP2021003564A (ja) 2021-01-14
CN110234400A (zh) 2019-09-13
WO2018048507A1 (en) 2018-03-15
CN110234400B (zh) 2021-09-07
JP6761128B2 (ja) 2020-09-23
US10867417B2 (en) 2020-12-15
US20210056734A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
JP6960509B2 (ja) 合成医療画像を生成するためのニューラルネットワーク
US20240075315A1 (en) System and method for learning models of radiotherapy treatment plans to predict radiotherapy dose distributions
US11547874B2 (en) Machine learning approach to real-time patient motion monitoring
US11491348B2 (en) Real-time patient motion monitoring using a magnetic resonance linear accelerator (MRLINAC)
US11699281B2 (en) Image synthesis using adversarial networks such as for radiation therapy
CN116391234A (zh) 放射治疗的注量图的机器学习优化

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6960509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150