JP7246866B2 - 医用画像処理装置 - Google Patents

医用画像処理装置 Download PDF

Info

Publication number
JP7246866B2
JP7246866B2 JP2018096474A JP2018096474A JP7246866B2 JP 7246866 B2 JP7246866 B2 JP 7246866B2 JP 2018096474 A JP2018096474 A JP 2018096474A JP 2018096474 A JP2018096474 A JP 2018096474A JP 7246866 B2 JP7246866 B2 JP 7246866B2
Authority
JP
Japan
Prior art keywords
image
weighted
images
imaging
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018096474A
Other languages
English (en)
Other versions
JP2018192264A (ja
Inventor
スローン ジェイムス
ゴートマン キース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2018192264A publication Critical patent/JP2018192264A/ja
Application granted granted Critical
Publication of JP7246866B2 publication Critical patent/JP7246866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5602Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by filtering or weighting based on different relaxation times within the sample, e.g. T1 weighting using an inversion pulse
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/4812MR combined with X-ray or computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本実施形態は、医用画像処理装置に関する。
医用撮像において、異なる撮像モダリティは、臨床医に相補的な情報を提供するために使用することができる。係る相補的な情報とは、一つの取得には存在するものの、異なる取得には存在しない情報を指すことがある。異なるシーケンス(例えば、磁気共鳴撮像法でのT1-強調及びT2-強調シーケンス)、或いは異なる取得技法(例えば、コントラストと非コントラスト)も、相補的な情報を提供するために使用することができる。
相補的な情報例としては、異なる物理的パラメータ、解剖学的情報対機能的情報、フロー又はパフュージョン、又は軟組織対硬組織コントラストなどを含むことができる。
所定のモダリティ、シーケンス、又は、取得技法(撮影手法、画像処理方法等)は、異なるモダリティ、シーケンス、又は、取得技法の使用では収集が不可能な情報を提供することができる。
例えば、真のT2-磁気共鳴(MR)画像は、T1弛緩時間とT2弛緩時間とに単調な関係が存在しないので、T1-強調MR画像から収集することができない。MRスタディは、T1-強調データにおいてのみ得られる情報と、T2-強調データにおいてのみ得られる相補的な情報とを取得するために、T1-強調データとT2-強調データとの両方の取得を含むことがある。
一つ以上のモダリティを使用するデータ収集に対して、同様の検討が適用できる。例えば、CTデータからは硬組織に関する情報を、MRデータからは相補的な柔組織に関する情報を収集するために、CTデータ(コンピュータ断層撮影)とMRデータとの両方を取得することができる。
特表2015-514447号公報
例えば一つのモダリティ又は一つのシーケンスのデータと、異なるモダリティ又はシーケンスのデータとをシミュレートする深層学習ネットワークを使用する装置等を提供することができれば、従来には存在しない有益な医用画像を実現することができる。
本実施形態は、上記装置等を提供することを目的とする。
本実施形態に係る医用画像処理装置は、被検体の解剖学的領域について第一の撮像法を用いて撮像された第一の画像を取得する取得部と、前記第一の画像を用いて、前記第一の撮像法とは異なる第二の撮像法に対応するシミュレーション画像としての第二の画像を生成する生成部であって、前記第二の画像と前記第二の撮像法によって現実に取得された第三の画像とを区別する識別器を用いた敵対的な訓練処理を繰り返すことで訓練された生成部と、を具備する。
実施形態に係る装置の概略図。 シミュレーション処理の概要を描いているフローチャート。 二つのアーム識別器(ディスクリミネータ)を具備する敵対的なネットワークの概略図。 実施形態に係る訓練処理の概要を描いているフローチャート。 一つのアーム識別器を具備する敵対的なネットワークの概略図。 単一アーム識別器と二つのアーム識別器とについてのピーク信号対ノイズ比とエポック数との対比のプロット図。 実施形態に係るシミュレーションとレジストレーション処理の概要を描いているフローチャート。 正規化された勾配フィールドを使用するマルチモーダルレジストレーションについての既知の回転値に対する計算された回転値のプロット図。 正規化された勾配フィールドを使用するマルチモーダルレジストレーションについての既知のx並進値に対する計算されたx並進値のプロット図。 正規化された勾配フィールドを使用するマルチモーダルレジストレーションについての既知のy並進値に対する計算されたy並進値のプロット図。 差の二乗和の類似性指標を使用して、合成されたT―2強調画像をリアルT2-強調画像へのレジストレーションについての既知の回転値に対する計算された回転値のプロットである。 差の二乗和の類似性指標を使用して、合成されたT2-強調画像をリアルT2-強調画像へのレジストレーションについての既知のx並進値に対する計算されたx並進値のプロットである。 差の二乗和の類似性指標を使用して、合成されたT2-強調画像をリアルT2-強調画像へのレジストレーションについての既知のy並進値に対する計算されたy並進値のプロットである。
実施形態に係る画像処理装置(画像データ処理装置)10は、図1に概略的に描かれている。図1の実施形態において、装置10は、T1-強調撮像を使用して取得された画像からT2-強調MR撮像を使用して取得された画像をシミュレートするために訓練されたシミュレータを使用するよう構成されている。その他の実施形態において、第一の装置がシミュレータを訓練するために使用することができ、又第二の、異なる装置が画像をシミュレートするために訓練されたシミュレータを使用することができる。更なる実施形態では、任意の装置、又は、装置の含み合わせを使用することがある。
更なる実施形態で、装置10は、シミュレータを訓練するために使用することができる。装置10は、例えば任意の適切なモダリティ、シーケンス、取得技法、又は、処理技法を使用して収集されたデータなど、撮像手順の任意の適切なタイプを使用して収集されたデータをシミュレートする。装置10は、任意の所定の第一のタイプの撮像手順(例えば、任意の所定のモダリティ、シーケンス、取得技法又は処理技法)を使用して取得された画像を受け取り、係る受け取った画像を任意の所定の第二のタイプの撮像手順(例えば、任意のその他のモダリティ、シーケンス、取得技法又は処理技法)を使用して取得されたように見える画像へと変換することができる。
画像処理装置10は、この場合にはパーソナルコンピュータ(PC:personal computer)、又は、ワークステーション等の計算装置12を備え、計算装置12は、磁気共鳴イメージング装置(磁気共鳴(MR)スキャナ)14、一つ又は複数の表示スクリーン16と、そしてコンピュータキーボード、マウス、又は、トラックボールなどの一つ又は複数の入力デバイス18に接続されている。
磁気共鳴イメージング装置14は、T1-強調撮像を実行するよう構成された任意の磁気共鳴イメージング装置とすることができる。磁気共鳴イメージング装置14は、患者又はその他の被検体の少なくとも一つの解剖学的領域を表すT1-撮像データを生成するよう構成されている。本実施形態において、解剖学的領域は頭部である。その他の実施形態では、任意の解剖学的領域を画像化することができる。
更なる実施形態において、磁気共鳴イメージング装置は、例えばT2-強調撮像データ、又は、拡散強調撮像データなど、任意のMRデータを取得するよう構成することができる。
代替的な実施形態において、磁気共鳴イメージング装置14は、任意のその他の撮像モダリティにおける、二次元又は三次元撮像データを取得するよう構成されたスキャナによって、置き換える、又は、補うことができる。係る任意のその他の撮像モダリティとは、例えばCT(コンピュータ断層撮影)スキャナ、コーンビームCTスキャナ、X線スキャナ、超音波スキャナ、PET(ポジトロン放出断層撮影)スキャナ、又はSPECT(単光子放出コンピュータ断層撮影)スキャナである。
本実施形態において、磁気共鳴イメージング装置14によって収集された撮像データセットは、データストア20に格納されて、その後計算装置12に提供される。代替的な実施形態において、撮像データセットは、医用画像保管通信システム(PACS)の一部を形成することができる遠隔データストア(図示せず)から供給される。データストア20又は遠隔データストアは、メモリストレージの任意の適切な形を具備することができる。
計算装置12は、画像データを含む、データの処理のための処理装置22を具備する。処理装置22は、撮像データセットを自動的に、又は、半自動的に処理するための処理リソースを提供する。処理装置22は、中央処理装置(CPU:central processing unit)と図形処理ユニット(GPU:Graphical Processing Unit)とを具備する。
処理回路22は、T1-強調画像からT2-強調画像をシミュレートするためにシミュレータを訓練するよう構成された訓練回路24と、T1-強調画像からT2-強調画像をシミュレートするために訓練されたシミュレータを使用するよう構成されたシミュレーション回路26(シミュレータ32、画像生成部42と対応)と、シミュレートT2-強調画像をリアルT2-強調画像にレジストレーションするよう構成されたレジストレーション回路28と、を含む。本実施形態において、訓練回路24は、GPUで実行され、シミュレーション回路26とレジストレーション回路28とは、CPU又はGPUのどちらかで実行することができる。その他の実施形態において、訓練回路24、シミュレーション回路26、そしてレジストレーション回路28とは、CPUにおいて、GPUにおいて、又はCPUとGPUとの組み合わせでそれぞれ実行することができる。
本実施形態において、回路24、26、28は、実施形態の方法を実行することが可能なコンピュータ読み取り可能命令を有するコンピュータプログラムの方法で、CPU、及び/又は、GPUでそれぞれ実行される。その他の実施形態において、様々な回路は1つ以上のASIC(特定用途向け集積回路)又はFPGA(フィールドプログラマブルゲートアレイ)として実施することがある。
計算装置12は、ハードドライブと、RAM、ROM、データバス等その他のPCの構成要素と、様々なデバイスドライバなどオペレーティングシステムと、グラフィックスカードなどハードウェアデバイスとを含む。このような構成要素は、図が見やすいように、図1には示されていない。
図2は、シミュレーションプロセスを要約したフローチャートである。シミュレータ32は、第一の画像30を表す医用画像データの第一のセットを受け取る。係る医用画像データの第一のセットは、第一の画像モダリティAを使用して、収集されたものである。画像データの第一のセットは、各ピクセルが第一の画像30における対応する空間位置を表している状態で、輝度に関連付けられた複数のピクセルを具備することができる。
シミュレータ32は、第二の画像34を表す画像データの第二のセットを取得するために、第一の画像30を表す画像データの第一のセットを処理する。画像データの第二のセットは、第一の画像モダリティAを使用して収集された画像データを処理することにより取得されるが、画像データの第二のセットは、第二の画像モダリティBを特徴付ける属性を有する。例えば、画像データの第二のセットは、第二の画像モダリティBを特徴付ける、輝度値、コントラスト値、信号対ノイズ比、解像度、シャープネス又は特色の定義を有する。画像データの第二のセットの見た目は、第二の画像が、観察者にとってあたかも第二の画像モダリティBを使用して収集されたかのように見せることができる。
画像データの第二のセットは、画像データの第一のセットと同じ空間(座標系)に存在する。画像データの第二のセットは、従って画像データの第一のセットと同じ解剖学的領域を示している。画像データの第二のセットは、第二の画像モダリティBを使用して収集された解剖学的領域の画像をシミュレートすると考えることができ。画像データの第二のセットは、「シミュレートされた画像データ」と呼ばれることがある。
図3は、本実施形態のシミュレータ40を表す概略図である。簡略化のために、以下の説明文において、シミュレータ40は、第一の画像を受け取り、第二の、シミュレートされた画像を取得するために第一の画像を処理するものとして、言及されている。しかし、実際にシミュレータ40は、第一の画像を表す画像データのセットを受け取り、且つ第二の、シミュレートされた画像を表す画像データのセットを出力する。実施形態の中には、対応する画像が表示されることなく、画像データが内部的に処理されるものがある。
更なる実施形態において、シミュレータは、画像を直接的に表すものでは無いことのある、任意の適切な撮像データを受け取ることができる。例えば、シミュレータは、任意の適切な医用撮像スキャンから取得された任意の二次元、又は、三次元撮像データを受け取ることができる。撮像データは、全体画像ボリューム、又は、部分的な(例えば、スラブ)画像ボリュームを表すことができる。撮像データは、シミュレータに提供される前に、前処理することができる。例えば、撮像データは、シミュレータに提供される前に、セグメントすることができる。係る撮像データは、例えばノイズレベルを下げるために、フィルタを掛けることができる。
シミュレータは、異なるタイプの撮像手順を使用して取得された撮像データをシミュレートする、撮像データを収集するために撮像データを処理することができる。状況次第で、シミュレートされた画像データはその後、シミュレートされた画像を取得するためにレンダリングすることもできる。
本実施形態において、シミュレータ40は、決定論的敵対的ネットワーク(DAN:deterministic adversarial network)と呼ぶことができる、敵対的ネットワークを具備する。係る決定論的敵対的ネットワークは、二つの部分から成る。まず決定論的敵対的ネットワークの第一の部分は、生成部(ジェネレータ)、モダリティ生成部、又はモダリティ変換器とも呼ばれることのある、画像生成部42である。係る画像生成部42は、第一の深層学習ネットワークを具備する。次に決定論的敵対的ネットワークの第二の部分は、識別器46である。係る識別器46は、第二の深層学習ネットワークを具備する。
深層学習ネットワークは、何層にも積み重なったニューロンを具備するニューラルネットワークとすることができる。何層にも積み重なったニューロンは、その後の層の入力として、一つ又は複数の手前の層の出力を使用する、非線形活性化機能を有することができる。深層学習モデルは、入力空間から出力空間までの非線形なマッピングを高度に構築することができ、それにより、モデルとなる予定の処理、又は、タスクの複雑な関係性を捉えることができる。
本実施形態において、各画像生成部42と識別器46とは、個別の畳み込みニューラルネットワークを具備する。その他の実施形態で、任意の適切なタイプの深層学習ネットワークを使用することができるが、例えば多層パーセプトロン、スキップ接続を伴う畳み込みニューラルネットワーク、回帰性ニューラルネットワーク等である。
画像生成部42は、実世界画像(real world image)41を受け取り、且つシミュレートされた画像である出力44を生み出すように構成されている。本実施形態において、実世界画像41はリアルT1-強調画像で、出力44はシミュレートされたT2-強調画像である。
識別器46は、画像生成部42からシミュレート画像44と、リアル画像45と、を受け取るよう構成されている。この識別器46は、画像44、45のうちどちらがリアルであると判断し、且つそれらのうちどちらが偽者(シミュレートされた)であると判断したかという、決定48を生み出すよう構成されている。識別器46は、画像44、45のうちの一方がリアルで、且つそれらのうちの他方が偽物であるとして、常に区分する。識別器46は、リアルT2-強調撮像スキャンから取得されたと判断した画像44、45のうちの一方をリアルとして区分する。識別器46は、リアルT2-強調撮像スキャンから取得されなかったと判断した画像44、45のうちの一方を偽物として区分する。
本実施形態において、シミュレートされた画像は、画像生成部42によって生成されたシミュレートされたT2-強調画像である。リアル画像は、リアルT2-強調画像である。識別器46は二つの入力を有していることから、2アーム識別器と呼ぶことができる。
図4は、第一のタイプの撮像手順を使用して収集された画像から第二のタイプの撮像手順を使用して収集された画像をシミュレート(生成)するために、シミュレータの訓練方法の概要を描いているフローチャートである。図4の実施形態において、第一及び第二のタイプの撮像手順は、異なるMRシーケンスである。第一のタイプはT1-強調であり、第二のタイプはT2-強調である。シミュレータ40は、図3を参考に上記で述べられた通りである。
その他の実施形態で、第一及び第二のタイプの撮像手順は、任意の適切なモダリティ、シーケンス、取得技法、又は処理技法とすることができる。
図4のステージ50で、訓練回路24は、データストア20から訓練データを受け取る。本実施形態において、訓練データは、磁気共鳴イメージング装置14によって以前に収集されたMRデータのセットを具備する、又はセットから取得される。その他の実施形態において、訓練データは、一つ又は複数の更なる磁気共鳴イメージング装置によって収集されたものとすることができる。
訓練データは、複数の訓練データのセットを具備する。各訓練データセットは、T1―強調画像と、それと同じ被検体の同じ解剖学的領域について対応するT2-強調画像とを具備する。例えば、各訓練データセットは、T1-強調データとT2-強調データとの両方が収集されたスタディに由来することがあり、例えば患者頭部のMRスキャンは、T1-強調とT2-強調撮像との両方を具備している。
本実施形態において、二〇〇〇個の訓練データセットがシミュレータ40をトレーニングする際に使用される。その他の実施形態において、例えば何百個や何千個等、任意の適切な訓練データセット数を使用することがある。
図4のプロセスのステージ51で、訓練回路42は、画像生成部訓練処理を実行する。係る画像生成部訓練処理は、画像生成部42の深層学習ネットワークに対する重みのセットを決定することを具備するが、本実施形態におけるネットワークは、畳み込みニューラルネットワークである。しかしながら、当該例に限定することなく、本実施形態におけるネットワークは、畳み込みニューラルネットワーク、スキップ接続を伴う畳み込みニューラルネットワーク、多層ニューラルネットワーク、再帰型ニューラルネットワークのうちの少なくとも一つを有する構成であってもよい。
画像生成部42は、訓練データセットを使用して訓練される。各訓練データセットに対して、画像生成部42は、T1-強調画像からシミュレートされたT2-強調画像を生成する。訓練回路24は、シミュレートされたT2-強調画像をリアルT2-強調画像と比較する。
画像生成部42の重みは、目的関数に従って調節される。目的関数は、シミュレートされたT2-強調画像とリアルT2-強調画像との間の指標(差に基づく物差し等)を提供する。本実施形態において、誤差の第一の要素の目的関数は、平均二乗誤差関数である。その他の実施形態において、例えば平均絶対誤差又はフーバー損失等、任意の適切な目的関数を使用することができる。
その他の実施形態で、画像生成部42、及び/又は、識別器46の任意の適切な前訓練を実行することができる。
図4のプロセスのステージ52と54とで、画像生成部42と識別器46とは、敵対的なやり方で繰り返し訓練される。識別器46は、リアル強調画像T2-強調画像と、画像生成部42によってシミュレートされたシミュレートされたT2-強調画像と、を区別するために訓練される。画像生成部42は、識別器46を誤魔化すのには十分なリアルT2-強調画像に似たT2-強調画像をシミュレートするよう訓練される。画像生成部42の最適化と識別器46の最適化とを交互に入れ替えることにより、画像生成部42は現実的なシミュレートされた画像を生み出すことが上手くなり、且つ識別器46はリアル画像とシミュレートされた画像とを区別することが上手くなる。画像生成部42と識別器46とを敵対的な機能で共に訓練することにより、画像生成部42が単独で訓練されるよりも、より良いシミュレート画像を生み出すことができる。
敵対的なやり方での深層学習ネットワークの訓練は、次の文献において詳しく述べられているが、ここにはその文献名を記すことでその文献全てを含むものとする。Goodfellow et al, Generative Adversarial Nets, NIPS’14 Proceedings of the 27th International Conference on Neural Information Processing Systems, pages 2672―2680。
シミュレーション回路26は、識別器46とバッチ式ベースで識別器46にリンク付けられた画像生成部42とを入れ替える。
図4のステージ52及び54の詳細に戻って、ステージ52で訓練回路24は、識別器訓練処理を実行する。識別器訓練処理は、識別器の深層学習ネットワークに対する重みのセットを決定することを具備するが、本実施形態におけるネットワークは、畳み込みニューラルネットワークである。しかしながら、当該例に限定することなく、本実施形態におけるネットワークは、畳み込みニューラルネットワーク、スキップ接続を伴う畳み込みニューラルネットワーク、多層ニューラルネットワーク、再帰型ニューラルネットワークのうちの少なくとも一つを有する構成であってもよい。
識別器46の訓練は、実世界サンプルと画像生成部42によって作り出されたサンプルとを使用することを含む。本実施形態において、実世界サンプルとは、訓練データセットからのT2-強調画像である。画像生成部42によって作り出されたサンプルは、訓練データセットからのT1-強調画像からの画像生成部42によってシミュレートされた、シミュレートされたT2-強調画像である。
複数の訓練データセットのそれぞれに対して、識別器は、係る訓練データセットに対するリアルT2-強調画像と、係る訓練データセットに対するT1-強調画像からシミュレートされたシミュレートされたT2-強調画像と、を受け取る。識別器は、二つの画像のうちのどちらがリアルでどちらがシミュレートされたものか、を決定するよう試みる。
識別器46の訓練は、識別器46のエラー信号を最小化することを含む。識別器46のエラー信号は、識別器46のリアルT2-強調画像とシミュレートされたT2-強調画像との区別の成功度を表す。識別器46の重みは、識別器46のエラー信号に応じて更新される。
本実施形態において、識別器46のエラー機能は、二値相反エントロピー(binary cross entropy)である。係る二値相反エントロピーと、いくつかの変化のオートエンコーダによって使用することができる、平均二乗誤差とは別物である。
ステージ54で、訓練回路24は、画像生成部訓練処理を実行する。画像生成部訓練処理は、画像生成部42の深層学習ネットワークに対する重みのセットを決定することを具備するが、本実施形態におけるネットワークは、畳み込みニューラルネットワークである。
識別器46は、画像生成部42の訓練において使用される。画像生成部42を訓練する一方、識別器の重みは凍結(frozen)され、画像生成部42の重みだけが更新される。画像生成部42の出力は、識別器46のエラー信号の逆伝播を許可するために、識別器46への入力として直接リンク付けされる。
画像生成部42は、訓練データセットを使用しながら訓練される。複数の訓練データセットのそれぞれに対して、画像生成部42は、T1-強調画像からシミュレートされたT2-強調画像を生成する。訓練回路24は、シミュレートされたT2-強調画像をリアルT2-強調画像と比較する。
本実施形態において、画像生成部42の訓練の際、エラー関数Eは二つの要素を具備する。
一つ目の要素は、画像生成部42の出力の、予測値及び既知値との間で最小化される目的関数である。本実施形態において、出力の予測値は、シミュレートされたT2―強調画像である。また出力の既知値は、リアルT2-強調画像である。目的関数は、シミュレートされたT2-強調画像とリアルT2-強調画像との間の差の指標を提供する。
本実施形態において、エラーのこの第一の要素の目的関数は、平均二乗誤差関数である。その他の実施形態で、例えば平均絶対誤差関数又はフーバー損失等、任意の目的関数を使用することができる。任意の適当な処理が、目的関数を最小化、又は、減らすために使用することができる。本実施形態において、エラー関数の第一の要素として使用される目的関数は、前訓練ステージ51で使用されたような目的関数と正に同じである。その他の実施形態において、異なる目的関数を使用することができる。
エラー関数Eの二つ目の要素は、所定の画像がリアルか偽物かを検出する、識別器46のエラーである。画像生成部42は、生成された画像が本物であると識別器46を信じ込ませるよう騙すために積極的に訓練されているので、画像生成部42における重みは、識別器46のエラー信号を最大化するように訓練する一方で、調整される。
画像生成部42を訓練する際、画像生成部42の出力と既知の輝度値との間の平均二乗エラーを最小化し、且つ識別器46のエラーの最大化もする。画像生成部42の重みは、誤差関数の二つの要素に応答して調整される。
ステージ54で画像生成部42を訓練した後、フローチャートは識別器を再び訓練するためにステージ52へと戻る。ステージ52と54とは、方法が収束するまで繰り返される。ステージ52と54との反復は、ステージ52、又は、ステージ54のどちらかで終了することがある。本実施形態は、識別器46と画像生成部42とを訓練する約一万回の交互の(alternating)ステップを具備する。その他の実施形態で、任意の反復数を使用することができる。
つまり、シミュレータ40を訓練するために、画像生成部42及びリアル画像(Real World Images/Real Images)の出力についての識別器46の訓練と、識別器の重み及びシミュレータ40全体の訓練を凍結と、を切り換えることで、画像生成部42の重みだけを更新する、ということである。
図4のステージ56で、訓練回路24は、訓練されたシミュレータ40を出力する。本実施形態において、訓練回路24は、訓練された画像生成部42と訓練された識別器46との両方を出力する。更なる実施形態で、訓練回路24は、訓練された画像生成部42のみを出力する。
訓練されたシミュレータ40は、T1-強調画像を、T2-強調画像と同様の属性(例えば、輝度、コントラストや解像度)を有する画像へと、変換するように訓練されている。シミュレータ40は、深層学習を使用しながら訓練される為、シミュレート画像をリアル画像に似させる属性は、訓練処理の開始前には知られていないだろう。シミュレータの訓練は、シミュレーションで使用された属性に対する値のみならず、属性そのものの特定も具備することができる。状況によっては、属性が明白に特定されることなくシミュレートする場合がある。
画像生成部42と識別器46とを敵対的なやり方で訓練することにより、画像生成部42が識別器からの出力を使用することなく単独で訓練される場合よりも、より良いシミュレータ40を生み出すことができる。決定論的敵対的ネットワークを使用することで、鮮明で詳細なシミュレートされた画像を提供することができる。DANにより提供されたシャープネス、及び/又は、詳細は、例えば敵対的なやり方で訓練されていない画像生成部等、ある既知のシステムによって提供されたシャープネス、及び/又は、詳細に優ることもある。
上記で説明された実施形態で、識別器46は2アーム識別器である。その他の実施形態で、識別器46は1アーム識別器である。1アーム識別器でのシミュレータ例は、図5に示されている。
図5のシミュレータは、図3の画像生成部42と似ている場合がある画像生成部、又は、生成部62を具備する。例えば、図5の画像生成部62は、畳み込みニューラルネットワークを具備することができる。画像生成部62は、実世界画像60を受け取り、異なるモダリティ、又は、異なるシーケンスのシミュレートされた画像を具備する出力64を生み出すよう構成されている。
図5のシミュレータは、更に識別器66を具備する。図5の識別器66は、識別器が画像生成部62(シミュレート画像を具備する)の出力64のみを受け取り、リアル画像を受け取らないという点において、図3の識別器46とは異なる。画像識別器66は、受け取った一つの画像がリアル、又は、偽物を判定し、その決定68を出力する。
2アーム識別器46は、2チャンネル識別器と呼ぶこともできる。また、1アーム識別器66は、1チャンネル識別とも呼べる。
状況次第で、2アーム識別器は、1アーム識別器よりも識別において優れている可能性がある。2アーム識別器は、一つの画像を演算する代わりに、二つの画像を直接比較しどちらがリアルでどちらが偽物かを予想する。
その他の実施形態で、例えば2アーム、3アーム、5アーム、10アーム識別器など、任意の適切な多重ターム識別器を使用することができる(そして、多重チャンネル識別器とも呼ぶことができる)。各多重アーム識別器は、一つの偽物(シミュレートされた)画像を一つ又は複数のリアル画像と比較することができる。例えば、識別器が10のアームを有し、九つの画像がリアルで一つが偽物の場合、どの一つが偽物かを識別器は推測しようとする。
図6は、図3の2アームと図5の1アームとを比較したものである。図6は、二つの識別器(単一アーム識別器、及び、この例では2アーム識別器の多重チャンネル識別器)のそれぞれがオートエンコーダを訓練するために使用された場合に、五〇〇の画像の試験セットに関する、平均ピーク信号対ノイズ比を示している。平均ピーク信号対ノイズ比は、識別器の訓練にわたるエポック数に対して描かれている。図6から見て分かる通り、多重チャンネル識別器法(図6に線80として図示)は、平均ピーク信号対ノイズ比が訓練フェーズにわたって単調に増加する一方で、単一アーム識別器法(図6に線82として図示)は、殆ど確率論的最適化と考えることができる。この例に関して、多重チャンネル識別器は、単一の識別器よりもかなり優れた収束特性を有する。
実施形態には、2アーム識別器46を具備するシミュレータ40は、1アーム識別器を具備するシミュレータよりも、より素早く収束することができる。実施形態には、2アーム識別器は、1アーム識別器を訓練するために使用された訓練データの量よりも、少ない量を使用して訓練できる。状況次第で、2アーム識別器は、1アーム識別器よりも良いパフォーマンスをすることがある。
図7は、シミュレータ40がリアルT1-強調画像からシミュレートされたT2-強調画像を生成するために使用される、概要プロセスを描くフローチャートである。レジストレーションは、その後シミュレートされたT2-強調画像を使用しながら実行される。
図7のプロセスが始まる前に、シミュレータ40は、図4を参照に上記で説明されたような訓練法を使用してT2-強調画像をシミュレートするために訓練される。
図7のステージ70で、シミュレーション回路26は、T1―強調画像を取得する。ステージ72で、シミュレーション回路26は、T1-強調画像からT2-強調画像をシミュレートするために、シミュレータ40を使用する。シミュレーション回路26は、シミュレートされたT2-強調画像をレジストレーション回路28に渡す。
シミュレートT2-強調画像は、T2-強調画像を特徴付ける属性を有する。例えば、水の領域は、T1-強調画像では暗く見える一方、シミュレートされたT2-強調画像で明るく見えることがある。シミュレートされたT2-強調画像は、画像属性においてリアルT2-強調画像に似ていると思われる。例えば、シミュレートされたT2-強調画像は、リアルT2-強調画像と、輝度値、輝度幅範囲、コントラスト、解像度、シャープネス、特色の定義、及び/又は、信号対ノイズ比において、類似する。
例では、T1-強調画像入力画像からT2-強調画像を合成するシミュレータの能力を実証する、四つの画像のセットが生成される。この例では、第一の画像は、T1-強調MRアキシャル頭部画像スライスの画像である。第二の画像は、T1-強調の第一画像と照合する、本物のT2-強調画像の画像である。例えば、T2-強調画像は、T1-強調の第一画像と同じスタディで収集されたT2-強調画像の場合がある。
第三の画像は、積み重ねられたオートエンコーダを具備する画像生成部を使用することで、T1-強調の第一画像から取得されたシミュレートされたT2-強調画像である。第四の画像は、図3を参考に上記で説明されたように訓練されたDANシミュレータを使用することで、T1-強調の第一画像から取得されたシミュレートされたT2-強調画像である。第三及び第四の画像を生み出すために使用された各方法において、画像生成部は、積み重ねられたオートエンコーダを具備する。第四の画像を生み出すために使用された方法のみ、識別器を使用する。この例において、第四の画像(DAN法を使用)は第三の画像(積み重ねられたオートエンコーダを使用)よりも鮮明である。
T1―強調画像から取得されたシミュレートされたT2-強調画像は、T1-強調画像と同じスキャンで取得されたリアルT2-強調画像とは異なる場合があることに留意されたい。シミュレータ40は、現実的なシミュレートされた画像を生み出すよう訓練されているが、上記で説明された通り、リアルT2-強調画像にはT1-強調画像で利用できない情報が恐らく存在する。それにもかかわらず、シミュレートされたT2-強調画像は、下記に説明されるように、多重シーケンスレジストレーションに対して、又は、下記で説明されるその他のアプリケーションに対しても、役立つツールになることがある。シミュレートされたT2-強調画像を使用することにより、シミュレートされたT2-強調画像が取得されたオリジナルT1-強調画像について、実行することが不可能な場合があった操作は、シミュレートされたT2-強調画像について、操作を実行することができる。
ステージ74で、レジストレーション回路28は、ステージ70で受け取ったT1-強調画像がレジストレーションされるよう意図していたリアルT2-強調画像を受け取る。例えば、T1-強調画像及びT2-強調画像は、同じスキャンから取得されている場合があるが、所望のアプリケーションにおける使用に対しては十分満足にレジストレーションされない場合がある。別の例において、T1-強調画像とリアルT2-強調画像とは、異なる時間で収集された、同じ患者のスキャンからの画像の場合がある。T1-強調データのみが一回のスキャンで収集され(例えば、最初のスキャン)、T2-強調データのみが別のスキャンで収集され(例えば、後追い(フォローアップ)スキャン)する可能性があり、各スキャンから取得された画像をレジストレーションしようとすることもある。
ステージ76で、レジストレーション回路28は、ステージ72で取得されたシミュレートされたT2-強調画像を、ステージ74で受け取ったリアルT2-強調画像へとレジストレーションする。本実施形態において、レジストレーション回路28は、類似性メトリックとして二乗差の和を使用して、シミュレートされたT2-強調画像をリアルT2-強調画像へとレジストレーションする。その他の実施形態で、任意の適切な類似性メトリックを使用することができる。レジストレーション法は、例えば同じモダリティ且つ同じシーケンスを使用して収集された画像など、同じ撮像手順を使用して取得された画像をレジストレーションするために使用することができる、任意のレジストレーション法とすることができる。
同じタイプの撮像手順を使用して収集されたデータをレジストレーションするために通常は使用することができるレジストレーション法を使用して、シミュレートされたT2-強調画像とリアルT2-強調画像とを、一緒にレジストレーションすることは可能である。何故ならば、シミュレートされたT2-強調画像は、リアルT2-強調画像の画像属性と同じような画像属性を有するからである。
ステージ78で、レジストレーション回路28は、シミュレートされたT2-強調画像とリアルT2-強調画像とのレジストレーションを使用して、T1-強調画像とリアルT2-強調画像とのレジストレーションを取得する。シミュレートされたT2-強調画像は、T1-強調画像と同じ座標空間に存在するため、シミュレートされたT2-強調画像とリアルT2-強調画像とのレジストレーションの結果を、T1-強調画像へと直接変換することができるのである。
つまり、リアルT1-強調画像からT2-強調画像をシミュレーションし、且つシミュレートされたT2-強調画像をリアルT2-強調画像へとレジストレーションすることにより、リアルT1-強調画像(ステージ70)は、リアルT2-強調画像(ステージ74)へとレジストレーションされる、ということである。
その他の実施形態で、図7を参考に上記で説明された方法は、任意のマルチモダリティ、又は、マルチシーケンス画像レジストレーションを支援するために使用される。例えば、T1-強調画像をCT画像へとレジストレーションするためには、T1-強調画像に見えるようなCT画像を、まず作る場合があるということだ。
第一のタイプの撮像手順を使用しながら収集された画像を、第二の、異なるタイプの撮像手順、例えば異なるモダリティ、シーケンス、取得技法又は処理技法を使用しながら収集された画像へと、直接レジストレーションする方法を使用することは、有名である。例えば、相互情報は、異なるタイプの撮像手順を使用しながら収集された画像を、レジストレーションするために使用することができる。
しかし、異なるタイプの撮像手順を使用して収集された画像をレジストレーションするために使用することができる利用可能なレジストレーション法の数は、同じ撮像手順を使用して収集された画像をレジストレーションするために使用することができるレジストレーション法の数よりも少ない可能性がある。状況次第で、同じ撮像手順を使用して収集された画像をレジストレーションするために使用されるレジストレーション法は、ある一つのタイプの撮像手順を使用して収集された画像を異なる撮像手順を使用して収集された画像に直接レジストレーションするために使用されるレジストレーション法に比べ、より精確な場合がある。また状況次第で、同じ撮像手順を使用して収集された画像をレジストレーションするために使用されたレジストレーション法は、より早く、及び/又は、コンピュータ的コストが低くなる場合もある。
T2-強調画像をシミュレーションすること、及び、シミュレートされたT2-強調画像をリアルT2-強調画像へとレジストレーションすることにより、T1-強調画像とリアルT2-強調画像とが直接レジストレーションされた場合に比べ、より良いレジストレーションを取得することができる。シミュレートされたT2-強調画像を生み出すことにより、同じモダリティ及びシーケンスであるように見える二つの画像(今回の場合、シミュレートされたT2-強調画像とリアルT2-強調画像)間に、レジストレーションが実行される。これにより、使用することができなかった使用すべきレジストレーション法で、異なるモダリティ、又は、シーケンスを有する画像をレジストレーションすることができる。
一実施形態において、T1-強調データとT2-強調データとが第一のスキャンで共に収集する試みが検討されたが、上手く収集されるのはT1-強調データのみである。別のスキャンからのT2-強調データを、第一のスキャンからのデータにレジストレーションする意図があったものの、利用可能なのは第一のスキャンからのT1-強調データのみである。図7の方法を使用することで、第一のスキャンからはT2-強調データが抜けているにも関わらず、レジストレーションを実行することが可能になる場合がある。
図7の方法は、マルチモダリティ、又は、マルチシーケンスの確度及びロバスト性を改善することができる。
DANにより訓練されたモダリティ変換器(DAN-trained modality converter)の有効性は、T1-強調対T2-強調剛体レジストレーション課題(マルチモダリティ剛体レジストレーション課題と呼ぶことができる)を、合成されたT2-強調対T2-強調剛体レジストレーション課題(単一モダリティタスクと呼ぶことができる)に変更することにより、実証することができ、それにより二乗差の和を使用することができるのである。
ある実験では、二次元マルチシーケンス剛体レジストレーションは、二つの異なる方法を使用して実行された。各方法を使用し、T2-強調画像のT1-強調画像への一五〇回のレジストレーションが実行された。係る強調画像は、MRの256ボクセル×256ボクセルの頭部画像である。T2-強調スライスは、テストデータコーホートから選択され、対応するT1-強調スライスについて剛体的に曲げられている。スライスは、均一な分布からランダムにサンプルされた変換パラメータを使用し、剛体的に曲げられている。変換は、回転に対して(-40°,40°)とx及びy並進に対して(-25,25)ピクセルとの、一様にランダムな分布からランダムに抜き出されたものである。同じ一五〇回のレジストレーション例が、各方法に対して使用された。
第一の方法で、参照アルゴリズムは、参照アプローチを提供するために使用された。参照アプローチは、粒子群最適化(particle swarm optimizer)で規格化勾配フィールド類似性メトリックを使用し、T1-強調及びT2-強調画像を直接レジストレーションすることを具備する。規格化勾配フィールドは、マルチモダリティ類似性メトリックとして使用されたものである。
図8aは、既知の回転値に対する第一の方法を使用して計算された、回転に関する値を描いている。図8aのプロット上の各点は、第一の方法を使用してT2-強調画像をT1-強調画像へレジストレーションに対する回転値を表している。x軸上の値は、ランダムに生成され、且つT1-強調及びT2-強調画像をオフセットするために使用された回転に対する値である。y軸上の値は、第一の方法を使用して、オフセットされたT2-強調画像及びT1-強調画像をレジストレーションすることで計算された、回転に対する値である。
図8bは、xにおける並進に関する既知の回転値に対する第一の方法を使用して計算された、xにおける並進に関する値を描いている。図8cは、yにおける並進に関する既知の値に対する第一の方法を使用して計算された、yにおける並進に対する値を描いている。
値が著しく広がっていることが、図8aから8cで見て取れる。回転に対する計算された値、xの並進に対する計算された値、yの並進に対する計算された値の多くは、既知の値から大きくかけ離れている。
識別器で訓練された画像生成部42を使用してT1-強調画像がシミュレートされたT2-強調画像へと変換された第二の方法は、図7の方法であった。これは、T1-強調対T2-強調マルチモダリティレジストレーションを、合成されたT2-強調対T2-強調単一モダリティ課題へと作り変え、単一モダリティレジストレーション法が使用できるようになる。実験で、シミュレートされたT2-強調画像をリアルT2-強調画像にレジストレーションは、二乗差の合計を類似性メトリックとして使用し、且つ粒子群最適化を使用し実行された。粒子群最適化は、方法の公平な比較を許可するために、各方法に対する変換モデルとして使用されたものである。
各方法に対し、レジストレーション法を使用して取得された回転、又は、並進に関する値は、既知の変換(既知の変換とは、ランダム変換であり、係るランダム変換によって、T2-強調スライスは、T1-強調スライスについて曲げられた)と比較された。
図9aは、既知の回転値に対する第二の方法を使用して計算された、回転に関する値を描いている。図9bは、xにおける並進に関する既知の値に対する第一の方法を使用して計算された、xにおける並進に関する値を描いている。図9cは、yにおける並進に関する既知の値に対する第一の方法を使用して計算された、yにおける並進に対する値を描いている。
以下の表1は、図8aから9cまでのプロットからのいくつかの結果を表にしたものである。使用された変換は既知である通り、誤差は変換基底ごとに分析される。
Figure 0007246866000001
第二の方法を使用することにより、散らばり具合が抑えられ異常値も少なくなっていることが分かる。第二の方法は、第一の方法よりも中央絶対誤差がずっと低い。図8aから9cまでで見て取れるように、モダリティ変換されたT2-強調対T2強調レジストレーションからのレジストレーション結果は、類似性メトリックとして規格化勾配フィールドを使用して解消されたマルチモダリティT1-強調対T2-強調レジストレーションに比べ、既知の変形をより精確に回復させるように見える。表1における結果は、単一モダリティアプローチが、マルチモダリティアプローチに比べ、明らかにより精確ということを裏付けている。
図7の実施形態において、T1-強調画像からシミュレートされたT2-強調画像を作り出すことにより、T1-強調画像は、T2-強調画像とレジストレーションされる。その他の実施形態において、任意のシーケンスをシミュレートすることができる。例えば、T1-強調画像は、T2-強調画像からシミュレートすることができる。更なる実施形態において、異なるモダリティをシミュレートすることがある。例えば、T1-強調MR画像をCT画像へとレジストレーションするために、CT画像をT1-強調画像のように見えるようにさせるシミュレータを使用することがある。シミュレータは、マルチモダリティ、又は、マルチシーケンス画像レジストレーションを支援するために訓練することができる。
更なる実施形態において、セグメンテーションアルゴリズムは、一つのタイプの撮像手順を使用して収集されたデータに対して利用可能であるが、異なるタイプの撮像手順を使用しながら収集されたデータでは使用することができない。シミュレータは、セグメンテーションアルゴリズムを開発するためのデータタイプをシミュレートするように訓練される。例えば、ある実施形態においてセグメンテーションアルゴリズムは、CT画像に対して開発された。シミュレータは、CT画像をシミュレートするために、MR画像を処理するよう訓練される。セグメンテーションアルゴリズムは、その場合にMR画像からCT画像をシミュレーションし、且つセグメンテーションアルゴリズムをシミュレートされたCT画像へと適用することで、MR画像について使用することができる。シミュレーション処理を上記で説明したように適用することにより、一つのモダリティに対して開発されたセグメンテーションアルゴリズムは、その他のモダリティについても使用することができる。
その他の実施形態において、二つの異なるタイプの撮像手順を使用して、データは収集される。例えば、T1-強調及びT2-強調データは、被検体の解剖学的領域の単一のスキャンで収集することができる。両方のタイプの撮像手順を使用して収集された画像が利用可能であるが、一つのタイプの撮像手順を使用して収集された画像は、その他のタイプの撮像手順を使用して収集された画像をシミュレートするために使用される。そしてシミュレートされた画像は、その後リアル画像を取得する際に用いた撮像手順を用いて取得されたそのリアル画像と比較される。
例えば、T1-強調及びT2-強調データ両方がMR収集で取得された実施形態では、つまりリアルT1-強調画像とリアルT2-強調画像との両方が利用可能ということである。シミュレータは、T1―強調画像からT2―強調画像をシミュレートするために、図3を参考に上記で説明された通り、訓練される。シミュレートされたT2-強調画像は、その後リアルT2-強調画像と比較される。
シミュレートされたT2-強調画像をリアルT1-強調画像と同じ収集に対するリアルT2-強調画像と比較することについては、いくつかの動機付けが存在することがある。
実施形態の中には、シミュレートされたT2-強調画像をリアルT1-強調画像と同じ収集に対するリアルT2-強調画像と比較することは、リアルT2-強調画像における異常性を特定するために使用されるものがある。係る異常性とは、例えば画像により表された解剖学的領域に存在する病変の可能性がある。
シミュレータは、正常画像と呼ばれる場合のある、病変の無い(free of pathology)画像を具備する、訓練データを使用して典型的に訓練することができる。収集されたT1-強調画像に適用する場合に、シミュレータは、正常画像について訓練されてきたため、シミュレートされたT2-強調画像を病変が無いように見えるように生み出すことができる。病変が実際症状として見つかっている状態の場合に(in fact present)、リアルT2-強調画像は、その病変に従ってシミュレートされたT2-強調画像と異なることがある。シミュレートされたT2-強調画像をリアルT2-強調画像と比較することにより、病変をリアルT2-強調画像において特定することができる。
実施形態の中には、シミュレートされたT2-強調画像をリアルT1-強調画像と同じ収集に対するリアルT2-強調画像と比較することは、脳病変の良性悪性を差別化するために、使用することができるものもある。実施形態には、シミュレートされたT2-強調画像をリアルT1-強調画像と同じ取得に対するリアルT2-強調画像と比較することは、脳卒中の早期検出において脳虚血のエリアを探し出すために使用することができるものもある。
その他の実施形態において、異常性の存在が既に分かっていることがある。例えば、異常性はT2-強調画像において見つかっている場合がある。シミュレータは、例えば正常T2-強調画像など、正常画像をシミュレートするために使用される。シミュレートされたT2-強調画像は、レジストレーションを助けるために使用される。
状況次第で、異常を含む画像よりも、正常に見える画像をレジストレーションすることの方が、簡単な場合がある。例えば、いくつかのレジストレーション法は、正常な生体構造に基づくものであっても良いし、これらのレジストレーション法を使用した画像が正常な生体構造を表すならば、より効果的だろう。
また状況次第で、異常性を示すT2-強調画像が、異常性の存在しないT2-強調画像へとレジストレーションされるべき場合があり得る。より良いレジストレーションは、異常性を有するT2-強調画像をレジストレーションするよう試みることで収集することができるというよりも、異常性の無いT2-強調画像をシミュレーションすること、且つ当該シミュレートされたT2-強調画像をレジストレーションすることにより、取得することができる。同様の判断が、その他のタイプの撮像手順を使用して収集された画像へと適用することができる。
患者が重い脳卒中に見舞われた場合に、脳は、卒中前の見た目と極めて異なって見えることがある。卒中後の画像を正常なように見える画像へと変換することにより、患者の卒中前後の画像でのレジストレーションを簡単にすることができる。状況によって、正常画像をシミュレーションすることは、正常アトラスへとレジストレーションすることを助けることができる。
更なる実施形態において、T1-強調及びT2-強調画像は、同じ収集法により収集されるものの、T2-強調画像は、ノイジーである、及び/又は、データが破損している。シミュレータは、T1-強調画像からT2-強調画像をシミュレーションするために使用される。リアルT2-強調画像をシミュレートされたT2-強調画像と比較することにより、リアルT2-強調画像の画質を推定する、又は、定量化することが可能な場合がある。例えば、ノイズレベルを定量化することができる。一つ又は複数のアーチファクトは、リアルT2-強調画像で特定することができる。
上記で説明されたような方法、例えば図4や図7を参考に説明されたような方法は、例えば違って見える画像を生成する任意の撮像変形例など、任意の適切なタイプの撮像手順に適用することができる。
実施形態において、図7と同様の方法は、前処理及び後処理でコントラスト化されたCT画像に、また異なる手法でコントラスト化されたCT画像に、適用される。コントラスト化された画像においても、画像が収集されたインジェクション後である画像は、画像の見た目が著しく変化する場合がある。
実施形態において、図7の方法と同様の方法は、画像の見た目を変える、異なる管電圧で収集されたCT画像へと適用される。
いくつかの実施形態において、図7の方法と同様の方法は、外因的な造影剤を使用してMRシーケンスの任意の組み合わせ、及び/又は、MR画像に適用される。
また実施形態において、図7の方法と同様の方法は、超音波画像に適用される。超音波診断は、造影剤を使用することがあり、且つハーモニック撮像などの機能を有することもある。超音波診断は、例えばドプラフロー撮像やエラストグラフィなど機能的な計測法も有することがある。
いくつかの実施形態において、図7の方法と同様の方法は、核医学撮像(例えばPET)によって収集された画像に適用される。核医学画像は、機能を計測することができる。核医学画像の見た目は、使用されている薬剤トレーサに依存する場合がある。図7の方法と同様の方法は、解剖学的画像(例えば、MR又はCT)からの機能的な画像をシミュレートするために使用することができる。図7と同様の方法は、異なるトレーサを使用して収集された画像をシミュレートするために、一つのトレーサを使用して取得された画像を使用することができる。
またいくつかの実施形態において、異なるMRシーケンスは、立て続けに収集されることがあり、またかなり十分にアライメントされることがある(いくつかの解析に対し、初期設定のアライメント確度に比べ、より高い確度を達成するために、アライメント法を使用する場合があるけれども)。しかし、第一の画像が第一のモダリティ及びスキャナを使用して撮られ、且つ第二の画像が異なるモダリティ及びスキャナ(例えばMR)を使用して撮られた場合に、また患者が複数のスキャナ間を移動しなければならない場合に、アライメントはより重要となるだろう。
実施形態の中には、図7の方法と同様の方法が、拡散強調MR画像(DWI)の拡散補正で使用されるものがある。DWI画像は、典型的に素早く収集することができ、非剛体変形に苦しむ場合がある。DWI画像を補正する一つの方法として、DWI収集を参照T1-強調画像へとレジストレーションすることがあり、これにより歪みが少なくなることがある。DWI画像を参照T1-強調画像へとレジストレーションすることにより、図7の方法と同様の方法を使用して実行することができる。
実施形態の中には、図7の方法と同様の方法は、前コントラスト画像を後コントラスト画像にレジストレーションするために使用されるものもある。いくつかの既知のレジストレーション法は、後コントラスト画像を用いて類似度を最大化するために、コントラストエリアを縮小することがある。前コントラスト画像が後コントラスト画像からシミュレーションされる(またその逆も同様に)方法を使用することで、そのようなコントラストエリアの縮小を減らす、又は、除去することができる。
実施形態の中には、図7の方法と同様の方法は、画像をアトラスへ、例えば異なるモダリティ、又は、シーケンスを使用して収集されたデータから作られたアトラスへ、レジストレーションするために使用されるものがある。
更なる実施形態において、決定論的敵対的ネットワークは、画像をオートエンコード化するために、オートエンコーダを訓練するために使用される。本実施形態において、異なるモダリティを合成するよりも、2アームDANが従来的なオートエンコーダネットワークに適用される。図3の2アームDANの構成は、T1-強調矢状頭部画像をオートエンコード化するために使用される。その他の実施形態で、任意の適当なタイプの撮像手順を使用して収集された画像のオートエンコード化を、実行することができる。更なる実施形態において、DANは、画像の任意の適当な代替バージョンを生み出すために、使用することができる。例えば、DANは、画像の圧縮されたバージョンを生み出すために、使用できる。
識別器は、リアルT1-強調画像とオートエンコード化されたT1-強調画像とを区別するために、訓練される。画像生成部は、識別器にとってリアル画像に見える、オートエンコード化された画像を生み出すように訓練される。それは、オートエンコード化された画像は、リアルT1-強調画像を特徴付ける画像属性を有しているからである。オートエンコーダを訓練するための敵対的なネットワークを使用することにより、敵対的なネットワークが使用されないオートエンコーダと比較した場合よりも、シャープネスが増した画像を提供することができる。
ある例では、三つの画像が生成される。係る例において、第一の画像は、オートエンコーダに対する入力として使用される、リアルT1-強調画像である。第二の画像は、識別器を具備せず、且つ敵対的なやり方でも訓練されていない、従来的なオートエンコーダの結果を示している。第三の画像は、2アームDANフレームワークにおいて訓練された、オートエンコーダの結果を示している。係る例では、三つの画像が、単純なオートエンコーダと比較した場合に、画像のシャープネスを保持するDANの能力を実証している。
特定の実施形態は、生成部及び識別器の組み合わせを敵対的なやり方での組み合わせで訓練されたものを使用して、一つの医用撮像モダリティの存在が新たなモダリティの存在を授けるというシミュレーションのための方法を提供する。
識別器は、識別器がその入力を生成部から直接受け取る単一のチャンネルを有することがある。係る識別器は、二つのチャンネルを有することもあり、一方のチャンネルは生成部からの出力を受け取り、他方のチャンネルは真のその他のモダリティの画像を受け取る。
システムは、例えばMRバイアスフィールドやCTメタルアーチファクト等を除去するため、アーチファクトが無い画像を予測するために使用することができる。予測された画像には、疾病の有無を検出するために使用することが可能な、正常且つ病変の無い画像とすることができる。結果として生じる合成された画像は、マルチモダリティ、又は、マルチシーケンスレジストレーションを支援するために、使用することができる。また結果として生じる合成された画像は、画像セグメンテーションを支援するために、使用することもできる。
上記で説明された方法は、任意の適当なヒト又は動物の生体構造に適用することができる。方法は、例えば任意の適当なモダリティ、シーケンス、収集タイプ、又は、処理技法など、任意の適当なタイプの撮像手順を使用して取得された画像データの処理に適用することができる。一つの収集において収集された画像データは、別の収集で取得された画像データをシミュレートするために、処理することができる。方法は、例えば組織モーションや液体フローなど、機能を示す画像の解析に適用することができる。
本明細書では、特定の回路について説明してきた。いくつかの実施形態では、これらの回路のうち1つ又は複数の機能は単一の処理リソース又はその他の構成要素によって提供可能であり、又は、単一の回路によって提供される機能は、組み合わされた2つ以上の処理リソース又はその他構成要素によって提供可能である。単一のユニットへの言及は、その回路の機能を提供する複数の構成要素が互いに遠隔であるかどうかに関わりなく、そのような構成要素を包含し、複数の回路への言及は、それらの回路の機能を提供する単一の構成要素を包含する。
特定の実施形態について説明してきたが、これらの実施形態は、例として提示したにすぎず、本発明の範囲を限定することを意図したものではない。実際、本明細書で説明する新規な方法及びシステムはさまざまなその他の形態で実施することができる。そのうえ、本明細書で説明する方法及びシステムの形態におけるさまざまな省略、置き換え、及び変更は、本発明の趣旨から逸脱することなく行うことができる。添付の特許請求の範囲及びその等価物は、本発明の範囲に含まれるこのような形態又は変形形態を包含することを意図するものである。
14…磁気共鳴イメージング装置、16…表示スクリーン、18…入力デバイス、20…データストア、22…処理回路、24…訓練回路、26…シミュレーション回路、28…レジストレーション回路、62…画像生成部、66…アーム識別器

Claims (16)

  1. 被検体の解剖学的領域について第一の撮像法を用いて撮像された第一の画像を取得する取得部と、
    前記第一の画像を用いて、前記第一の撮像法とは異なる第二の撮像法に対応するシミュレーション画像としての第二の画像を生成する生成部であって、前記第二の画像と前記第二の撮像法によって現実に取得された、病変のない第三の画像とを区別する識別器を用いた敵対的な訓練処理を繰り返すことで訓練された生成部と、
    前記第二の撮像法を用いて撮像された前記被検体に関する第四の画像と前記シミュレーション画像としての前記第二の画像とを比較し、前記被検体に関する異常部位の特定結果を出力する比較部と、
    を具備する医用画像処理装置。
  2. 前記生成部及び前記識別器の少なくとも一方は、深層学習ネットワークである請求項1記載の医用画像処理装置。
  3. 前記深層学習ネットワークは、畳み込みニューラルネットワーク、スキップ接続を伴う畳み込みニューラルネットワーク、多層ニューラルネットワーク、再帰型ニューラルネットワークのうちの少なくとも一つを具備する請求項2記載の医用画像処理装置。
  4. 前記識別器は、入力した一つの画像が前記第二の画像又は前記第三の画像であるかを区別する一つのアームを有する請求項1乃至3のうちいずれか一項記載の医用画像処理装置。
  5. 前記識別器は、入力した二つの画像のどちらが前記第二の画像でありどちらが前記第三の画像であるかを区別する二つのアームを有する請求項1乃至3のうちいずれか一項記載の医用画像処理装置。
  6. 前記識別器は、複数の前記第二の画像及び複数の前記第三の画像を含む訓練データと、識別誤差関数とを用いた訓練により、重み調整されて生成されたものである請求項1乃至5のうちいずれか一項記載の医用画像処理装置。
  7. 前記識別器は、前記識別誤差関数を最小にするように前記重みを調整する請求項6記載の医用画像処理装置。
  8. 前記生成部は、前記第二の画像と前記第三の画像との差を指標として、前記識別器を用いた敵対的な訓練処理を繰り返すことで訓練されたものである請求項1乃至7のうちいずれか一項記載の医用画像処理装置。
  9. 前記生成部は、前記第二の画像がシミュレーション画像であるのか前記第三の画像であるのかの識別誤差を指標として、前記識別器を用いた敵対的な訓練処理を繰り返すことで訓練されたものである請求項1乃至7のうちいずれか一項記載の医用画像処理装置。
  10. 前記生成部は、前記第二の画像がシミュレーション画像であるのか前記第三の画像であるのかの識別誤差を増加させ、前記第二の画像と前記第三の画像との差を減少させるように重みを調整することで訓練されたものである請求項1乃至7のうちいずれか一項記載の医用画像処理装置。
  11. 前記第一の撮像法は第一のモダリティを用いて実行され、前記第二の撮像法は前記第一のモダリティとは異なる第二のモダリティを用いて実行される請求項1乃至10のうちいずれか一項記載の医用画像処理装置。
  12. 前記第一の撮像法はT1-強調MR撮像とT2-強調MR撮像とのうちの一方を使用し、前記第二の撮像法はT1-強調MR撮像とT2-強調MR撮像とのうちの他方を使用する請求項1乃至10のうちいずれか一項記載の医用画像処理装置。
  13. 前記生成部は、前記第一の画像を用いて、輝度値、コントラスト値、画像解像度、シャープネス、特徴解像度、信号対ノイズレベルのうち少なくとも一つの属性を基準として前記第二の画像を生成する請求項1乃至12のうちいずれか一項記載の医用画像処理装置。
  14. 前記生成部は、前記第二の撮像法を用いて撮像された前記被検体に関する第四の画像と前記シミュレーション画像としての前記第二の画像とを用いた第一のレジストレーションを実行する請求項1乃至13のうちいずれか一項記載の医用画像処理装置。
  15. 前記生成部は、前記第一のレジストレーションの結果に基づいて、異なる撮像法を用いて撮像された異なる画像について第二のレジストレーションを実行する請求項14記載の医用画像処理装置。
  16. 前記生成部は、
    前記第二の画像をセグメンテーションし、
    前記セグメンテーションされた第二の画像に基づいて、前記第一の画像をセグメンテーションする、
    請求項1乃至15のうちいずれか一項記載の医用画像処理装置。
JP2018096474A 2017-05-18 2018-05-18 医用画像処理装置 Active JP7246866B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/598,934 2017-05-18
US15/598,934 US10346974B2 (en) 2017-05-18 2017-05-18 Apparatus and method for medical image processing

Publications (2)

Publication Number Publication Date
JP2018192264A JP2018192264A (ja) 2018-12-06
JP7246866B2 true JP7246866B2 (ja) 2023-03-28

Family

ID=64272427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096474A Active JP7246866B2 (ja) 2017-05-18 2018-05-18 医用画像処理装置

Country Status (2)

Country Link
US (1) US10346974B2 (ja)
JP (1) JP7246866B2 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304219B2 (en) * 2014-06-13 2019-05-28 Siemens Medical Solutions Usa, Inc. Intra reconstruction motion correction
US10753997B2 (en) * 2017-08-10 2020-08-25 Siemens Healthcare Gmbh Image standardization using generative adversarial networks
US10878529B2 (en) 2017-12-22 2020-12-29 Canon Medical Systems Corporation Registration method and apparatus
US11199506B2 (en) * 2018-02-21 2021-12-14 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen
US10956635B1 (en) * 2019-12-04 2021-03-23 David Byron Douglas Radiologist-assisted machine learning with interactive, volume subtending 3D cursor
US11238197B1 (en) * 2018-04-03 2022-02-01 David Byron Douglas Generating a 3D dataset containing a simulated surgical device
US11100632B2 (en) 2018-04-13 2021-08-24 Elekta, Inc. Image synthesis using adversarial networks such as for radiation therapy
US11501438B2 (en) * 2018-04-26 2022-11-15 Elekta, Inc. Cone-beam CT image enhancement using generative adversarial networks
WO2019224800A1 (en) * 2018-05-25 2019-11-28 Mahajan Vidur Method and system for simulating and constructing original medical images from one modality to other modality
EP3575813B1 (en) * 2018-05-30 2022-06-29 Siemens Healthcare GmbH Quantitative mapping of a magnetic resonance imaging parameter by data-driven signal-model learning
US10991148B2 (en) * 2018-08-13 2021-04-27 Canon Medical Systems Corporation Medical image rendering method and apparatus
US11484279B2 (en) 2018-09-24 2022-11-01 Siemens Medical Solutions Usa, Inc. Systems to assess projection data inconsistency
US20200143266A1 (en) * 2018-11-07 2020-05-07 International Business Machines Corporation Adversarial balancing for causal inference
JP7046786B2 (ja) * 2018-12-11 2022-04-04 株式会社日立製作所 機械学習システム、ドメイン変換装置、及び機械学習方法
CN111369635A (zh) * 2018-12-25 2020-07-03 通用电气公司 预测截断图像的系统和方法、准备数据的方法及其介质
JP7242288B2 (ja) * 2018-12-25 2023-03-20 キヤノンメディカルシステムズ株式会社 医用画像診断装置及びモデル学習装置
US10373026B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Learning method and learning device for generation of virtual feature maps whose characteristics are same as or similar to those of real feature maps by using GAN capable of being applied to domain adaptation to be used in virtual driving environments
JP7268367B2 (ja) * 2019-01-30 2023-05-08 富士通株式会社 学習装置、学習方法および学習プログラム
JP7268368B2 (ja) * 2019-01-30 2023-05-08 富士通株式会社 学習装置、学習方法および学習プログラム
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing
JP7106741B2 (ja) * 2019-02-28 2022-07-26 富士フイルム株式会社 学習方法、学習装置、生成モデル及びプログラム
WO2020202680A1 (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 情報処理装置及び情報処理方法
CN109961490A (zh) * 2019-04-08 2019-07-02 深圳大学 剪影成像方法及装置
GB201907193D0 (en) 2019-06-05 2019-07-03 Secr Defence Obtaining patterns for surfaces of objects
JP7203978B2 (ja) * 2019-07-25 2023-01-13 富士フイルム株式会社 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル
JP7375403B2 (ja) * 2019-09-19 2023-11-08 コニカミノルタ株式会社 機械学習装置、機械学習方法及び機械学習プログラム
CN110751187B (zh) * 2019-09-26 2022-08-19 武汉中科医疗科技工业技术研究院有限公司 异常区域图像生成网络的训练方法和相关产品
WO2021060462A1 (ja) * 2019-09-27 2021-04-01 富士フイルム株式会社 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
JP7170897B2 (ja) * 2019-09-30 2022-11-14 富士フイルム株式会社 学習装置、方法およびプログラム、画像生成装置、方法およびプログラム、並びに画像生成モデル
CN111260652B (zh) * 2020-01-09 2023-09-08 浙江传媒学院 一种基于mimo-gan的图像生成系统和方法
EP4200744A1 (en) 2020-08-21 2023-06-28 Ventana Medical Systems, Inc. Correcting differences in multi-scanners for digital pathology images using deep learning
JP2023001431A (ja) * 2021-06-21 2023-01-06 コニカミノルタ株式会社 学習装置、学習システム、機械学習モデルの学習方法及びプログラム
US11551432B1 (en) 2021-07-16 2023-01-10 The Government of the United States of America, as represented by the Secretary of Homeland Security System and method for training an artificial intelligence (AI) classifier of scanned items
US11379693B1 (en) * 2021-07-16 2022-07-05 The Government of the United States of America, as represented by the Secretary of Homeland Security System and method of new understandable training for AI as applied to electromagnetic sensor detection
CN114283151A (zh) * 2021-08-16 2022-04-05 腾讯科技(深圳)有限公司 用于医学图像的图像处理方法、装置、设备及存储介质
US11955228B2 (en) 2021-12-10 2024-04-09 GE Precision Healthcare LLC Methods and system for simulated radiology studies based on prior imaging data
CN114580252A (zh) * 2022-05-09 2022-06-03 山东捷瑞数字科技股份有限公司 一种用于流体仿真的图神经网络仿真方法及系统
WO2024043591A1 (ko) * 2022-08-22 2024-02-29 고려대학교 산학협력단 융합 영상을 이용한 턱관절 및 두경부 질환 진단 방법 및 장치
WO2024063119A1 (ja) * 2022-09-21 2024-03-28 国立大学法人大阪大学 画像翻訳装置、画像診断システム、画像翻訳方法、制御プログラム、記録媒体
EP4386626A1 (en) * 2022-12-14 2024-06-19 Leica Microsystems CMS GmbH Methods, systems, and computer systems for training a machine-learning model, generating a training corpus, and using a machine-learning model for use in a scientific or surgical imaging system
CN116071401B (zh) * 2023-01-28 2023-08-01 中日友好医院(中日友好临床医学研究所) 基于深度学习的虚拟ct图像的生成方法及装置
EP4446988A1 (en) * 2023-04-12 2024-10-16 TheraPanacea Method for generating a registered image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69729826T2 (de) * 1996-05-30 2004-11-25 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Übertragung von Daten, Verfahren und Vorrichtung zum Empfang von Daten und Kommunikationssystem
CN1179565C (zh) * 1996-05-31 2004-12-08 松下电器产业株式会社 数据通信系统和数据发送设备及数据接收设备
JP4267598B2 (ja) 2005-07-11 2009-05-27 ザイオソフト株式会社 画像融合処理方法、画像融合処理プログラム、画像融合処理装置
US8010009B2 (en) * 2006-02-24 2011-08-30 Kyocera Mita Corporation Image forming apparatus with controller for automatically switching displays of operation procedure in rotation
JP5053604B2 (ja) 2006-09-21 2012-10-17 株式会社東芝 医用画像処理装置
CN104160424B (zh) 2012-03-08 2017-09-19 皇家飞利浦有限公司 用于改进多模态图像融合中的配准准确度的智能标志选择
CN104380132B (zh) 2012-05-31 2018-01-09 皇家飞利浦有限公司 用于图像分割的量化评估的方法和系统
JP6548393B2 (ja) 2014-04-10 2019-07-24 キヤノンメディカルシステムズ株式会社 医用画像表示装置および医用画像表示システム
US9922272B2 (en) * 2014-09-25 2018-03-20 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
US10043261B2 (en) * 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
US10319076B2 (en) * 2016-06-16 2019-06-11 Facebook, Inc. Producing higher-quality samples of natural images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092394A1 (en) 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Angel Torrado-Carvajal, et al.,Fast Patch-Based Pseudo-CT Synthesis from T1-Weighted MR Images for PET/MR Attenuation Correction in Brain Studies,THE JOURNAL OF NUCLEAR MEDICINE,Vol.57,2016年,pp.136-143
Philip Isola, et al.,Image-to-image Translation with Conditional Adversarial Networks,arXiv,2016年11月21日,1611.07004v1,pp.1-16

Also Published As

Publication number Publication date
US10346974B2 (en) 2019-07-09
JP2018192264A (ja) 2018-12-06
US20180336677A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP7246866B2 (ja) 医用画像処理装置
JP5893623B2 (ja) データ・セットにおける異常検出方法およびシステム
Tomita et al. Automatic post-stroke lesion segmentation on MR images using 3D residual convolutional neural network
JP7325954B2 (ja) 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
EP3611699A1 (en) Image segmentation using deep learning techniques
US10867375B2 (en) Forecasting images for image processing
JP5706389B2 (ja) 画像処理装置および画像処理方法、並びに、画像処理プログラム
Moran et al. Using super-resolution generative adversarial network models and transfer learning to obtain high resolution digital periapical radiographs
CN105074775A (zh) 医学图像的配准
US9224204B2 (en) Method and apparatus for registration of multimodal imaging data using constraints
JP5955199B2 (ja) 画像処理装置および画像処理方法、並びに、画像処理プログラム
US11769594B2 (en) Deep learning model learning device and method for cancer region
JP2016189946A (ja) 医用画像位置合わせ装置および方法並びにプログラム
JP6747785B2 (ja) 医用画像処理装置及び医用画像処理方法
CN108701360A (zh) 图像处理系统和方法
Cai et al. Accurate weakly supervised deep lesion segmentation on CT scans: Self-paced 3D mask generation from RECIST
Barba-J et al. Segmentation and optical flow estimation in cardiac CT sequences based on a spatiotemporal PDM with a correction scheme and the Hermite transform
Ramana Alzheimer disease detection and classification on magnetic resonance imaging (MRI) brain images using improved expectation maximization (IEM) and convolutional neural network (CNN)
Garehdaghi et al. Positron emission tomography image enhancement using magnetic resonance images and U-net structure
Karthik et al. Automatic quality enhancement of medical diagnostic scans with deep neural image super-resolution models
US20230368913A1 (en) Uncertainty Estimation in Medical Imaging
Muthiah et al. Fusion of MRI and PET images using deep learning neural networks
Atehortúa et al. Characterization of motion patterns by a spatio-temporal saliency descriptor in cardiac cine MRI
JP2024509039A (ja) 分類の視覚的説明、方法、システム
Chang et al. Inverse radon transform with deep learning: an application in cardiac motion correction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7246866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150