JP7467336B2 - 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム - Google Patents

複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム Download PDF

Info

Publication number
JP7467336B2
JP7467336B2 JP2020524235A JP2020524235A JP7467336B2 JP 7467336 B2 JP7467336 B2 JP 7467336B2 JP 2020524235 A JP2020524235 A JP 2020524235A JP 2020524235 A JP2020524235 A JP 2020524235A JP 7467336 B2 JP7467336 B2 JP 7467336B2
Authority
JP
Japan
Prior art keywords
input image
cnn
mapping function
image dataset
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020524235A
Other languages
English (en)
Other versions
JP2021507327A (ja
Inventor
ヴァイジャ,ヴィヴェク・プラバカー
ムリック,ラケシュ
シュリラム,クリシュナ・シーサラム
ランジャン,ソハン・ラシュミ
アナンギ,パヴァン・クマル・ヴイ
シルヴェンカダム,シェシャドゥリ
アラダハリ,チャンダン・クマル・マラッパ
スリークマリ,アラシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2021507327A publication Critical patent/JP2021507327A/ja
Application granted granted Critical
Publication of JP7467336B2 publication Critical patent/JP7467336B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本明細書の実施形態は、一般に、学習ネットワークで使用するための様々な撮像モダリティから得られた様々な解剖学的構造の医療画像データの転送可能な表現学習を生成するためのシステムおよび方法に関する。具体的には、システムおよび方法は、第1および/または第2の撮像モダリティの物理学および解剖学的構造の生物学に基づいて特徴プリミティブのセットとして医療画像データの表現学習を決定し、他の撮像モダリティからの医療画像データの分類およびセグメンテーションなどの問題を学習するための新しい畳み込みネットワークを構成することを目的とする。
理解されるように、機械学習は、「明示的にプログラムされることなく学習する能力をコンピュータに与える」コンピュータサイエンスのサブフィールドである。機械学習は、データから学習し、データを予測することができるアルゴリズムの研究および構成を探索する。機械学習では、特徴学習または表現学習は、生データ入力を機械学習タスクで効果的に利用することができる表現に変換する一連の手法である。表現学習は、分類などの機械学習タスクが、数学的にも計算的にも処理に便利な入力を必要とすることが多いという事実によって動機付けられる。しかし、画像、ビデオ、およびセンサ測定などの実際のデータは通常、複雑かつ冗長であり、非常に変動しやすい。したがって、生データから有用な特徴または表現を識別することが望ましい。現在、手動による特徴識別方法は、高価な人間の労力を必要とし、専門家の知識に依存している。また、手動で生成された表現は通例、一般化には向いておらず、したがって効率的な表現学習手法の設計を動機付けし、特徴または表現学習を自動化および一般化する。
さらに、機械学習では、畳み込みニューラルネットワーク(CNNまたはConvNet)または深層畳み込みニューラルネットワークは、フィードフォワード人工ニューラルネットワークの一種であり、そのニューロン間の接続パターンは、動物の視覚皮質の組織に触発されている。畳み込みニューラルネットワーク(CNN)は、生物学的に触発された多層パーセプトロンの変形であり、最小限の前処理で視覚皮質の挙動をエミュレートするように設計されている。多層パーセプトロンネットワーク(MLP)は、入力データのセットを適切な出力のセットにマップするフィードフォワード人工ニューラルネットワークモデルであることに留意されたい。MLPは、有向グラフのノードの複数の層を含み、各層は次の層に完全に接続されている。現在の展開では、CNNは、画像およびビデオ認識、レコメンダシステム、ならびに自然言語処理において幅広い用途を有する。CNNはまた、重み共有アーキテクチャおよび並進不変特性に基づくシフト不変または空間不変人工ニューラルネットワーク(SIANN)としても知られている。
深層CNNアーキテクチャでは、畳み込み層がコアビルディングブロックであることに留意されたい。畳み込み層に関連付けられたパラメータは、学習可能なフィルタまたはカーネルのセットを含む。フォワードパスの間、各フィルタは、入力ボリュームの幅および高さにわたって畳み込まれ、フィルタの項目と入力との間の点乗積を計算し、そのフィルタの二次元(2D)活性化マップをもたらす。したがって、ネットワークは、ネットワークが入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化されるフィルタを学習する。深層CNNアーキテクチャは、典型的には、深層学習する問題専用に構築される。深層学習は、人間のような知覚や意思決定を伴う多くのタスクで効果的であることが知られている。深層学習の典型的な用途は、手書き認識、画像認識、および音声認識である。深層学習手法は、訓練データおよびそのデータに対応する成果を使用することによってネットワークモデルを構成する。ネットワークモデルが構成されると、モデルは成果を決定するための新しいデータで使用することができる。さらに、特定の成果について一度学習された深層学習ネットワークは、関連する成果のために有利に再利用され得ることが理解されよう。
さらに、CNNは、入力データセットがラベル付けされている教師あり学習に、ならびに入力データセットがラベル付けされていない教師なし学習に使用することができる。ラベル付けされた入力データセットは、データセットの要素がラベルによって表される分類スキームに事前に関連付けられているデータセットである。したがって、CNNは、データセットのラベル付けされたサブセットで訓練され、別のサブセットでテストされて正確な分類結果を検証し得る。
深層CNNアーキテクチャは、層が階層的に接続された多層型である。各層の入力から出力へのマッピングおよびフィルタの数が増えると、多層深層CNNは、その動作のために構成する必要のある膨大な数のパラメータをもたらす可能性がある。そのようなCNNの訓練データが不足している場合、学習する問題は、未決定である。この状況では、事前学習したCNNモデルから特定のパラメータを転送することが有利である。転送学習は、層のサブセットで事前学習したパラメータを凍結することによって最適化されるパラメータの数を減らし、残りの層を調整するための適切な初期化を提供する。医療画像の問題のドメインでは、転送学習を使用して分類および識別の様々な問題のためにCNNを事前構成することは、データが不足している状況、複数の撮像モダリティおよび解剖学的構造による異種データタイプの課題、ならびに他の臨床課題の改善に有利である。
本明細書の一態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のための方法が提示される。方法は、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得ることを含む。さらに、方法は、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行することであって、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むことを含む。加えて、方法は、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を特徴プリミティブリポジトリに格納することを含む。
本明細書の別の態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のためのインタラクティブ表現学習転送(IRLT)ユニットが提示される。IRLTユニットは、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含む。さらに、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。
本明細書のさらに別の態様によれば、マルチモダリティ転送学習システムが提示される。マルチモダリティ転送学習システムは、プロセッサユニットと、プロセッサユニットに通信可能かつ動作可能に結合されたメモリユニットとを含む。さらに、マルチモダリティ転送学習システムは、プロセッサユニットに動作可能に結合され、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含むインタラクティブ表現学習転送(IRLT)ユニットを含む。加えて、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。
本明細書の実施形態のこれらおよび他の特徴および態様は、以下の詳細な説明を添付の図面を参照して検討することでさらによく理解されると考えられ、添付の図面において、類似の符号は、図面の全体を通して類似の部分を表している。
本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステムの概略図である。 本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。 本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。 本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて未知のデータセットを学習するための方法を示すフローチャートである。 本明細書の態様による、インタラクティブ学習ネットワークコンフィギュレータの一実施形態の概略図である。
以下で詳細に説明するように、特徴オントロジーの深層学習によるインタラクティブ表現学習転送(学習転移)のための例示的なシステムおよび方法の様々な実施形態が提示される。これらの実施形態の簡潔な説明を提供しようと努力しても、実際の実施態様のすべての特徴を本明細書に記載することができるというわけではない。エンジニアリングまたは設計プロジェクトなどの実際の実施態様の開発においては、開発者の特定の目的を達成するために、例えばシステム関連および事業関連の制約条件への対応など実施態様に特有の決定を数多くしなければならないことを理解されたい。
本明細書の様々な実施形態の要素を説明するとき、「1つの(a、an)」、「この(the)」、および「前記(said)」という冠詞は、それらの要素が1つまたは複数存在することを意味することを意図している。「備える(comprising)」、「含む(including)」および「有する(having)」という用語は、包括的であることを意図し、列挙された要素以外にもさらなる要素が存在してもよいことを意味する。さらに、「構築する」および「構成する」という用語ならびにそれらの変形は、数学的決定または数学的構成の計算を意味することを意図している。「任意のドメイン上に描かれたデータ」または「任意のドメイン上のデータ」という用語は、ドメイン、例えば、ソーシャルメディアデータ、センサデータ、企業データなどに対応するデータを意味することを意図している。
本明細書で使用される「転送学習」または「帰納的転送」という用語は、ある問題から異なる関連する問題を解決しながら得られた知識または学習を適用することに焦点を当てた機械学習のアプローチを意味することを意図している。この知識または学習は、典型的には伝達関数、マッピング関数、グラフ、行列、および他のプリミティブの組み合わせおよび変形によって、様々な方法で特徴付けおよび/または表現することができる。また、本明細書で使用される「転送学習プリミティブ」という用語は、上述の機械学習問題を解決することによって得られる知識または学習の特徴付けおよび/または表現を意味することを意図している。
さらに、本明細書で使用される「特徴プリミティブ」という用語は、入力データセットの態様の特徴付け、典型的には、解剖学的構造の画像に対応する関心領域(ROI)の外観、形状ジオメトリ、または形態を意味することを意図しており、画像は、超音波撮像システム、コンピュータ断層撮影(CT)撮像システム、陽電子放射断層撮影-CT(PET-CT)撮像システム、磁気共鳴(MR)撮像システムなどの撮像モダリティから得ることができる。また、解剖学的構造は、限定はしないが、肺、肝臓、腎臓、胃、心臓、脳などの人体の内部器官を含んでもよい。
本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステム100が図1に示されている。現在考えられている図1の構成では、システム100は、マルチモダリティ転送学習(MTL)サブシステム102を含む。MTLサブシステム102は、インタラクティブ表現学習転送(IRLT)ユニット104と、プロセッサユニット108と、メモリユニット110と、ユーザインターフェース106とを含む。プロセッサユニット108は、メモリユニット110に通信可能に結合される。ユーザインターフェース106は、IRLTユニット104に動作可能に結合される。また、IRLTユニット104は、プロセッサユニット108およびメモリユニット110に動作可能に結合される。システム100および/またはMTLサブシステム102は、ディスプレイユニット134を含み得る。MTLサブシステム102は、他の構成要素またはハードウェアを含むことができ、図1に示す構成要素に限定されないことに留意されたい。
ユーザインターフェース106は、入力画像128の特性に対応するユーザ入力130を受信するように構成される。ユーザ入力130は、限定はしないが、撮像モダリティ、入力画像128によって一般に表される解剖学的構造、入力画像128に対応するROIの外観などの入力画像128の態様または特性を含み得る。
特定の実施形態では、IRLTユニット104は、1つまたは複数のプロセッサユニット108を介して実行可能であり、メモリユニット110に格納されるソフトウェアシステムまたはコンピュータ命令として実装されてもよい。他の実施形態では、IRLTユニット104は、例えば、FPGA、カスタムチップ、集積回路(IC)、特定用途向けIC(ASIC)などを介してハードウェアシステムとして実装されてもよい。
図1に示されるように、IRLTユニット104は、インタラクティブ学習ネットワークコンフィギュレータ(ILNC)112と、教師なし学習用に構成された1つまたは複数のCNN(教師なし学習CNN)114と、教師あり学習用に構成された1つまたは複数のCNN(教師あり学習CNN)116と、特徴プリミティブリポジトリ118とを含み得る。ILNC112は、教師なし学習CNN114、教師あり学習CNN116、および特徴プリミティブリポジトリ118に動作可能に結合される。一実施形態では、INLC112は、ユーザが1つまたは複数の教師あり学習CNN116または教師なし学習CNN114を構成することを可能にするように構成されたグラフィカルユーザインターフェースサブシステムであり得る。
特徴プリミティブリポジトリ118は、入力画像128のROIに対応する1つまたは複数の特徴プリミティブおよび1つまたは複数の対応するマッピング関数を格納するように構成される。本明細書で使用される「マッピング関数」という用語は、CNNの出力がROIの態様に基づいて入力画像128のROIを特徴付ける特徴プリミティブになるようにROIを圧縮表現にマップする伝達関数またはCNNフィルタを表すことを意図している。一例では、ROIの態様は、形状ジオメトリ、外観、形態などを含み得る。したがって、特徴プリミティブリポジトリ118は、1つまたは複数のマッピング関数を格納するように構成される。これらのマッピング関数は、対応する特徴プリミティブと併せて、CNNを事前構成して新しい訓練セットを学習するために使用することができる。したがって、特徴プリミティブリポジトリ118は、他のCNNから得られた転送学習である特徴プリミティブおよびマッピング関数を格納し、新しいCNNを事前構成して未知のデータセットを学習するように構成される。図1に示すように、特徴プリミティブリポジトリ118が格納するように構成される特徴プリミティブのいくつかの非限定的な例は、画像128のROIに対応する外観120、画像128のROIに対応する形状ジオメトリ124、および画像128に対応する解剖学的構造126を特徴付ける特徴プリミティブを含む。
現在考えられている図1の構成では、ILNC112は、入力画像128に対応するROIの1つまたは複数の態様をインタラクティブに特徴付けるための様々なツールおよびオプションをユーザに提示するように構成される。ILNC112の例示的な実施形態が図5に示されており、ILNC112の作業は、図4および図5を参照してより詳細に説明される。
システム100は、特徴プリミティブおよびマッピング関数のポートフォリオを特徴プリミティブリポジトリ118に格納される1つまたは複数の解剖学的構造および撮像モダリティにわたって開発するように構成される。その後、システム100は、ILNC112をユーザに提供し、ユーザが未知の画像データセットの1つまたは複数のROIに対応するモダリティ、解剖学的構造、形状ジオメトリ、形態などの選択に基づいて新しい未知の画像データセットを学習するためにCNNを事前構成することを可能にする。例として、CNNの1つの学習成果は、画像データセットを分類する分類スキームであり得る。学習成果の他の非限定的な例は、ピクセルレベルのセグメンテーション、回帰などを含んでもよい。システム100の作業は、図2~図5を参照してより詳細に説明される。
加えて、システム100および/またはMTLサブシステム102は、特徴プリミティブ、マッピング関数、画像データセットなどの1つまたは複数をディスプレイユニット134上で視覚化するように構成され得る。
次に図2を参照すると、本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート200が提示される。方法200は、図1の構成要素を参照して説明される。
フローチャート200は、ラベル付けされていない画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリ118などの特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、図2の方法200の様々なステップ、より具体的には、ステップ202~208は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ210は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。また、ステップ214~216は、メモリユニット110および1つまたは複数の教師なし学習CNN114と併せてプロセッサユニット108によって実行され得る。
方法200は、ステップ202で開始し、第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット220および第2の入力画像データセット222が得られる。一実施形態では、第1および第2の入力画像データセット220、222は、肝臓、肺、腎臓、心臓、脳、胃などの人体の解剖学的構造に対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET-CT撮像システム、またはそれらの組み合わせを含み得る。
ステップ204において、入力画像データセット220、222がラベル付けされているかどうかを決定するためにチェックが実施される。前述のように、入力画像データセットを参照するラベルは、形状ジオメトリ、外観、形態など、入力画像の態様を特徴付ける分類スキームまたはスコアを概して表すものとすることができる。ステップ204において、入力画像データセットがラベル付けされていると決定される場合、制御はステップ210に移り、第1のCNNおよび第2のCNNは、入力画像データセット220、222の教師あり学習用に構成される。ステップ210は、図3を参照してより詳細に説明される。ステップ210に続いて、方法200は、ステップ212によって示されるように終了する。
再びステップ204を参照すると、入力画像データセットがラベル付けされていないと決定される場合、制御はステップ206に移り、第2のチェックが実施され、第1の入力画像データセット220および第2の入力画像データセット222が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを含むと決定される場合、制御はステップ214に移る。しかし、ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを有さないと決定されると、制御はステップ208に移る。
一例では、ステップ208において、第1の入力画像データセット220が十分なデータを含み、第2の入力画像データセット222が十分なデータを含まないと決定され得る。したがって、この例では、ステップ208において、第2の撮像モダリティに対応する第2の入力画像データセット222は、追加のデータで増強される。第2の入力画像データセット222を増強するための追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット220を処理することによって得ることができる。強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティ取得を行い、深層学習、手作業により生成された強度特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ214に移る。
ステップ214において、第1の教師なし学習CNNおよび第2の教師なし学習CNNは、第1の入力画像データセット220および第2の入力画像データセット222で共同で訓練されて入力画像データセット220、222の圧縮表現を学習し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含む。
1つまたは複数の特徴プリミティブは、第1の入力画像データセット220の画像の態様を特徴付ける。マッピング関数は、入力画像データセットを対応する特徴プリミティブにマップすることに留意されたい。一実施形態では、マッピング関数は、式(1)に従って定義することができる。
式(1)において、hCTは、画像PCTの関心領域がマッピング関数fおよび重み
を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像PCTは、CT撮像システムの使用を介して得られた画像に対応する。
ステップ214の結果として、第1の撮像モダリティおよび第2の撮像モダリティに対応する1つまたは複数のマッピング関数が生成されることに留意されたい。これらのマッピング関数は、第1および第2の入力画像データセット220、222を同じ特徴プリミティブにマップすることに留意されたい。一実施形態では、第2のマッピング関数は、式(2)に従って定義することができる。
式(2)において、hMRは、画像PMRの関心領域がマッピング関数fおよび重み
を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像PMRは、MR撮像システムを使用して得られる。
さらに、ステップ218において、少なくとも1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリ118に格納される。次に、制御はステップ212に移り、方法200を終了する。
次に図3を参照すると、本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート300が提示される。より具体的には、方法300は、より詳細に図2のステップ210を説明する。また、方法300は、図1の構成要素を参照して説明される。
フローチャート300は、ラベル付けされた画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、図3の方法300の様々なステップ、より具体的には、ステップ302~308は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ310~314は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。
方法300は、ステップ302で開始し、少なくとも第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット316および第2の入力画像データセット318が得られる。一実施形態では、第1および第2の入力画像データセット316、318は、人体の解剖学的構造、例えば、肝臓、肺、腎臓、心臓、脳、胃などに対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET-CT撮像システム、またはそれらの組み合わせを含み得る。1つまたは複数の教師ありCNNの学習成果は、第1および第2の入力画像データセット316、318における画像の分類であり得ることに留意されたい。
ステップ304において、チェックが実施され、第1の入力画像データセット316および第2の入力画像データセット318が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを含むと決定される場合、制御はステップ308に移る。しかし、ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを有さないと決定されると、制御はステップ306に移る。一例では、ステップ306において、第1の入力画像データセット316が十分なデータを含み、第2の入力画像データセット318が十分なデータを含まないと決定され得る。したがって、この例では、ステップ306において、第2のモダリティに対応する第2の入力画像データセット318は、追加のデータで増強される。追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット316を処理することによって得られることに留意されたい。前述のように、強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティ取得を行い、深層学習、手作りの強度特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ308に移る。
さらに、ステップ308において、第1の教師あり学習CNNおよび第2の教師あり学習CNNは、第1の入力画像データセット316に関連付けられたラベルおよび第2の入力画像データセット318に関連付けられたラベルに基づいて共同で訓練され、1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成する。
一実施形態では、学習成果は、第1の入力画像データセット316の画像の態様および第2の入力画像データセット318の画像の態様ならびに対応するマッピング関数を特徴付ける1つまたは複数の特徴プリミティブを含むことができ、マッピング関数は、対応する第1の入力画像データセット316および第2の入力画像データセット318を1つまたは複数の特徴プリミティブにマップする。したがって、特徴プリミティブは、第1の入力画像データセット316および第2の入力画像データセット318を取得するために使用される撮像モダリティから独立している。次にステップ312を参照すると、1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリに格納される。
上述の方法200および300は、複数のモダリティにわたる複数の解剖学的構造に対して生成された画像に対応する特徴プリミティブおよびマッピング関数のポートフォリオの作成を可能にする。特徴プリミティブおよびマッピング関数は、特徴プリミティブリポジトリ118に格納される。また、特徴プリミティブおよびマッピング関数のこのポートフォリオは、入力画像データセットを用いたCNNの訓練で得られた学習を特徴付ける。さらに、学習を転送して新しいCNNを事前構成し、異なる未知のデータセットの学習成果を得ることができる。
前述を念頭に置いて、図4は、本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて未知のデータセットを学習するための方法を図示するフローチャート400を示す。方法400は、図1、図2および図3を参照して説明される。フローチャート400は、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて未知のデータセットを学習するための方法400の主要なステップを示すことに留意されたい。いくつかの実施形態では、図4の方法400の様々なステップ、より具体的には、ステップ402~406は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ408~410は、メモリユニット110および
1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。
方法400は、ステップ402で開始し、少なくとも1つの入力画像データセット404を得ることができる。少なくとも1つの入力画像データセット404は、未知の入力画像データセットを表す。加えて、入力画像データセット404に対応する少なくとも1つの学習パラメータ406および学習成果408を得ることができる。特定の実施形態では、入力画像データセット404、学習パラメータ406、および学習成果408は、ユーザ入力410として得られてもよい。一実施形態では、学習パラメータ406は、撮像モダリティ、画像解剖学的構造、またはそれらの組み合わせを含むことができる。また、学習成果408は、分類スキーム、回帰スキーム、またはセグメンテーションのようなピクセルレベルの出力を含み得る。
ステップ412において、学習パラメータ406および学習成果408に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数が特徴プリミティブリポジトリ118から得られる。その後、CNNは、ステップ414によって示されるように、少なくとも1つの特徴プリミティブおよび少なくとも1つのマッピング関数を使用して入力画像データセット404を学習するように構成される。特定の実施形態では、CNNの構成は、特徴プリミティブリポジトリ118から得られた1つまたは複数のフィルタをマッピング関数に設定することを伴う場合がある。ステップ414の処理の結果として、事前構成されたCNNが生成される。さらに、ステップ416において、事前構成されたCNNは、少なくとも入力画像データセット404の訓練サブセットで最適化される。
一実施形態では、第1の撮像モダリティに対応するラベル付けされたデータを使用する教師あり学習用の訓練された畳み込みオートエンコーダ(CAE)は、式(3)に従って、いくつかのパラメータで入力画像データセット404に適合される。
式(3)において、wは、第1の撮像モダリティに対応する画像Pの関心領域がマッピング関数fおよび重み
を使用してマップされるときに得られる特徴プリミティブのセットであり、αは、CAEパラメータの疎なセットである。このようにして、フィルタの数を減らすことができる。CAEパラメータαは、少なくとも入力画像データセット404の訓練サブセットでさらに最適化され得る。このようにして、第2の撮像モダリティに対応する教師あり学習の問題について、学習用のフレームワークは、以下の定式化に従って定義され得る。
定式化(4)では、式(3)で得られたマッピング関数fは、第2の撮像モダリティに対応する画像の関心領域に対応するマッピング関数
に適用される。その後、ステップ418において、入力画像データセット404は、最適化されたCNNを介して処理され、要求された学習成果408に対応する学習成果420を得る。
方法400で実施されるワークフローは、図5を参照してより詳細に説明される。図5は、本明細書の態様による、図1のインタラクティブ表現学習転送ユニット104のインタラクティブ学習ネットワークコンフィギュレータ112の一実施形態の概略図500である。図5に示されるように、ブロック図500は、図1に示すILNC112を概して表す。参照番号502~508は、それぞれ撮像モダリティ、解剖学的構造、外観、および形状ジオメトリに対応する特徴プリミティブの視覚化を概して表す。視覚化502~508のデータは、図1の特徴プリミティブリポジトリ118から得ることができる。
図5では、ILNC500は、インタラクティブなメニューの選択をユーザに提供する。特に、ILNC500を使用して、ユーザは、CNNによって学習される未知の画像データセットの1つまたは複数の態様を選択することができる。参照番号510~516は、未知の画像データセットの特徴付けを支援するためにユーザにとって利用可能であり得るインタラクティブなメニューオプションを概して表す。例として、参照番号510は、未知の画像データセットの撮像モダリティに関係し得る。ブロック510のメニューオプションは、CT、MR、PET、超音波などを含み得る。同様に、参照番号512~516は、未知の画像データセットのそれぞれ外観、形状ジオメトリ、および解剖学的構造に関係するメニューオプションを示し得る。
インタラクティブなメニューからユーザによって行われた選択により、メニュー選択に対応する特徴プリミティブおよびマッピング関数によるCNNの事前構成が可能になる。参照番号518は、事前構成されたCNNの視覚化を概して表す。特定の実施形態では、参照番号518は、図1のIRLTユニット104の1つまたは複数の教師あり学習CNN116に対応し得る。加えて、ユーザは、ブロック502~508の特徴プリミティブをグラフィカルに閲覧、視覚化、および組み合わせて、事前構成されたCNN518を作成することができる。
上述の特徴オントロジーの深層学習によるインタラクティブ表現学習転送のためのシステムおよび方法は、学習した特徴プリミティブおよびマッピング関数のポートフォリオを組み合わせてCNNを構成し、新しい医療画像分析の問題を解決することができる転送学習パラダイムを提供する。有利には、CNNは、画像の外観および形態を学習するように訓練され得る。例として、腫瘍は、斑点、円柱、円形、明るい/暗いまたは縞模様などに分類され得る。全体として、ネットワークは、解剖学的構造、モダリティ、外観、および形態(形状ジオメトリ)の様々な組み合わせに対して訓練され、事前学習した特徴を今ある新しい問題に即座に転送するように構成された豊富なポートフォリオを生成することができる。
任意の実施形態に従って、上述したすべてのそのような物体または利点が必ずしも達成することができるわけではないことを理解されたい。したがって、例えば、当業者には明らかなように、本明細書に記載のシステムおよび手法は、本明細書で教示または示唆されるように他の目的または利点を必ずしも達成することなく、本明細書で教示される1つの利点または1群の利点を達成または改善する態様で具現化または実施されてもよい。
本技術は限られた数の実施形態のみに関連して詳細に説明されているが、本明細書がそのような開示された実施形態に限定されないことは容易に理解されるべきである。むしろ、本技術は、これまでに説明されていないが特許請求の範囲の精神および範囲に相応する、任意の数の変形、代替、置換または同等の構成を組み込むように修正することができる。加えて、本技術の様々な実施形態が説明されているが、本明細書の態様は、説明した実施形態のいくつかのみを含んでもよいことを理解されたい。したがって、本明細書は、前述の説明によって限定されるべきではなく、添付の特許請求の範囲によってのみ限定される。
100 システム
102 マルチモダリティ転送学習(MTL)サブシステム
104 インタラクティブ表現学習転送(IRLT)ユニット
106 ユーザインターフェース
108 プロセッサユニット
110 メモリユニット
112 インタラクティブ学習ネットワークコンフィギュレータ(ILNC)
114 教師なし学習畳み込みニューラルネットワーク(CNN)
116 教師あり学習CNN
118 特徴プリミティブリポジトリ
120 外観
124 形状ジオメトリ
126 解剖学的構造
128 入力画像
130 ユーザ入力
134 ディスプレイユニット
200 フローチャート、方法
202 ステップ
204 ステップ
206 ステップ
208 ステップ
210 ステップ
212 ステップ
214 ステップ
216 ステップ
218 ステップ
220 第1の入力画像データセット
222 第2の入力画像データセット
300 フローチャート、方法
302 ステップ
304 ステップ
306 ステップ
308 ステップ
310 ステップ
312 ステップ
314 ステップ
316 第1の入力画像データセット
318 第2の入力画像データセット
400 フローチャート、方法
402 ステップ
404 入力画像データセット
406 学習パラメータ
408 学習成果
410 ユーザ入力
412 ステップ
414 ステップ
416 ステップ
418 ステップ
420 学習成果
500 概略図、ブロック図、ILNC
502 視覚化、ブロック
504 視覚化、ブロック
506 視覚化、ブロック
508 視覚化、ブロック
510 ブロック
512 ブロック
514 ブロック
516 ブロック
518 事前構成されたCNN

Claims (13)

  1. 第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得ること(202)と、
    新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること(308)、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練することと、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納すること(218、312)と
    を含む、方法(200、300、400)。
  2. 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
    少なくとも1つの未知の入力画像データセット(404)を得ることと、
    前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得ること(402)と、
    前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得ること(412)と、
    前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成すること(414)と、
    少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練すること(416)と、
    をさらに含み、
    前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、解剖学的構造を含み、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
    1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
    前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
    前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220、222)を前記少なくとも1つの特徴プリミティブにマップする、請求項1に記載の方法(200、300、400)。
  3. 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
    前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項1に記載の方法(200、300、400)。
  4. 前記第1及び第2の入力画像データセットを得た後に、
    前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得ることと、
    前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練することをさらに含む、請求項1乃至3のいずれかに記載の方法(200、300、400)。
  5. 前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項4に記載の方法(200、300、400)。
  6. メモリユニット(110)を備え、1つまたは複数のプロセッサユニット(108)により実行可能な処理ユニット(104)であって、
    第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
    新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)とに基づいて、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記つまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成される、処理ユニット(104)。
  7. 前記処理ユニット(104)は、
    前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
    少なくとも1つの未知の入力画像データセット(404)を得て、
    前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
    前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
    前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
    少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
    ようにさらに構成され、
    前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
    1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
    前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
    前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項6に記載の処理ユニット(104)。
  8. 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
    前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項6に記載の処理ユニット(104)。
  9. 前記第1及び第2の入力画像データセットを得た後に、
    前記処理ユニット(104)は、前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得、
    前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練するように構成される、請求項6に記載の処理ユニット(104)。
  10. 前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項9に記載の処理ユニット(104)。
  11. プロセッサユニット(108)と、
    前記プロセッサユニット(108)に動作可能に結合されたメモリユニット(110)と、
    前記プロセッサユニット(108)に動作可能に結合され、
    第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
    新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習CNN(116)を訓練し前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)のつまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成され、
    前記処理ユニット(104)は、1つまたは複数のプロセッサユニット(108)により実行可能である、システム(100)。
  12. 前記処理ユニット(104)は、
    前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
    少なくとも1つの未知の入力画像データセット(404)を得て、
    前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
    前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
    前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
    少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
    ようにさらに構成され、
    前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
    前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
    1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
    前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
    前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項11に記載のシステム(100)。
  13. 前記処理ユニット(104)は、
    前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
    前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)を前記マッピング関数により共通の特徴プリミティブにマッピングする
    ようにさらに構成される、請求項11に記載のシステム(100)。
JP2020524235A 2017-11-03 2018-11-02 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム Active JP7467336B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201741039221 2017-11-03
IN201741039221 2017-11-03
PCT/US2018/058855 WO2019090023A1 (en) 2017-11-03 2018-11-02 System and method for interactive representation learning transfer through deep learning of feature ontologies

Publications (2)

Publication Number Publication Date
JP2021507327A JP2021507327A (ja) 2021-02-22
JP7467336B2 true JP7467336B2 (ja) 2024-04-15

Family

ID=64332416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020524235A Active JP7467336B2 (ja) 2017-11-03 2018-11-02 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム

Country Status (4)

Country Link
EP (1) EP3704636A1 (ja)
JP (1) JP7467336B2 (ja)
CN (1) CN111316290B (ja)
WO (1) WO2019090023A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210486B (zh) * 2019-05-15 2021-01-01 西安电子科技大学 一种基于素描标注信息的生成对抗迁移学习方法
CN110186375A (zh) * 2019-06-06 2019-08-30 西南交通大学 智能化高铁白车身焊接装配特征检测装置及检测方法
US11941497B2 (en) 2020-09-30 2024-03-26 Alteryx, Inc. System and method of operationalizing automated feature engineering
CN112434602B (zh) * 2020-11-23 2023-08-29 西安交通大学 一种基于可迁移共特征空间挖掘的故障诊断方法
CN113707312A (zh) * 2021-09-16 2021-11-26 人工智能与数字经济广东省实验室(广州) 一种基于深度学习的血管定量识别的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020500378A (ja) 2016-11-23 2020-01-09 ゼネラル・エレクトリック・カンパニイ ディープラーニング医療システムおよび医療処置のための方法
JP2020500377A (ja) 2016-11-23 2020-01-09 ゼネラル・エレクトリック・カンパニイ ディープラーニング医療システムおよび画像収集のための方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011114243A1 (en) * 2010-03-18 2011-09-22 Koninklijke Philips Electronics N.V. Functional image data enhancement and/or enhancer
JP6235610B2 (ja) * 2012-12-26 2017-11-22 ボルケーノ コーポレイション マルチモダリティ医療用撮像システムにおける測定および強調
US9922272B2 (en) * 2014-09-25 2018-03-20 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
CN105930877B (zh) * 2016-05-31 2020-07-10 上海海洋大学 一种基于多模态深度学习的遥感影像分类方法
CN106909905B (zh) * 2017-03-02 2020-02-14 中科视拓(北京)科技有限公司 一种基于深度学习的多模态人脸识别方法
CN106971174B (zh) * 2017-04-24 2020-05-22 华南理工大学 一种cnn模型、cnn训练方法以及基于cnn的静脉识别方法
CN107220337B (zh) * 2017-05-25 2020-12-22 北京大学 一种基于混合迁移网络的跨媒体检索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020500378A (ja) 2016-11-23 2020-01-09 ゼネラル・エレクトリック・カンパニイ ディープラーニング医療システムおよび医療処置のための方法
JP2020500377A (ja) 2016-11-23 2020-01-09 ゼネラル・エレクトリック・カンパニイ ディープラーニング医療システムおよび画像収集のための方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松岡拓未 外7名、「CycleGANによる異種モダリティ画像生成を用いた股関節MRIの筋骨格セグメンテーション」、第37回日本医用画像工学会大会、2018年7月25日、OP1-4、75~80頁

Also Published As

Publication number Publication date
CN111316290B (zh) 2024-01-12
CN111316290A (zh) 2020-06-19
WO2019090023A1 (en) 2019-05-09
JP2021507327A (ja) 2021-02-22
EP3704636A1 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
JP7467336B2 (ja) 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム
Dalca et al. Anatomical priors in convolutional networks for unsupervised biomedical segmentation
Zhou et al. Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method
Li et al. Deep learning based imaging data completion for improved brain disease diagnosis
Khagi et al. Pixel‐Label‐Based Segmentation of Cross‐Sectional Brain MRI Using Simplified SegNet Architecture‐Based CNN
Li et al. DFENet: A dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion
Chanu et al. Retracted article: computer-aided detection of brain tumor from magnetic resonance images using deep learning network
DE102021133631A1 (de) Gezielte objekterkennung in bildverarbeitungsanwendungen
Khan et al. Segmentation of shoulder muscle MRI using a new region and edge based deep auto-encoder
Nair et al. Multi-layer, multi-modal medical image intelligent fusion
Quan et al. An intelligent system approach for probabilistic volume rendering using hierarchical 3D convolutional sparse coding
Ogiela et al. Natural user interfaces in medical image analysis
Tasdizen et al. Improving the robustness of convolutional networks to appearance variability in biomedical images
Tawfik et al. Multimodal medical image fusion using stacked auto-encoder in NSCT domain
Mano et al. Method of multi‐region tumour segmentation in brain MRI images using grid‐based segmentation and weighted bee swarm optimisation
Jena et al. Review of neural network techniques in the verge of image processing
Huang et al. A two-level dynamic adaptive network for medical image fusion
Michel et al. Image transport regression using mixture of experts and discrete Markov random fields
US20240265503A1 (en) Neural processing unit and artificial neural network system for image fusion
Bennai et al. Towards a generic Multi-agent approach for medical image segmentation
Rashmi et al. CNN based multi-view classification and ROI segmentation: A survey
Indhumathi et al. Hybrid Pixel-Based Method for Multimodal Medical Image Fusion Based on Integration of Pulse-Coupled Neural Network (PCNN) and Genetic Algorithm (GA)
Yang et al. A survey on deep learning-based diffeomorphic mapping
Gaasedelen et al. Automated multiclass cardiac volume segmentation and model generation
Vanitha et al. A novel framework of multimodal medical image fusion using adaptive NSST and optimized deep learning approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230124

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230331

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230405

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150