JP7467336B2 - 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム - Google Patents
複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム Download PDFInfo
- Publication number
- JP7467336B2 JP7467336B2 JP2020524235A JP2020524235A JP7467336B2 JP 7467336 B2 JP7467336 B2 JP 7467336B2 JP 2020524235 A JP2020524235 A JP 2020524235A JP 2020524235 A JP2020524235 A JP 2020524235A JP 7467336 B2 JP7467336 B2 JP 7467336B2
- Authority
- JP
- Japan
- Prior art keywords
- input image
- cnn
- mapping function
- image dataset
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 45
- 210000003484 anatomy Anatomy 0.000 title claims description 24
- 238000012545 processing Methods 0.000 title claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 129
- 238000013507 mapping Methods 0.000 claims description 86
- 230000006870 function Effects 0.000 claims description 85
- 238000012549 training Methods 0.000 claims description 34
- 238000010191 image analysis Methods 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000002452 interceptive effect Effects 0.000 description 19
- 238000012546 transfer Methods 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 11
- 238000013526 transfer learning Methods 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 238000012800 visualization Methods 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013170 computed tomography imaging Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000002216 heart Anatomy 0.000 description 3
- 210000003734 kidney Anatomy 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 210000004072 lung Anatomy 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 210000002784 stomach Anatomy 0.000 description 3
- 238000012285 ultrasound imaging Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000000857 visual cortex Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 210000001153 interneuron Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。
102 マルチモダリティ転送学習(MTL)サブシステム
104 インタラクティブ表現学習転送(IRLT)ユニット
106 ユーザインターフェース
108 プロセッサユニット
110 メモリユニット
112 インタラクティブ学習ネットワークコンフィギュレータ(ILNC)
114 教師なし学習畳み込みニューラルネットワーク(CNN)
116 教師あり学習CNN
118 特徴プリミティブリポジトリ
120 外観
124 形状ジオメトリ
126 解剖学的構造
128 入力画像
130 ユーザ入力
134 ディスプレイユニット
200 フローチャート、方法
202 ステップ
204 ステップ
206 ステップ
208 ステップ
210 ステップ
212 ステップ
214 ステップ
216 ステップ
218 ステップ
220 第1の入力画像データセット
222 第2の入力画像データセット
300 フローチャート、方法
302 ステップ
304 ステップ
306 ステップ
308 ステップ
310 ステップ
312 ステップ
314 ステップ
316 第1の入力画像データセット
318 第2の入力画像データセット
400 フローチャート、方法
402 ステップ
404 入力画像データセット
406 学習パラメータ
408 学習成果
410 ユーザ入力
412 ステップ
414 ステップ
416 ステップ
418 ステップ
420 学習成果
500 概略図、ブロック図、ILNC
502 視覚化、ブロック
504 視覚化、ブロック
506 視覚化、ブロック
508 視覚化、ブロック
510 ブロック
512 ブロック
514 ブロック
516 ブロック
518 事前構成されたCNN
Claims (13)
- 第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得ること(202)と、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること(308)、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練することと、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納すること(218、312)と
を含む、方法(200、300、400)。 - 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得ることと、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得ること(402)と、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得ること(412)と、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成すること(414)と、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練すること(416)と、
をさらに含み、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220、222)を前記少なくとも1つの特徴プリミティブにマップする、請求項1に記載の方法(200、300、400)。 - 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項1に記載の方法(200、300、400)。 - 前記第1及び第2の入力画像データセットを得た後に、
前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得ることと、
前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練することをさらに含む、請求項1乃至3のいずれかに記載の方法(200、300、400)。 - 前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項4に記載の方法(200、300、400)。
- メモリユニット(110)を備え、1つまたは複数のプロセッサユニット(108)により実行可能な処理ユニット(104)であって、
第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)とに基づいて、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成される、処理ユニット(104)。 - 前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得て、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
ようにさらに構成され、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項6に記載の処理ユニット(104)。 - 前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項6に記載の処理ユニット(104)。 - 前記第1及び第2の入力画像データセットを得た後に、
前記処理ユニット(104)は、前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得、
前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練するように構成される、請求項6に記載の処理ユニット(104)。 - 前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項9に記載の処理ユニット(104)。
- プロセッサユニット(108)と、
前記プロセッサユニット(108)に動作可能に結合されたメモリユニット(110)と、
前記プロセッサユニット(108)に動作可能に結合され、
第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習CNN(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成され、
前記処理ユニット(104)は、1つまたは複数のプロセッサユニット(108)により実行可能である、システム(100)。 - 前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得て、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
ようにさらに構成され、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項11に記載のシステム(100)。 - 前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)を前記マッピング関数により共通の特徴プリミティブにマッピングする
ようにさらに構成される、請求項11に記載のシステム(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201741039221 | 2017-11-03 | ||
IN201741039221 | 2017-11-03 | ||
PCT/US2018/058855 WO2019090023A1 (en) | 2017-11-03 | 2018-11-02 | System and method for interactive representation learning transfer through deep learning of feature ontologies |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507327A JP2021507327A (ja) | 2021-02-22 |
JP7467336B2 true JP7467336B2 (ja) | 2024-04-15 |
Family
ID=64332416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020524235A Active JP7467336B2 (ja) | 2017-11-03 | 2018-11-02 | 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3704636A1 (ja) |
JP (1) | JP7467336B2 (ja) |
CN (1) | CN111316290B (ja) |
WO (1) | WO2019090023A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210486B (zh) * | 2019-05-15 | 2021-01-01 | 西安电子科技大学 | 一种基于素描标注信息的生成对抗迁移学习方法 |
CN110186375A (zh) * | 2019-06-06 | 2019-08-30 | 西南交通大学 | 智能化高铁白车身焊接装配特征检测装置及检测方法 |
US11941497B2 (en) | 2020-09-30 | 2024-03-26 | Alteryx, Inc. | System and method of operationalizing automated feature engineering |
CN112434602B (zh) * | 2020-11-23 | 2023-08-29 | 西安交通大学 | 一种基于可迁移共特征空间挖掘的故障诊断方法 |
CN113707312A (zh) * | 2021-09-16 | 2021-11-26 | 人工智能与数字经济广东省实验室(广州) | 一种基于深度学习的血管定量识别的方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020500378A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび医療処置のための方法 |
JP2020500377A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび画像収集のための方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011114243A1 (en) * | 2010-03-18 | 2011-09-22 | Koninklijke Philips Electronics N.V. | Functional image data enhancement and/or enhancer |
JP6235610B2 (ja) * | 2012-12-26 | 2017-11-22 | ボルケーノ コーポレイション | マルチモダリティ医療用撮像システムにおける測定および強調 |
US9922272B2 (en) * | 2014-09-25 | 2018-03-20 | Siemens Healthcare Gmbh | Deep similarity learning for multimodal medical images |
CN105930877B (zh) * | 2016-05-31 | 2020-07-10 | 上海海洋大学 | 一种基于多模态深度学习的遥感影像分类方法 |
CN106909905B (zh) * | 2017-03-02 | 2020-02-14 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的多模态人脸识别方法 |
CN106971174B (zh) * | 2017-04-24 | 2020-05-22 | 华南理工大学 | 一种cnn模型、cnn训练方法以及基于cnn的静脉识别方法 |
CN107220337B (zh) * | 2017-05-25 | 2020-12-22 | 北京大学 | 一种基于混合迁移网络的跨媒体检索方法 |
-
2018
- 2018-11-02 WO PCT/US2018/058855 patent/WO2019090023A1/en unknown
- 2018-11-02 CN CN201880071649.9A patent/CN111316290B/zh active Active
- 2018-11-02 EP EP18804491.1A patent/EP3704636A1/en not_active Withdrawn
- 2018-11-02 JP JP2020524235A patent/JP7467336B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020500378A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび医療処置のための方法 |
JP2020500377A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび画像収集のための方法 |
Non-Patent Citations (1)
Title |
---|
松岡拓未 外7名、「CycleGANによる異種モダリティ画像生成を用いた股関節MRIの筋骨格セグメンテーション」、第37回日本医用画像工学会大会、2018年7月25日、OP1-4、75~80頁 |
Also Published As
Publication number | Publication date |
---|---|
CN111316290B (zh) | 2024-01-12 |
CN111316290A (zh) | 2020-06-19 |
WO2019090023A1 (en) | 2019-05-09 |
JP2021507327A (ja) | 2021-02-22 |
EP3704636A1 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467336B2 (ja) | 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム | |
Dalca et al. | Anatomical priors in convolutional networks for unsupervised biomedical segmentation | |
Zhou et al. | Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method | |
Li et al. | Deep learning based imaging data completion for improved brain disease diagnosis | |
Khagi et al. | Pixel‐Label‐Based Segmentation of Cross‐Sectional Brain MRI Using Simplified SegNet Architecture‐Based CNN | |
Li et al. | DFENet: A dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion | |
Chanu et al. | Retracted article: computer-aided detection of brain tumor from magnetic resonance images using deep learning network | |
DE102021133631A1 (de) | Gezielte objekterkennung in bildverarbeitungsanwendungen | |
Khan et al. | Segmentation of shoulder muscle MRI using a new region and edge based deep auto-encoder | |
Nair et al. | Multi-layer, multi-modal medical image intelligent fusion | |
Quan et al. | An intelligent system approach for probabilistic volume rendering using hierarchical 3D convolutional sparse coding | |
Ogiela et al. | Natural user interfaces in medical image analysis | |
Tasdizen et al. | Improving the robustness of convolutional networks to appearance variability in biomedical images | |
Tawfik et al. | Multimodal medical image fusion using stacked auto-encoder in NSCT domain | |
Mano et al. | Method of multi‐region tumour segmentation in brain MRI images using grid‐based segmentation and weighted bee swarm optimisation | |
Jena et al. | Review of neural network techniques in the verge of image processing | |
Huang et al. | A two-level dynamic adaptive network for medical image fusion | |
Michel et al. | Image transport regression using mixture of experts and discrete Markov random fields | |
US20240265503A1 (en) | Neural processing unit and artificial neural network system for image fusion | |
Bennai et al. | Towards a generic Multi-agent approach for medical image segmentation | |
Rashmi et al. | CNN based multi-view classification and ROI segmentation: A survey | |
Indhumathi et al. | Hybrid Pixel-Based Method for Multimodal Medical Image Fusion Based on Integration of Pulse-Coupled Neural Network (PCNN) and Genetic Algorithm (GA) | |
Yang et al. | A survey on deep learning-based diffeomorphic mapping | |
Gaasedelen et al. | Automated multiclass cardiac volume segmentation and model generation | |
Vanitha et al. | A novel framework of multimodal medical image fusion using adaptive NSST and optimized deep learning approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201218 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210520 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230116 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230124 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230125 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230331 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230405 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467336 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |