JP2021507327A - Features Systems and methods for interactive expression learning transfer by deep learning of ontology - Google Patents

Features Systems and methods for interactive expression learning transfer by deep learning of ontology Download PDF

Info

Publication number
JP2021507327A
JP2021507327A JP2020524235A JP2020524235A JP2021507327A JP 2021507327 A JP2021507327 A JP 2021507327A JP 2020524235 A JP2020524235 A JP 2020524235A JP 2020524235 A JP2020524235 A JP 2020524235A JP 2021507327 A JP2021507327 A JP 2021507327A
Authority
JP
Japan
Prior art keywords
learning
input image
data set
image data
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020524235A
Other languages
Japanese (ja)
Other versions
JP7467336B2 (en
Inventor
ヴァイジャ,ヴィヴェク・プラバカー
ムリック,ラケシュ
シュリラム,クリシュナ・シーサラム
ランジャン,ソハン・ラシュミ
アナンギ,パヴァン・クマル・ヴイ
シルヴェンカダム,シェシャドゥリ
アラダハリ,チャンダン・クマル・マラッパ
スリークマリ,アラシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2021507327A publication Critical patent/JP2021507327A/en
Application granted granted Critical
Publication of JP7467336B2 publication Critical patent/JP7467336B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のための方法が提示される。方法は、第1および第2の撮像モダリティから少なくとも第1および第2の入力画像データセットを得ることを含む。さらに、方法は、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNおよび第2の教師なし学習CNNをそれぞれ第1および第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行することであって、圧縮表現は、共通の特徴プリミティブおよび対応するマッピング関数を含むことと、共通の特徴プリミティブおよび対応するマッピング関数を特徴プリミティブリポジトリに格納することとを含む。【選択図】図2A method for interactive feature learning transfer to a convolutional neural network (CNN) is presented. The method comprises obtaining at least the first and second input image datasets from the first and second imaging modality. Further, the method is a first supervised learning CNN based on the label associated with the first input image data set, and a second supervised learning CNN based on the label associated with the second input image data set. Collaborative training of learning CNNs to generate one or more feature primitives and corresponding mapping functions, and first and second inputs to the first unsupervised learning CNN and the second unsupervised learning CNN, respectively. Performing at least one of jointly training on an image dataset to learn a compressed representation of the input image dataset, the compressed representation containing common feature primitives and corresponding mapping functions. Includes storing common feature primitives and corresponding mapping functions in the feature primitive repository. [Selection diagram] Fig. 2

Description

本明細書の実施形態は、一般に、学習ネットワークで使用するための様々な撮像モダリティから得られた様々な解剖学的構造の医療画像データの転送可能な表現学習を生成するためのシステムおよび方法に関する。具体的には、システムおよび方法は、第1および/または第2の撮像モダリティの物理学および解剖学的構造の生物学に基づいて特徴プリミティブのセットとして医療画像データの表現学習を決定し、他の撮像モダリティからの医療画像データの分類およびセグメンテーションなどの問題を学習するための新しい畳み込みネットワークを構成することを目的とする。 Embodiments herein relate to systems and methods for generating transferable feature learning of medical image data of various anatomical structures obtained from various imaging modality for use in learning networks. .. Specifically, the system and method determine the expression learning of medical image data as a set of feature primitives based on the biology of the physics and anatomical structure of the first and / or second imaging modalities, and others. The purpose is to construct a new convolutional network for learning issues such as classification and segmentation of medical image data from the imaging modalities of.

理解されるように、機械学習は、「明示的にプログラムされることなく学習する能力をコンピュータに与える」コンピュータサイエンスのサブフィールドである。機械学習は、データから学習し、データを予測することができるアルゴリズムの研究および構成を探索する。機械学習では、特徴学習または表現学習は、生データ入力を機械学習タスクで効果的に利用することができる表現に変換する一連の手法である。表現学習は、分類などの機械学習タスクが、数学的にも計算的にも処理に便利な入力を必要とすることが多いという事実によって動機付けられる。しかし、画像、ビデオ、およびセンサ測定などの実際のデータは通常、複雑かつ冗長であり、非常に変動しやすい。したがって、生データから有用な特徴または表現を識別することが望ましい。現在、手動による特徴識別方法は、高価な人間の労力を必要とし、専門家の知識に依存している。また、手動で生成された表現は通例、一般化には向いておらず、したがって効率的な表現学習手法の設計を動機付けし、特徴または表現学習を自動化および一般化する。 As is understood, machine learning is a subfield of computer science that "gives the computer the ability to learn without being explicitly programmed." Machine learning explores the research and construction of algorithms that can learn from data and predict it. In machine learning, feature learning or expression learning is a set of techniques that transform raw data inputs into expressions that can be effectively used in machine learning tasks. Expression learning is motivated by the fact that machine learning tasks such as classification often require convenient inputs to process both mathematically and computationally. However, actual data such as images, videos, and sensor measurements are usually complex, verbose, and highly variable. Therefore, it is desirable to identify useful features or representations from the raw data. Currently, manual feature identification methods require expensive human labor and rely on expert knowledge. Also, manually generated expressions are usually not suitable for generalization, thus motivating the design of efficient expression learning methods to automate and generalize feature or expression learning.

さらに、機械学習では、畳み込みニューラルネットワーク(CNNまたはConvNet)または深層畳み込みニューラルネットワークは、フィードフォワード人工ニューラルネットワークの一種であり、そのニューロン間の接続パターンは、動物の視覚皮質の組織に触発されている。畳み込みニューラルネットワーク(CNN)は、生物学的に触発された多層パーセプトロンの変形であり、最小限の前処理で視覚皮質の挙動をエミュレートするように設計されている。多層パーセプトロンネットワーク(MLP)は、入力データのセットを適切な出力のセットにマップするフィードフォワード人工ニューラルネットワークモデルであることに留意されたい。MLPは、有向グラフのノードの複数の層を含み、各層は次の層に完全に接続されている。現在の展開では、CNNは、画像およびビデオ認識、レコメンダシステム、ならびに自然言語処理において幅広い用途を有する。CNNはまた、重み共有アーキテクチャおよび並進不変特性に基づくシフト不変または空間不変人工ニューラルネットワーク(SIANN)としても知られている。 Furthermore, in machine learning, a convolutional neural network (CNN or ConvNet) or a deep convolutional neural network is a type of feed-forward artificial neural network whose connection patterns between neurons are inspired by the tissues of the animal's visual cortex. .. A convolutional neural network (CNN) is a biologically inspired variant of a multi-layer perceptron designed to emulate the behavior of the visual cortex with minimal pretreatment. Note that the Multilayer Perceptron Network (MLP) is a feedforward artificial neural network model that maps a set of input data to a suitable set of outputs. The MLP contains multiple layers of nodes in the directed graph, each layer fully connected to the next layer. In its current deployment, CNNs have a wide range of applications in image and video recognition, recommender systems, and natural language processing. CNNs are also known as shift-invariant or space-invariant artificial neural networks (SIANNs) based on weight-sharing architectures and translational invariant properties.

深層CNNアーキテクチャでは、畳み込み層がコアビルディングブロックであることに留意されたい。畳み込み層に関連付けられたパラメータは、学習可能なフィルタまたはカーネルのセットを含む。フォワードパスの間、各フィルタは、入力ボリュームの幅および高さにわたって畳み込まれ、フィルタの項目と入力との間の点乗積を計算し、そのフィルタの二次元(2D)活性化マップをもたらす。したがって、ネットワークは、ネットワークが入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化されるフィルタを学習する。深層CNNアーキテクチャは、典型的には、深層学習する問題専用に構築される。深層学習は、人間のような知覚や意思決定を伴う多くのタスクで効果的であることが知られている。深層学習の典型的な用途は、手書き認識、画像認識、および音声認識である。深層学習手法は、訓練データおよびそのデータに対応する成果を使用することによってネットワークモデルを構成する。ネットワークモデルが構成されると、モデルは成果を決定するための新しいデータで使用することができる。さらに、特定の成果について一度学習された深層学習ネットワークは、関連する成果のために有利に再利用され得ることが理解されよう。 Note that in the deep CNN architecture, the convolutional layer is the core building block. The parameters associated with the convolutional layer include a set of learnable filters or kernels. During the forward path, each filter is convoluted over the width and height of the input volume, calculating the dot product between the items of the filter and the input, resulting in a two-dimensional (2D) activation map of the filter. .. Therefore, the network learns a filter that is activated when the network detects a particular type of feature at a given spatial position at the input. Deep CNN architectures are typically built specifically for deep learning problems. Deep learning is known to be effective in many tasks involving human perception and decision making. Typical applications for deep learning are handwriting recognition, image recognition, and speech recognition. Deep learning techniques construct a network model by using training data and the outcomes corresponding to that data. Once the network model is configured, it can be used with new data to determine outcomes. Furthermore, it will be appreciated that deep learning networks once learned for a particular outcome can be reused favorably for related outcomes.

さらに、CNNは、入力データセットがラベル付けされている教師あり学習に、ならびに入力データセットがラベル付けされていない教師なし学習に使用することができる。ラベル付けされた入力データセットは、データセットの要素がラベルによって表される分類スキームに事前に関連付けられているデータセットである。したがって、CNNは、データセットのラベル付けされたサブセットで訓練され、別のサブセットでテストされて正確な分類結果を検証し得る。 In addition, CNNs can be used for supervised learning with labeled input datasets and for unsupervised learning with unlabeled input datasets. A labeled input dataset is a dataset in which the elements of the dataset are pre-associated with the classification scheme represented by the label. Therefore, CNNs can be trained on a labeled subset of the dataset and tested on another subset to verify accurate classification results.

深層CNNアーキテクチャは、層が階層的に接続された多層型である。各層の入力から出力へのマッピングおよびフィルタの数が増えると、多層深層CNNは、その動作のために構成する必要のある膨大な数のパラメータをもたらす可能性がある。そのようなCNNの訓練データが不足している場合、学習する問題は、未決定である。この状況では、事前学習したCNNモデルから特定のパラメータを転送することが有利である。転送学習は、層のサブセットで事前学習したパラメータを凍結することによって最適化されるパラメータの数を減らし、残りの層を調整するための適切な初期化を提供する。医療画像の問題のドメインでは、転送学習を使用して分類および識別の様々な問題のためにCNNを事前構成することは、データが不足している状況、複数の撮像モダリティおよび解剖学的構造による異種データタイプの課題、ならびに他の臨床課題の改善に有利である。 The deep CNN architecture is a multi-layered structure in which layers are connected hierarchically. As the number of input-to-output mappings and filters for each layer increases, the multi-layer deep CNN can provide a huge number of parameters that need to be configured for its operation. If such CNN training data is lacking, the problem to learn is undecided. In this situation, it is advantageous to transfer specific parameters from the pre-trained CNN model. Transfer learning reduces the number of parameters optimized by freezing pretrained parameters in a subset of layers and provides proper initialization for adjusting the remaining layers. In the domain of medical imaging problems, preconfiguring CNNs for various classification and identification problems using transfer learning depends on data shortage situations, multiple imaging modality and anatomical structures. Benefits in improving heterogeneous data type challenges, as well as other clinical challenges.

本明細書の一態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のための方法が提示される。方法は、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得ることを含む。さらに、方法は、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行することであって、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むことを含む。加えて、方法は、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を特徴プリミティブリポジトリに格納することを含む。 According to one aspect of the specification, a method for interactive feature learning transfer to a convolutional neural network (CNN) is presented. The method comprises obtaining at least a first input image data set from a first imaging modality and a second input image data set from a second imaging modality. In addition, the method is a first supervised learning CNN based on the label associated with the first input image data set, and a second supervised learning CNN based on the label associated with the second input image data set. Collaborative training of learning CNNs to generate one or more feature primitives and corresponding mapping functions, and first unsupervised learning CNNs with a first input image dataset and a second unsupervised learning. Performing at least one of jointly training a CNN with a second input image dataset to learn a compressed representation of the input image dataset, which is a common feature of one or more. Includes primitives and corresponding mapping functions. In addition, the method involves storing at least one or more common feature primitives and corresponding mapping functions in the feature primitive repository.

本明細書の別の態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のためのインタラクティブ表現学習転送(IRLT)ユニットが提示される。IRLTユニットは、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含む。さらに、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。 According to another aspect of the specification, an interactive feature learning transfer (IRLT) unit for interactive feature learning transfer to a convolutional neural network (CNN) is presented. The IRLT unit obtains at least the first input image data set from the first imaging modality and the second input image data set from the second imaging modality, and the label associated with the first input image data set. Jointly train a first supervised learning CNN based on and a second supervised learning CNN based on the label associated with the second input image data set, and one or more feature primitives and correspondences. To generate mapping functions, and to jointly train the first unsupervised learning CNN in the first input image dataset and the second unsupervised learning CNN in the second input image dataset to input images. Performs at least one of learning a compressed representation of a data set, and the compressed representation includes an interactive learning network configurator configured to include one or more common feature primitives and corresponding mapping functions. In addition, the IRLT unit includes a feature primitive repository configured to store at least one or more common feature primitives and corresponding mapping functions.

本明細書のさらに別の態様によれば、マルチモダリティ転送学習システムが提示される。マルチモダリティ転送学習システムは、プロセッサユニットと、プロセッサユニットに通信可能かつ動作可能に結合されたメモリユニットとを含む。さらに、マルチモダリティ転送学習システムは、プロセッサユニットに動作可能に結合され、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含むインタラクティブ表現学習転送(IRLT)ユニットを含む。加えて、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。 According to yet another aspect of the present specification, a multi-modality transfer learning system is presented. The multi-modality transfer learning system includes a processor unit and a memory unit communicatively and operably coupled to the processor unit. In addition, the multi-modality transfer learning system is operably coupled to the processor unit to obtain at least a first input image data set from the first imaging modality and a second input image data set from the second imaging modality. A first supervised learning CNN based on the label associated with the first input image data set, and a second supervised learning CNN based on the label associated with the second input image data set. Collaborative training to generate one or more feature primitives and corresponding mapping functions, and a first unsupervised learning CNN in the first input image dataset and a second unsupervised learning CNN. Perform at least one of joint training with two input image datasets to learn a compressed representation of the input image dataset, where the compressed representation has one or more common feature primitives and corresponding mapping functions. Includes an Interactive Expression Learning Transfer (IRLT) unit that includes an interactive learning network configurator configured to include. In addition, the IRLT unit includes a feature primitive repository configured to store at least one or more common feature primitives and corresponding mapping functions.

本明細書の実施形態のこれらおよび他の特徴および態様は、以下の詳細な説明を添付の図面を参照して検討することでさらによく理解されると考えられ、添付の図面において、類似の符号は、図面の全体を通して類似の部分を表している。 These and other features and aspects of the embodiments herein will be better understood by reviewing the following detailed description with reference to the accompanying drawings, in the accompanying drawings, similar reference numerals. Represents similar parts throughout the drawing.

本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステムの概略図である。FIG. 6 is a schematic diagram of an exemplary system for interactive feature learning transfer by deep learning of feature ontology according to aspects of the present specification. 本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。FIG. 5 is a flow chart illustrating a method for constructing a set of feature primitives from unlabeled image data to enhance the feature primitive repository according to aspects of the present specification. 本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。It is a flowchart which shows the method for constructing the set of the feature primitive from the labeled image data, and enhancing the feature primitive repository according to the aspect of this specification. 本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて目に見えないデータセットを学習するための方法を示すフローチャートである。It is a flowchart which shows the method for learning an invisible data set based on the selection of a feature primitive by preconfiguring CNN with a mapping function according to the aspect of this specification. 本明細書の態様による、インタラクティブ学習ネットワークコンフィギュレータの一実施形態の概略図である。It is the schematic of one Embodiment of the interactive learning network configurator according to the aspect of this specification.

以下で詳細に説明するように、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステムおよび方法の様々な実施形態が提示される。これらの実施形態の簡潔な説明を提供しようと努力しても、実際の実施態様のすべての特徴を本明細書に記載することができるというわけではない。エンジニアリングまたは設計プロジェクトなどの実際の実施態様の開発においては、開発者の特定の目的を達成するために、例えばシステム関連および事業関連の制約条件への対応など実施態様に特有の決定を数多くしなければならないことを理解されたい。 Various embodiments of exemplary systems and methods for interactive feature learning transfer by deep learning of feature ontology are presented, as described in detail below. Efforts to provide a concise description of these embodiments do not make it possible to describe all the features of the actual embodiments herein. In the development of actual embodiments, such as engineering or design projects, a number of implementation-specific decisions must be made to achieve a developer's specific objectives, such as addressing system-related and business-related constraints. Please understand that it must be done.

本明細書の様々な実施形態の要素を説明するとき、「1つの(a、an)」、「この(the)」、および「前記(said)」という冠詞は、それらの要素が1つまたは複数存在することを意味することを意図している。「備える(comprising)」、「含む(including)」および「有する(having)」という用語は、包括的であることを意図し、列挙された要素以外にもさらなる要素が存在してもよいことを意味する。さらに、「構築する」および「構成する」という用語ならびにそれらの変形は、数学的決定または数学的構成の計算を意味することを意図している。「任意のドメイン上に描かれたデータ」または「任意のドメイン上のデータ」という用語は、ドメイン、例えば、ソーシャルメディアデータ、センサデータ、企業データなどに対応するデータを意味することを意図している。 When describing the elements of various embodiments herein, the articles "one (a, an)", "this (the)", and "said" have one of those elements or It is intended to mean that there are multiple. The terms "comprising," "inclusion," and "having" are intended to be inclusive, and that additional elements may exist in addition to those listed. means. Moreover, the terms "construct" and "construct" and their variants are intended to mean mathematical decisions or calculations of mathematical constructs. The term "data drawn on any domain" or "data on any domain" is intended to mean data that corresponds to a domain, such as social media data, sensor data, corporate data, etc. There is.

本明細書で使用される「転送学習」または「帰納的転送」という用語は、ある問題から異なる関連する問題を解決しながら得られた知識または学習を適用することに焦点を当てた機械学習のアプローチを意味することを意図している。この知識または学習は、典型的には伝達関数、マッピング関数、グラフ、行列、および他のプリミティブの組み合わせおよび変形によって、様々な方法で特徴付けおよび/または表現することができる。また、本明細書で使用される「転送学習プリミティブ」という用語は、上述の機械学習問題を解決することによって得られる知識または学習の特徴付けおよび/または表現を意味することを意図している。 As used herein, the term "transfer learning" or "inductive transfer" is used in machine learning that focuses on applying knowledge or learning gained while solving different related problems from one problem. Intended to mean an approach. This knowledge or learning can be characterized and / or expressed in various ways, typically by the combination and transformation of transfer functions, mapping functions, graphs, matrices, and other primitives. Also, as used herein, the term "transfer learning primitive" is intended to mean the characterization and / or expression of knowledge or learning gained by solving the machine learning problems described above.

さらに、本明細書で使用される「特徴プリミティブ」という用語は、入力データセットの態様の特徴付け、典型的には、解剖学的構造の画像に対応する関心領域(ROI)の外観、形状ジオメトリ、または形態を意味することを意図しており、画像は、超音波撮像システム、コンピュータ断層撮影(CT)撮像システム、陽電子放射断層撮影−CT(PET−CT)撮像システム、磁気共鳴(MR)撮像システムなどの撮像モダリティから得ることができる。また、解剖学的構造は、限定はしないが、肺、肝臓、腎臓、胃、心臓、脳などの人体の内部器官を含んでもよい。 In addition, the term "feature primitive" as used herein characterizes the aspects of the input dataset, typically the appearance and shape geometry of the region of interest (ROI) that corresponds to the image of the anatomical structure. , Or is intended to mean morphology, the images are ultrasound imaging system, computed tomography (CT) imaging system, positron emission tomography-CT (PET-CT) imaging system, magnetic resonance (MR) imaging. It can be obtained from imaging modalities such as systems. The anatomical structure may include, but is not limited to, internal organs of the human body such as lungs, liver, kidneys, stomach, heart, and brain.

本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステム100が図1に示されている。現在考えられている図1の構成では、システム100は、マルチモダリティ転送学習(MTL)サブシステム102を含む。MTLサブシステム102は、インタラクティブ表現学習転送(IRLT)ユニット104と、プロセッサユニット108と、メモリユニット110と、ユーザインターフェース106とを含む。プロセッサユニット108は、メモリユニット110に通信可能に結合される。ユーザインターフェース106は、IRLTユニット104に動作可能に結合される。また、IRLTユニット104は、プロセッサユニット108およびメモリユニット110に動作可能に結合される。システム100および/またはMTLサブシステム102は、ディスプレイユニット134を含み得る。MTLサブシステム102は、他の構成要素またはハードウェアを含むことができ、図1に示す構成要素に限定されないことに留意されたい。 An exemplary system 100 for interactive feature learning transfer by deep learning of feature ontology according to aspects of the present specification is shown in FIG. In the currently considered configuration of FIG. 1, system 100 includes a multi-modality transfer learning (MTL) subsystem 102. The MTL subsystem 102 includes an interactive feature learning transfer (IRLT) unit 104, a processor unit 108, a memory unit 110, and a user interface 106. The processor unit 108 is communicably coupled to the memory unit 110. The user interface 106 is operably coupled to the IRLT unit 104. Further, the IRLT unit 104 is operably coupled to the processor unit 108 and the memory unit 110. The system 100 and / or the MTL subsystem 102 may include a display unit 134. It should be noted that the MTL subsystem 102 may include other components or hardware and is not limited to the components shown in FIG.

ユーザインターフェース106は、入力画像128の特性に対応するユーザ入力130を受信するように構成される。ユーザ入力130は、限定はしないが、撮像モダリティ、入力画像128によって一般に表される解剖学的構造、入力画像128に対応するROIの外観などの入力画像128の態様または特性を含み得る。 The user interface 106 is configured to receive the user input 130 corresponding to the characteristics of the input image 128. User input 130 may include, but is not limited to, aspects or characteristics of input image 128 such as imaging modality, the anatomical structure commonly represented by input image 128, and the appearance of the ROI corresponding to input image 128.

特定の実施形態では、IRLTユニット104は、1つまたは複数のプロセッサユニット108を介して実行可能であり、メモリユニット110に格納されるソフトウェアシステムまたはコンピュータ命令として実装されてもよい。他の実施形態では、IRLTユニット104は、例えば、FPGA、カスタムチップ、集積回路(IC)、特定用途向けIC(ASIC)などを介してハードウェアシステムとして実装されてもよい。 In certain embodiments, the IRLT unit 104 can be executed via one or more processor units 108 and may be implemented as a software system or computer instruction stored in the memory unit 110. In other embodiments, the IRLT unit 104 may be implemented as a hardware system via, for example, an FPGA, a custom chip, an integrated circuit (IC), an application specific integrated circuit (ASIC), or the like.

図1に示されるように、IRLTユニット104は、インタラクティブ学習ネットワークコンフィギュレータ(ILNC)112と、教師なし学習用に構成された1つまたは複数のCNN(教師なし学習CNN)114と、教師あり学習用に構成された1つまたは複数のCNN(教師あり学習CNN)116と、特徴プリミティブリポジトリ118とを含み得る。ILNC112は、教師なし学習CNN114、教師あり学習CNN116、および特徴プリミティブリポジトリ118に動作可能に結合される。一実施形態では、INLC112は、ユーザが1つまたは複数の教師あり学習CNN116または教師なし学習CNN114を構成することを可能にするように構成されたグラフィカルユーザインターフェースサブシステムであり得る。 As shown in FIG. 1, the IRLT unit 104 includes an interactive learning network configurator (ILNC) 112, one or more CNNs (unsupervised learning CNN) 114 configured for unsupervised learning, and supervised learning. It may include one or more CNNs (supervised learning CNNs) 116 configured in, and a feature primitive repository 118. ILNC112 is operably coupled to unsupervised learning CNN114, supervised learning CNN116, and feature primitive repository 118. In one embodiment, the INLC 112 may be a graphical user interface subsystem configured to allow the user to configure one or more supervised learning CNN116 or unsupervised learning CNN114.

特徴プリミティブリポジトリ118は、入力画像128のROIに対応する1つまたは複数の特徴プリミティブおよび1つまたは複数の対応するマッピング関数を格納するように構成される。本明細書で使用される「マッピング関数」という用語は、CNNの出力がROIの態様に基づいて入力画像128のROIを特徴付ける特徴プリミティブになるようにROIを圧縮表現にマップする伝達関数またはCNNフィルタを表すことを意図している。一例では、ROIの態様は、形状ジオメトリ、外観、形態などを含み得る。したがって、特徴プリミティブリポジトリ118は、1つまたは複数のマッピング関数を格納するように構成される。これらのマッピング関数は、対応する特徴プリミティブと併せて、CNNを事前構成して新しい訓練セットを学習するために使用することができる。したがって、特徴プリミティブリポジトリ118は、他のCNNから得られた転送学習である特徴プリミティブおよびマッピング関数を格納し、新しいCNNを事前構成して目に見えないデータセットを学習するように構成される。図1に示すように、特徴プリミティブリポジトリ118が格納するように構成される特徴プリミティブのいくつかの非限定的な例は、画像128のROIに対応する外観120、画像128のROIに対応する形状ジオメトリ124、および画像128に対応する解剖学的構造126を特徴付ける特徴プリミティブを含む。 The feature primitive repository 118 is configured to store one or more feature primitives and one or more corresponding mapping functions corresponding to the ROI of the input image 128. As used herein, the term "mapping function" is a transfer function or CNN filter that maps an ROI to a compressed representation so that the output of the CNN is a feature primitive that characterizes the ROI of the input image 128 based on aspects of the ROI. Is intended to represent. In one example, aspects of ROI may include shape geometry, appearance, morphology, and the like. Therefore, the feature primitive repository 118 is configured to store one or more mapping functions. These mapping functions, along with the corresponding feature primitives, can be used to preconfigure CNNs to learn new training sets. Therefore, the feature primitive repository 118 is configured to store feature primitives and mapping functions that are transfer learning obtained from other CNNs and preconfigure new CNNs to learn invisible datasets. As shown in FIG. 1, some non-limiting examples of feature primitives configured to be stored in the feature primitive repository 118 are appearance 120 corresponding to the ROI of image 128, shape corresponding to the ROI of image 128. Includes feature primitives that characterize the geometry 124 and the anatomy 126 corresponding to image 128.

現在考えられている図1の構成では、ILNC112は、入力画像128に対応するROIの1つまたは複数の態様をインタラクティブに特徴付けるための様々なツールおよびオプションをユーザに提示するように構成される。ILNC112の例示的な実施形態が図5に示されており、ILNC112の作業は、図4および図5を参照してより詳細に説明される。 In the currently considered configuration of FIG. 1, the ILNC 112 is configured to present the user with various tools and options for interactively characterizing one or more aspects of the ROI corresponding to the input image 128. An exemplary embodiment of ILNC112 is shown in FIG. 5, and the work of ILNC112 is described in more detail with reference to FIGS. 4 and 5.

システム100は、特徴プリミティブおよびマッピング関数のポートフォリオを特徴プリミティブリポジトリ118に格納される1つまたは複数の解剖学的構造および撮像モダリティにわたって開発するように構成される。その後、システム100は、ILNC112をユーザに提供し、ユーザが目に見えない画像データセットの1つまたは複数のROIに対応するモダリティ、解剖学的構造、形状ジオメトリ、形態などの選択に基づいて新しい目に見えない画像データセットを学習するためにCNNを事前構成することを可能にする。例として、CNNの1つの学習成果は、画像データセットを分類する分類スキームであり得る。学習成果の他の非限定的な例は、ピクセルレベルのセグメンテーション、回帰などを含んでもよい。システム100の作業は、図2〜図5を参照してより詳細に説明される。 System 100 is configured to develop a portfolio of feature primitives and mapping functions across one or more anatomical structures and imaging modality stored in the feature primitive repository 118. The system 100 then provides the ILNC 112 to the user based on a selection of modality, anatomical structure, shape geometry, morphology, etc. corresponding to one or more ROIs of the user invisible image dataset. Allows the CNN to be preconfigured to train invisible image datasets. As an example, one learning outcome of CNN could be a classification scheme that classifies image datasets. Other non-limiting examples of learning outcomes may include pixel-level segmentation, regression, and the like. The work of the system 100 will be described in more detail with reference to FIGS. 2-5.

加えて、システム100および/またはMTLサブシステム102は、特徴プリミティブ、マッピング関数、画像データセットなどの1つまたは複数をディスプレイユニット134上で視覚化するように構成され得る。 In addition, the system 100 and / or the MTL subsystem 102 may be configured to visualize one or more of the feature primitives, mapping functions, image datasets, etc. on the display unit 134.

次に図2を参照すると、本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート200が提示される。方法200は、図1の構成要素を参照して説明される。 Next, with reference to FIG. 2, a flowchart 200 is presented that generally illustrates a method for constructing a set of feature primitives from unlabeled image data to augment the feature primitive repository, according to aspects herein. Method 200 will be described with reference to the components of FIG.

フローチャート200は、ラベル付けされていない画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリ118などの特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、図2の方法200の様々なステップ、より具体的には、ステップ202〜208は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ210は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。また、ステップ214〜216は、メモリユニット110および1つまたは複数の教師なし学習CNN114と併せてプロセッサユニット108によって実行され得る。 It should be noted that Flowchart 200 shows the main steps of a method for constructing a set of feature primitives from unlabeled image data and augmenting a feature primitive repository such as feature primitive repository 118. In some embodiments, the various steps of method 200 of FIG. 2, more specifically steps 202-208, may be performed by the processor unit 108 in conjunction with the memory unit 110 and the ILNC 112 of the IRLT unit 104. Further, step 210 may be performed by processor unit 108 in conjunction with memory unit 110 and one or more supervised learning CNN116. Also, steps 214-216 may be performed by the processor unit 108 in conjunction with the memory unit 110 and one or more unsupervised learning CNN 114s.

方法200は、ステップ202で開始し、第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット220および第2の入力画像データセット222が得られる。一実施形態では、第1および第2の入力画像データセット220、222は、肝臓、肺、腎臓、心臓、脳、胃などの人体の解剖学的構造に対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET−CT撮像システム、またはそれらの組み合わせを含み得る。 Method 200 begins in step 202 to obtain at least the first input image data set 220 and the second input image data set 222 corresponding to the first imaging modality and the second imaging modality. In one embodiment, the first and second input image datasets 220 and 222 may correspond to the anatomical structures of the human body such as the liver, lungs, kidneys, heart, brain and stomach. Further, the first and second imaging modality may include an ultrasonic imaging system, an MR imaging system, a CT imaging system, a PET-CT imaging system, or a combination thereof.

ステップ204において、入力画像データセット220、222がラベル付けされているかどうかを決定するためにチェックが実施される。前述のように、入力画像データセットを参照するラベルは、形状ジオメトリ、外観、形態など、入力画像の態様を特徴付ける分類スキームまたはスコアを概して表すものとすることができる。ステップ204において、入力画像データセットがラベル付けされていると決定される場合、制御はステップ210に移り、第1のCNNおよび第2のCNNは、入力画像データセット220、222の教師あり学習用に構成される。ステップ210は、図3を参照してより詳細に説明される。ステップ210に続いて、方法200は、ステップ212によって示されるように終了する。 In step 204, a check is performed to determine if the input image data sets 220, 222 are labeled. As mentioned above, the label that references the input image dataset can generally represent a classification scheme or score that characterizes the aspect of the input image, such as shape geometry, appearance, and morphology. If it is determined in step 204 that the input image dataset is labeled, control moves to step 210, where the first CNN and the second CNN are for supervised learning of the input image dataset 220, 222. It is composed of. Step 210 will be described in more detail with reference to FIG. Following step 210, method 200 ends as indicated by step 212.

再びステップ204を参照すると、入力画像データセットがラベル付けされていないと決定される場合、制御はステップ206に移り、第2のチェックが実施され、第1の入力画像データセット220および第2の入力画像データセット222が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを含むと決定される場合、制御はステップ214に移る。しかし、ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを有さないと決定されると、制御はステップ208に移る。 Referencing step 204 again, if it is determined that the input image data set is unlabeled, control moves to step 206, a second check is performed, the first input image data set 220 and the second. Determines if the input image dataset 222 contains sufficient data to properly train one or more CNNs. If in step 206 it is determined that the first and second input image datasets 220 and 222 contain sufficient data, control shifts to step 214. However, if in step 206 it is determined that the first and second input image datasets 220 and 222 do not have sufficient data, control shifts to step 208.

一例では、ステップ208において、第1の入力画像データセット220が十分なデータを含み、第2の入力画像データセット222が十分なデータを含まないと決定され得る。したがって、この例では、ステップ208において、第2の撮像モダリティに対応する第2の入力画像データセット222は、追加のデータで増強される。第2の入力画像データセット222を増強するための追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット220を処理することによって得ることができる。強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティ取得を行い、深層学習、手作りの強度特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ214に移る。 In one example, in step 208 it can be determined that the first input image data set 220 contains sufficient data and the second input image data set 222 does not contain sufficient data. Therefore, in this example, in step 208, the second input image data set 222 corresponding to the second imaging modality is augmented with additional data. Additional data for augmenting the second input image data set 222 can be obtained by processing the first input image data set 220 corresponding to the first imaging modality via an intensity mapping function. One non-limiting example of an intensity mapping function is to perform multi-modality acquisition through the use of one or more objects, eg, a first imaging modality and a second imaging modality corresponding to CT and MR. A regression that uses deep learning, handmade intensity features, or a combination thereof to learn patch-level mapping from the first modality to the second modality and maps the intensity of the first modality to the second modality. It can include a framework. After that, control shifts to step 214.

ステップ214において、第1の教師なし学習CNNおよび第2の教師なし学習CNNは、第1の入力画像データセット220および第2の入力画像データセット222で共同で訓練されて入力画像データセット220、222の圧縮表現を学習し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含む。 In step 214, the first unsupervised learning CNN and the second unsupervised learning CNN are jointly trained in the first input image data set 220 and the second input image data set 222 to input image data set 220, Learning 222 compressed representations, the compressed representation contains one or more common feature primitives and corresponding mapping functions.

1つまたは複数の特徴プリミティブは、第1の入力画像データセット220の画像の態様を特徴付ける。マッピング関数は、入力画像データセットを対応する特徴プリミティブにマップすることに留意されたい。一実施形態では、マッピング関数は、式(1)に従って定義することができる。 One or more feature primitives characterize the image aspect of the first input image dataset 220. Note that the mapping function maps the input image dataset to the corresponding feature primitives. In one embodiment, the mapping function can be defined according to equation (1).

式(1)において、hCTは、画像PCTの関心領域がマッピング関数fおよび重み In equation (1), in h CT , the region of interest of the image P CT is the mapping function f and the weight.

を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像PCTは、CT撮像システムの使用を介して得られた画像に対応する。 A set of feature primitives obtained when mapped using. In this example, the image PCT corresponds to an image obtained through the use of a CT imaging system.

ステップ214の結果として、第1の撮像モダリティおよび第2の撮像モダリティに対応する1つまたは複数のマッピング関数が生成されることに留意されたい。これらのマッピング関数は、第1および第2の入力画像データセット220、222を同じ特徴プリミティブにマップすることに留意されたい。一実施形態では、第2のマッピング関数は、式(2)に従って定義することができる。 Note that as a result of step 214, one or more mapping functions corresponding to the first imaging modality and the second imaging modality are generated. Note that these mapping functions map the first and second input image datasets 220 and 222 to the same feature primitive. In one embodiment, the second mapping function can be defined according to equation (2).

式(2)において、hMRは、画像PMRの関心領域がマッピング関数fおよび重み In equation (2), in h MR , the region of interest of the image P MR is the mapping function f and the weight.

を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像PMRは、MR撮像システムを使用して得られる。 A set of feature primitives obtained when mapped using. In this example, the image PMR is obtained using an MR imaging system.

さらに、ステップ218において、少なくとも1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリ118に格納される。次に、制御はステップ212に移り、方法200を終了する。 Further, in step 218, at least one or more feature primitives and corresponding mapping functions are stored in the feature primitive repository 118. Next, control proceeds to step 212 and ends method 200.

次に図3を参照すると、本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート300が提示される。より具体的には、方法300は、より詳細に図2のステップ210を説明する。また、方法300は、図1の構成要素を参照して説明される。 Next, with reference to FIG. 3, a flowchart 300 is presented that generally illustrates a method for constructing a set of feature primitives from labeled image data to augment a feature primitive repository, according to aspects herein. More specifically, Method 300 describes step 210 in FIG. 2 in more detail. The method 300 will be described with reference to the components of FIG.

フローチャート300は、ラベル付けされた画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、図3の方法300の様々なステップ、より具体的には、ステップ302〜308は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ310〜314は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。 It should be noted that Flowchart 300 shows the main steps of the method for constructing a set of feature primitives from labeled image data and augmenting the feature primitive repository. In some embodiments, the various steps of method 300 of FIG. 3, more specifically steps 302-308, may be performed by the processor unit 108 in conjunction with the memory unit 110 and the ILNC 112 of the IRLT unit 104. Further, steps 310-314 may be performed by the processor unit 108 in conjunction with the memory unit 110 and one or more supervised learning CNN 116.

方法300は、ステップ302で開始し、少なくとも第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット316および第2の入力画像データセット318が得られる。一実施形態では、第1および第2の入力画像データセット316、318は、人体の解剖学的構造、例えば、肝臓、肺、腎臓、心臓、脳、胃などに対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET−CT撮像システム、またはそれらの組み合わせを含み得る。1つまたは複数の教師ありCNNの学習成果は、第1および第2の入力画像データセット316、318における画像の分類であり得ることに留意されたい。 Method 300 begins in step 302 to obtain at least the first input image data set 316 and the second input image data set 318 corresponding to at least the first imaging modality and the second imaging modality. In one embodiment, the first and second input image datasets 316, 318 may correspond to the anatomical structure of the human body, such as the liver, lungs, kidneys, heart, brain, stomach and the like. Further, the first and second imaging modality may include an ultrasonic imaging system, an MR imaging system, a CT imaging system, a PET-CT imaging system, or a combination thereof. Note that the learning outcome of one or more supervised CNNs can be the classification of images in the first and second input image datasets 316 and 318.

ステップ304において、チェックが実施され、第1の入力画像データセット316および第2の入力画像データセット318が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを含むと決定される場合、制御はステップ308に移る。しかし、ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを有さないと決定されると、制御はステップ306に移る。一例では、ステップ306において、第1の入力画像データセット316が十分なデータを含み、第2の入力画像データセット318が十分なデータを含まないと決定され得る。したがって、この例では、ステップ306において、第2のモダリティに対応する第2の入力画像データセット318は、追加のデータで増強される。追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット316を処理することによって得られることに留意されたい。前述のように、強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティ取得を行い、深層学習、手作りの強度特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ308に移る。 In step 304, a check is performed to determine if the first input image data set 316 and the second input image data set 318 contain sufficient data to properly train one or more CNNs. .. If in step 304 it is determined that the first and second input image datasets 316 and 318 contain sufficient data, control shifts to step 308. However, if in step 304 it is determined that the first and second input image data sets 316 and 318 do not have sufficient data, control shifts to step 306. In one example, in step 306 it can be determined that the first input image data set 316 contains sufficient data and the second input image data set 318 does not contain sufficient data. Therefore, in this example, in step 306, the second input image data set 318 corresponding to the second modality is augmented with additional data. Note that additional data is obtained by processing the first input image data set 316 corresponding to the first imaging modality via an intensity mapping function. As mentioned above, one non-limiting example of the intensity mapping function is multi through the use of one or more objects, eg, a first imaging modality and a second imaging modality corresponding to CT and MR. Perform modality acquisition and use deep learning, handmade strength features, or a combination thereof to learn patch level mapping from the first modality to the second modality, and the strength of the first modality to the second. It can include a regression framework that maps to modality. After that, control shifts to step 308.

さらに、ステップ308において、第1の教師あり学習CNNおよび第2の教師あり学習CNNは、第1の入力画像データセット316に関連付けられたラベルおよび第2の入力画像データセット318に関連付けられたラベルに基づいて共同で訓練され、1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成する。 Further, in step 308, the first supervised learning CNN and the second supervised learning CNN are the label associated with the first input image data set 316 and the label associated with the second input image data set 318. Jointly trained based on to generate one or more feature primitives and corresponding mapping functions.

一実施形態では、学習成果は、第1の入力画像データセット316の画像の態様および第2の入力画像データセット318の画像の態様ならびに対応するマッピング関数を特徴付ける1つまたは複数の特徴プリミティブを含むことができ、マッピング関数は、対応する第1の入力画像データセット316および第2の入力画像データセット318を1つまたは複数の特徴プリミティブにマップする。したがって、特徴プリミティブは、第1の入力画像データセット316および第2の入力画像データセット318を取得するために使用される撮像モダリティから独立している。次にステップ312を参照すると、1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリに格納される。 In one embodiment, the learning outcome comprises one or more feature primitives that characterize the image aspect of the first input image data set 316 and the image aspect of the second input image data set 318 and the corresponding mapping function. The mapping function can map the corresponding first input image data set 316 and second input image data set 318 to one or more feature primitives. Therefore, the feature primitive is independent of the imaging modality used to acquire the first input image dataset 316 and the second input image dataset 318. Next, referring to step 312, one or more feature primitives and the corresponding mapping functions are stored in the feature primitive repository.

上述の方法200および300は、複数のモダリティにわたる複数の解剖学的構造に対して生成された画像に対応する特徴プリミティブおよびマッピング関数のポートフォリオの作成を可能にする。特徴プリミティブおよびマッピング関数は、特徴プリミティブリポジトリ118に格納される。また、特徴プリミティブおよびマッピング関数のこのポートフォリオは、入力画像データセットを用いたCNNの訓練で得られた学習を特徴付ける。さらに、学習を転送して新しいCNNを事前構成し、異なる目に見えないデータセットの学習成果を得ることができる。 The methods 200 and 300 described above allow the creation of a portfolio of feature primitives and mapping functions corresponding to the images generated for multiple anatomical structures across multiple modality. The feature primitives and mapping functions are stored in the feature primitive repository 118. This portfolio of feature primitives and mapping functions also characterizes the learning gained by training CNNs with input image datasets. In addition, learning can be transferred to preconfigure new CNNs to obtain learning outcomes for different invisible datasets.

前述を念頭に置いて、図4は、本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて目に見えないデータセットを学習するための方法を図示するフローチャート400を示す。方法400は、図1、図2および図3を参照して説明される。フローチャート400は、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて目に見えないデータセットを学習するための方法400の主要なステップを示すことに留意されたい。いくつかの実施形態では、図4の方法400の様々なステップ、より具体的には、ステップ402〜406は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ408〜410は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。 With the above in mind, FIG. 4 is a flow chart illustrating a method of preconfiguring a CNN with a mapping function to train an invisible dataset based on the selection of feature primitives, according to aspects herein. Shows 400. Method 400 will be described with reference to FIGS. 1, 2 and 3. It should be noted that Flowchart 400 shows the key steps of Method 400 for preconfiguring CNNs with mapping functions to learn invisible datasets based on the selection of feature primitives. In some embodiments, the various steps of method 400 of FIG. 4, more specifically steps 402-406, can be performed by the processor unit 108 in conjunction with the memory unit 110 and the ILNC 112 of the IRLT unit 104. Further, steps 408-410 may be performed by the processor unit 108 in conjunction with the memory unit 110 and one or more supervised learning CNN116.

方法400は、ステップ402で開始し、少なくとも1つの入力画像データセット404を得ることができる。少なくとも1つの入力画像データセット404は、目に見えない入力画像データセットを表す。加えて、入力画像データセット404に対応する少なくとも1つの学習パラメータ406および学習成果408を得ることができる。特定の実施形態では、入力画像データセット404、学習パラメータ406、および学習成果408は、ユーザ入力410として得られてもよい。一実施形態では、学習パラメータ406は、撮像モダリティ、画像解剖学的構造、またはそれらの組み合わせを含むことができる。また、学習成果408は、分類スキーム、回帰スキーム、またはセグメンテーションのようなピクセルレベルの出力を含み得る。 Method 400 can be started in step 402 to obtain at least one input image data set 404. At least one input image data set 404 represents an invisible input image data set. In addition, at least one learning parameter 406 and learning outcome 408 corresponding to the input image data set 404 can be obtained. In certain embodiments, the input image data set 404, learning parameters 406, and learning outcome 408 may be obtained as user input 410. In one embodiment, the learning parameter 406 can include imaging modality, image anatomy, or a combination thereof. The learning outcome 408 may also include pixel-level output such as classification schemes, regression schemes, or segmentation.

ステップ412において、学習パラメータ406および学習成果408に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数が特徴プリミティブリポジトリ118から得られる。その後、CNNは、ステップ414によって示されるように、少なくとも1つの特徴プリミティブおよび少なくとも1つのマッピング関数を使用して入力画像データセット404を学習するように構成される。特定の実施形態では、CNNの構成は、特徴プリミティブリポジトリ118から得られた1つまたは複数のフィルタをマッピング関数に設定することを伴う場合がある。ステップ414の処理の結果として、事前構成されたCNNが生成される。さらに、ステップ416において、事前構成されたCNNは、少なくとも入力画像データセット404の訓練サブセットで最適化される。 In step 412, at least one feature primitive corresponding to the learning parameter 406 and the learning outcome 408 and the corresponding mapping function are obtained from the feature primitive repository 118. The CNN is then configured to train the input image dataset 404 using at least one feature primitive and at least one mapping function, as shown in step 414. In certain embodiments, the configuration of the CNN may involve setting one or more filters obtained from the feature primitive repository 118 in the mapping function. As a result of the process of step 414, a preconfigured CNN is generated. Further, in step 416, the preconfigured CNN is optimized with at least a training subset of the input image dataset 404.

一実施形態では、第1の撮像モダリティに対応するラベル付けされたデータを使用する教師あり学習用の訓練された畳み込みオートエンコーダ(CAE)は、式(3)に従って、いくつかのパラメータで入力画像データセット404に適合される。 In one embodiment, a trained convolutional autoencoder (CAE) for supervised learning using labeled data corresponding to the first imaging modality is an input image with several parameters according to equation (3). Fits to dataset 404.

式(3)において、wは、第1の撮像モダリティに対応する画像Pの関心領域がマッピング関数fおよび重み In the formula (3), w is the region of interest of the image P 1 mapping function f and the weight corresponding to the first imaging modality

を使用してマップされるときに得られる特徴プリミティブのセットであり、αは、CAEパラメータの疎なセットである。このようにして、フィルタの数を減らすことができる。CAEパラメータαは、少なくとも入力画像データセット404の訓練サブセットでさらに最適化され得る。このようにして、第2の撮像モダリティに対応する教師あり学習の問題について、学習用のフレームワークは、以下の定式化に従って定義され得る。 Is a set of feature primitives obtained when mapped using, where α is a sparse set of CAE parameters. In this way, the number of filters can be reduced. The CAE parameter α can be further optimized with at least a training subset of the input image dataset 404. In this way, for supervised learning problems corresponding to the second imaging modality, a learning framework can be defined according to the following formulation.

定式化(4)では、式(3)で得られたマッピング関数fは、第2の撮像モダリティに対応する画像の関心領域に対応するマッピング関数 In the formulation (4), the mapping function f obtained by the equation (3) is a mapping function corresponding to the region of interest of the image corresponding to the second imaging modality.

に適用される。その後、ステップ418において、入力画像データセット404は、最適化されたCNNを介して処理され、要求された学習成果408に対応する学習成果420を得る。 Applies to. Then, in step 418, the input image data set 404 is processed via an optimized CNN to obtain a learning outcome 420 corresponding to the requested learning outcome 408.

方法400で実施されるワークフローは、図5を参照してより詳細に説明される。図5は、本明細書の態様による、図1のインタラクティブ表現学習転送ユニット104のインタラクティブ学習ネットワークコンフィギュレータ112の一実施形態の概略図500である。図5に示されるように、ブロック図500は、図1に示すILNC112を概して表す。参照番号502〜508は、それぞれ撮像モダリティ、解剖学的構造、外観、および形状ジオメトリに対応する特徴プリミティブの視覚化を概して表す。視覚化502〜508のデータは、図1の特徴プリミティブリポジトリ118から得ることができる。 The workflow performed by method 400 will be described in more detail with reference to FIG. FIG. 5 is a schematic view of an embodiment of the interactive learning network configurator 112 of the interactive expression learning transfer unit 104 of FIG. 1 according to aspects of the present specification. As shown in FIG. 5, block diagram 500 generally represents the ILNC 112 shown in FIG. Reference numbers 502 to 508 generally represent visualization of feature primitives corresponding to imaging modality, anatomy, appearance, and shape geometry, respectively. The data of visualizations 502 to 508 can be obtained from the feature primitive repository 118 of FIG.

図5では、ILNC500は、インタラクティブなメニューの選択をユーザに提供する。特に、ILNC500を使用して、ユーザは、CNNによって学習される目に見えない画像データセットの1つまたは複数の態様を選択することができる。参照番号510〜516は、目に見えない画像データセットの特徴付けを支援するためにユーザにとって利用可能であり得るインタラクティブなメニューオプションを概して表す。例として、参照番号510は、目に見えない画像データセットの撮像モダリティに関係し得る。ブロック510のメニューオプションは、CT、MR、PET、超音波などを含み得る。同様に、参照番号512〜516は、目に見えない画像データセットのそれぞれ外観、形状ジオメトリ、および解剖学的構造に関係するメニューオプションを示し得る。 In FIG. 5, the ILNC 500 provides the user with an interactive menu selection. In particular, using the ILNC500, the user can select one or more aspects of the invisible image dataset learned by the CNN. Reference numbers 510-516 generally represent interactive menu options that may be available to the user to assist in the characterization of invisible image datasets. As an example, reference number 510 may relate to the imaging modality of an invisible image dataset. Menu options for block 510 may include CT, MR, PET, ultrasound and the like. Similarly, reference numbers 512-516 may indicate menu options related to the appearance, shape geometry, and anatomy of the invisible image dataset, respectively.

インタラクティブなメニューからユーザによって行われた選択により、メニュー選択に対応する特徴プリミティブおよびマッピング関数によるCNNの事前構成が可能になる。参照番号518は、事前構成されたCNNの視覚化を概して表す。特定の実施形態では、参照番号518は、図1のIRLTユニット104の1つまたは複数の教師あり学習CNN116に対応し得る。加えて、ユーザは、ブロック502〜508の特徴プリミティブをグラフィカルに閲覧、視覚化、および組み合わせて、事前構成されたCNN518を作成することができる。 User-made selections from interactive menus allow preconfiguration of CNNs with feature primitives and mapping functions that correspond to menu selections. Reference number 518 generally represents a preconfigured visualization of the CNN. In certain embodiments, reference number 518 may correspond to one or more supervised learning CNN116 of IRLT unit 104 in FIG. In addition, the user can graphically browse, visualize, and combine the feature primitives of blocks 502-508 to create a preconfigured CNN518.

上述の特徴オントロジーの深層学習によるインタラクティブ表現学習転送のためのシステムおよび方法は、学習した特徴プリミティブおよびマッピング関数のポートフォリオを組み合わせてCNNを構成し、新しい医療画像分析の問題を解決することができる転送学習パラダイムを提供する。有利には、CNNは、画像の外観および形態を学習するように訓練され得る。例として、腫瘍は、斑点、円柱、円形、明るい/暗いまたは縞模様などに分類され得る。全体として、ネットワークは、解剖学的構造、モダリティ、外観、および形態(形状ジオメトリ)の様々な組み合わせに対して訓練され、事前学習した特徴を今ある新しい問題に即座に転送するように構成された豊富なポートフォリオを生成することができる。 The systems and methods for interactive expression learning transfer by deep learning of the feature ontology described above can combine learned feature primitives and a portfolio of mapping functions to form a CNN and solve new medical image analysis problems. Provide a learning paradigm. Advantageously, the CNN can be trained to learn the appearance and morphology of the image. As an example, tumors can be classified as spots, cylinders, circles, bright / dark or striped. Overall, the network was trained for various combinations of anatomy, modality, appearance, and morphology (shape geometry) and was configured to instantly transfer pre-learned features to existing new problems. A rich portfolio can be generated.

任意の実施形態に従って、上述したすべてのそのような物体または利点が必ずしも達成することができるわけではないことを理解されたい。したがって、例えば、当業者には明らかなように、本明細書に記載のシステムおよび手法は、本明細書で教示または示唆されるように他の目的または利点を必ずしも達成することなく、本明細書で教示される1つの利点または1群の利点を達成または改善する態様で具現化または実施されてもよい。 It should be understood that according to any embodiment, not all such objects or advantages mentioned above can necessarily be achieved. Thus, for example, as will be apparent to those skilled in the art, the systems and techniques described herein do not necessarily achieve any other purpose or advantage as taught or suggested herein. It may be embodied or implemented in a manner that achieves or improves one advantage or a group of advantages taught in.

本技術は限られた数の実施形態のみに関連して詳細に説明されているが、本明細書がそのような開示された実施形態に限定されないことは容易に理解されるべきである。むしろ、本技術は、これまでに説明されていないが特許請求の範囲の精神および範囲に相応する、任意の数の変形、代替、置換または同等の構成を組み込むように修正することができる。加えて、本技術の様々な実施形態が説明されているが、本明細書の態様は、説明した実施形態のいくつかのみを含んでもよいことを理解されたい。したがって、本明細書は、前述の説明によって限定されるべきではなく、添付の特許請求の範囲によってのみ限定される。 Although the art has been described in detail in relation to only a limited number of embodiments, it should be readily understood that the present specification is not limited to such disclosed embodiments. Rather, the technique may be modified to incorporate any number of modifications, substitutions, substitutions or equivalent configurations that have not been described so far but are commensurate with the spirit and scope of the claims. In addition, although various embodiments of the present technology have been described, it should be understood that aspects herein may include only some of the described embodiments. Therefore, this specification should not be limited by the above description, but only by the appended claims.

100 システム
102 マルチモダリティ転送学習(MTL)サブシステム
104 インタラクティブ表現学習転送(IRLT)ユニット
106 ユーザインターフェース
108 プロセッサユニット
110 メモリユニット
112 インタラクティブ学習ネットワークコンフィギュレータ(ILNC)
114 教師なし学習畳み込みニューラルネットワーク(CNN)
116 教師あり学習CNN
118 特徴プリミティブリポジトリ
120 外観
124 形状ジオメトリ
126 解剖学的構造
128 入力画像
130 ユーザ入力
134 ディスプレイユニット
200 フローチャート、方法
202 ステップ
204 ステップ
206 ステップ
208 ステップ
210 ステップ
212 ステップ
214 ステップ
216 ステップ
218 ステップ
220 第1の入力画像データセット
222 第2の入力画像データセット
300 フローチャート、方法
302 ステップ
304 ステップ
306 ステップ
308 ステップ
310 ステップ
312 ステップ
314 ステップ
316 第1の入力画像データセット
318 第2の入力画像データセット
400 フローチャート、方法
402 ステップ
404 入力画像データセット
406 学習パラメータ
408 学習成果
410 ユーザ入力
412 ステップ
414 ステップ
416 ステップ
418 ステップ
420 学習成果
500 概略図、ブロック図、ILNC
502 視覚化、ブロック
504 視覚化、ブロック
506 視覚化、ブロック
508 視覚化、ブロック
510 ブロック
512 ブロック
514 ブロック
516 ブロック
518 事前構成されたCNN
100 System 102 Multimodality Transfer Learning (MTL) Subsystem 104 Interactive Expression Learning Transfer (IRLT) Unit 106 User Interface 108 Processor Unit 110 Memory Unit 112 Interactive Learning Network Configurator (ILNC)
114 Unsupervised Learning Convolutional Neural Network (CNN)
116 Supervised Learning CNN
118 Features Primitive Repository 120 Appearance 124 Shape Geometry 126 Anatomical Structure 128 Input Image 130 User Input 134 Display Unit 200 Flow Flow, Method 202 Step 204 Step 206 Step 208 Step 210 Step 212 Step 214 Step 216 Step 218 Step 220 First Input Image data set 222 Second input image data set 300 Flow chart, method 302 Step 304 Step 306 Step 308 Step 310 Step 312 Step 314 Step 316 First input image data set 318 Second input image data set 400 Flow chart, method 402 Step 404 Input image data set 406 Learning parameter 408 Learning outcome 410 User input 412 Step 414 Step 416 Step 418 Step 420 Learning outcome 500 Schematic diagram, block diagram, ILNC
502 Visualization, Block 504 Visualization, Block 506 Visualization, Block 508 Visualization, Block 510 Block 512 Block 514 Block 516 Block 518 Preconfigured CNN

Claims (13)

畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のための方法(200、300、400)であって、
第1の撮像モダリティから第1の入力画像データセット(220、316)を、および第2の撮像モダリティから第2の入力画像データセット(222、318)を少なくとも得ること(202)と、
前記第1の入力画像データセット(220、316)に関連付けられたラベルに基づいて第1の教師あり学習CNN(116)を、および前記第2の入力画像データセット(222、318)に関連付けられたラベルに基づいて第2の教師あり学習CNN(116)を共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること(308)、ならびに第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220、316)で、および第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222、318)で共同で訓練して前記入力画像データセット(220、222、316、318)の圧縮表現を学習すること(214)の少なくとも1つを実行することであって、前記圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むことと、
少なくとも前記1つまたは複数の共通の特徴プリミティブおよび前記対応するマッピング関数を特徴プリミティブリポジトリ(118)に格納すること(218、312)と
を含む、方法(200、300、400)。
A method (200, 300, 400) for interactive feature learning transfer to a convolutional neural network (CNN).
Obtaining at least the first input image data set (220, 316) from the first imaging modality and the second input image data set (222, 318) from the second imaging modality (202).
The first supervised learning CNN (116) is associated with the first supervised learning CNN (116) and the second input image data set (222, 318) based on the label associated with the first input image data set (220, 316). Jointly training a second supervised learning CNN (116) based on the label to generate one or more feature primitives and corresponding mapping functions (308), and a first unsupervised learning CNN (308). 114) was jointly trained in the first input image data set (220, 316) and the second unsupervised learning CNN (114) in the second input image data set (222, 318). Performing at least one of (214) learning a compressed representation of the input image data set (220, 222, 316, 318), said compressed representation being one or more common feature primitives and Including the corresponding mapping function and
A method (200, 300, 400) comprising storing at least one or more common feature primitives and the corresponding mapping functions in a feature primitive repository (118) (218, 312).
少なくとも1つの目に見えない入力画像データセット(404)を得ることと、
前記少なくとも1つの目に見えない入力画像データセット(404)に対応する少なくとも1つの学習パラメータおよび少なくとも1つの学習成果(408、420)を得ること(402)と、
前記特徴プリミティブリポジトリ(118)を介して、前記少なくとも1つの学習パラメータおよび前記少なくとも1つの学習成果(408、420)に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数を得ること(412)と、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数に基づいて前記少なくとも1つの目に見えない入力画像データセット(404)を学習するためのCNNを構成すること(414)と、
少なくとも前記目に見えない入力画像データセット(404)の訓練サブセットで前記構成されたCNNを最適化すること(416)と、
前記最適化されたCNNを介して前記少なくとも1つの目に見えない入力画像データセット(404)を処理して前記少なくとも1つの学習成果(408、420)を得ること(418)と
をさらに含む、請求項1に記載の方法(200、300、400)。
To obtain at least one invisible input image dataset (404),
Obtaining at least one learning parameter and at least one learning outcome (408, 420) corresponding to the at least one invisible input image data set (404) (402).
Obtaining at least one feature primitive corresponding to the at least one learning parameter and the at least one learning outcome (408, 420) and a corresponding mapping function (412) via the feature primitive repository (118).
To construct a CNN for learning the at least one invisible input image dataset (404) based on the at least one feature primitive and the at least one mapping function (414).
Optimizing the configured CNN with at least a training subset of the invisible input image dataset (404) (416) and
Further comprising processing the at least one invisible input image data set (404) via the optimized CNN to obtain the at least one learning outcome (408, 420) (418). The method according to claim 1 (200, 300, 400).
前記第1の教師あり学習CNN(116)および前記第2の教師あり学習CNN(116)を共同で訓練して前記1つまたは複数の共通の特徴プリミティブおよび前記対応するマッピング関数を生成すること(308)は、前記第1の教師あり学習CNN(116)を前記第1の入力画像データセット(220、316)で、および前記第2の教師あり学習CNN(116)を前記第2の入力画像データセット(222、318)で共同で訓練し、前記第1の入力画像データセット(220、316)および前記第2の入力画像データセット(222、318)を特徴付ける少なくとも前記1つまたは複数の共通の特徴プリミティブ、ならびに前記第1の教師あり学習CNN(116)および前記第2の教師あり学習CNN(116)の前記対応するマッピング関数を得ることを含む、請求項1に記載の方法(200、300、400)。 To jointly train the first supervised learning CNN (116) and the second supervised learning CNN (116) to generate the one or more common feature primitives and the corresponding mapping function ( 308) uses the first supervised learning CNN (116) in the first input image data set (220, 316) and the second supervised learning CNN (116) in the second input image. At least one or more of the commons that are jointly trained in the data set (222, 318) and characterize the first input image data set (220, 316) and the second input image data set (222, 318). The method of claim 1, comprising obtaining the feature primitives of, and the corresponding mapping functions of the first supervised learning CNN (116) and the second supervised learning CNN (116). 300, 400). 前記第2の撮像モダリティに対応する前記第2の入力画像データセット(222、318)を追加のデータで増強すること(208)をさらに含み、前記追加のデータは、強度マッピング関数を介して前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220、316)を処理することによって得られる、請求項1に記載の方法(200、300、400)。 It further comprises augmenting the second input image data set (222, 318) corresponding to the second imaging modality with additional data (208), the additional data being said via an intensity mapping function. The method (200, 300, 400) according to claim 1, which is obtained by processing the first input image data set (220, 316) corresponding to the first imaging modality. 前記強度マッピング関数を介して前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220、316)を処理することは、
前記強度マッピング関数の回帰フレームワークを介して、1つまたは複数の対象に対応する第1の撮像モダリティおよび第2の撮像モダリティからのマルチモダリティ取得を実行することと、
前記強度マッピング関数の前記回帰フレームワークを介して、前記第1の撮像モダリティから前記第2の撮像モダリティへのパッチレベルマッピングを学習し、前記第1の撮像モダリティの強度を前記第2の撮像モダリティにマップすることと
を含む、請求項4に記載の方法(200、300、400)。
Processing the first input image data set (220, 316) corresponding to the first imaging modality via the intensity mapping function
Performing multi-modality acquisition from the first and second imaging modality corresponding to one or more objects through the regression framework of the intensity mapping function.
Through the regression framework of the intensity mapping function, patch level mapping from the first imaging modality to the second imaging modality is learned, and the intensity of the first imaging modality is determined by the second imaging modality. The method of claim 4 (200, 300, 400), comprising mapping to.
畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のためのインタラクティブ表現学習転送ユニット(104)であって、
第1の撮像モダリティから第1の入力画像データセット(220、316)を、および第2の撮像モダリティから第2の入力画像データセット(222、318)を少なくとも得て、
前記第1の入力画像データセット(220、316)に関連付けられたラベルに基づいて第1の教師あり学習CNN(116)を、および前記第2の入力画像データセット(222、318)に関連付けられたラベルに基づいて第2の教師あり学習CNN(116)を共同で訓練して1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220、316)で、および第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222、318)で共同で訓練して前記入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、前記圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含む
ように構成されたインタラクティブ学習ネットワークコンフィギュレータ(112)と、
前記少なくとも1つまたは複数の共通の特徴プリミティブおよび前記対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリ(118)と
を備える、インタラクティブ表現学習転送ユニット(104)。
An interactive expression learning transfer unit (104) for interactive expression learning transfer to a convolutional neural network (CNN).
Obtaining at least the first input image data set (220, 316) from the first imaging modality and the second input image data set (222, 318) from the second imaging modality,
The first supervised learning CNN (116) is associated with the first supervised learning CNN (116) and the second input image data set (222, 318) based on the label associated with the first input image data set (220, 316). To jointly train a second supervised learning CNN (116) based on the label to generate one or more common feature primitives and corresponding mapping functions, and to generate a first unsupervised learning CNN (114). ) Is jointly trained in the first input image data set (220, 316) and the second unsupervised learning CNN (114) is jointly trained in the second input image data set (222, 318). An interactive learning network configurator (112) that performs at least one of learning a compressed representation of an image data set and is configured to include one or more common feature primitives and corresponding mapping functions. )When,
An interactive feature learning transfer unit (104) comprising the at least one or more common feature primitives and a feature primitive repository (118) configured to store the corresponding mapping functions.
前記インタラクティブ学習ネットワークコンフィギュレータ(112)は、
少なくとも1つの目に見えない入力画像データセット(404)を得て、
前記少なくとも1つの目に見えない入力画像データセット(404)に対応する少なくとも1つの学習パラメータおよび少なくとも1つの学習成果(408、420)を得て、
前記特徴プリミティブリポジトリ(118)を介して、前記少なくとも1つの学習パラメータおよび前記少なくとも1つの学習成果(408、420)に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数に基づいて前記少なくとも1つの目に見えない入力画像データセット(404)を学習するためのCNNを構成し、
少なくとも前記目に見えない入力画像データセット(404)の訓練サブセットで前記構成されたCNNを最適化し、
前記最適化されたCNNを介して前記少なくとも1つの目に見えない入力画像データセット(404)を処理して前記少なくとも1つの学習成果(408、420)を得る
ようにさらに構成される、請求項6に記載のインタラクティブ表現学習転送ユニット(104)。
The interactive learning network configurator (112)
Obtaining at least one invisible input image dataset (404),
Obtaining at least one learning parameter and at least one learning outcome (408, 420) corresponding to the at least one invisible input image data set (404),
Through the feature primitive repository (118), the at least one feature primitive corresponding to the at least one learning parameter and the at least one learning outcome (408, 420) and the corresponding mapping function are obtained.
A CNN for learning the at least one invisible input image dataset (404) based on the at least one feature primitive and the at least one mapping function is configured.
Optimizing the configured CNN with at least a training subset of the invisible input image dataset (404)
Claim that it is further configured to process the at least one invisible input image data set (404) via the optimized CNN to obtain the at least one learning outcome (408, 420). The interactive expression learning transfer unit (104) according to 6.
前記インタラクティブ学習ネットワークコンフィギュレータ(112)は、前記第1の教師あり学習CNN(116)を前記第1の入力画像データセット(220、316)で、および前記第2の教師あり学習CNN(116)を前記第2の入力画像データセット(222、318)で共同で訓練し、前記第1の入力画像データセット(220、316)および前記第2の入力画像データセット(222、318)を特徴付ける少なくとも前記1つまたは複数の共通の特徴プリミティブ、ならびに前記第1の教師あり学習CNN(116)および前記第2の教師あり学習CNN(116)の前記対応するマッピング関数を得るようにさらに構成される、請求項6に記載のインタラクティブ表現学習転送ユニット(104)。 The interactive learning network configurator (112) performs the first supervised learning CNN (116) with the first input image data set (220, 316) and the second supervised learning CNN (116). At least said that the first input image data set (220, 316) and the second input image data set (222, 318) are jointly trained with the second input image data set (222, 318). A claim further configured to obtain one or more common feature primitives, as well as said corresponding mapping functions of said first supervised learning CNN (116) and said second supervised learning CNN (116). Item 6. The interactive expression learning transfer unit (104). 前記インタラクティブ学習ネットワークコンフィギュレータ(112)は、前記第2の撮像モダリティに対応する前記第2の入力画像データセット(222、318)を追加のデータで増強するようにさらに構成され、前記追加のデータは、強度マッピング関数を介して前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220、316)を処理することによって得られる、請求項6に記載のインタラクティブ表現学習転送ユニット(104)。 The interactive learning network configurator (112) is further configured to augment the second input image data set (222, 318) corresponding to the second imaging modality with additional data. The interactive expression learning transfer unit (104) according to claim 6, which is obtained by processing the first input image data set (220, 316) corresponding to the first imaging modality via an intensity mapping function. ). 前記強度マッピング関数は、
1つまたは複数の対象に対応する第1の撮像モダリティおよび第2の撮像モダリティからのマルチモダリティ取得を実行し、
前記第1の撮像モダリティから前記第2の撮像モダリティへのパッチレベルマッピングを学習し、前記第1の撮像モダリティの強度を前記第2の撮像モダリティにマップする
ように構成された回帰フレームワークを含む、請求項9に記載のインタラクティブ表現学習転送ユニット(104)。
The intensity mapping function
Perform multi-modality acquisition from the first and second imaging modality corresponding to one or more objects,
It includes a regression framework configured to learn patch-level mapping from the first imaging modality to the second imaging modality and map the intensity of the first imaging modality to the second imaging modality. , The interactive expression learning transfer unit (104) according to claim 9.
プロセッサユニット(108)と、
前記プロセッサユニット(108)に動作可能に結合されたメモリユニット(110)と、
前記プロセッサユニット(108)に動作可能に結合され、
第1の撮像モダリティから第1の入力画像データセット(220、316)を、および第2の撮像モダリティから第2の入力画像データセット(222、318)を少なくとも得て、
前記第1の入力画像データセット(220、316)に関連付けられたラベルに基づいて第1の教師あり学習CNN(116)を、および前記第2の入力画像データセット(222、318)に関連付けられたラベルに基づいて第2の教師あり学習CNN(116)を共同で訓練して1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220、316)で、および第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222、318)で共同で訓練して前記入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、前記圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含む
ように構成されたインタラクティブ学習ネットワークコンフィギュレータ(112)、および
前記少なくとも1つまたは複数の共通の特徴プリミティブおよび前記対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリ(118)
を備えるインタラクティブ表現学習転送ユニット(104)と
を備える、マルチモダリティ転送学習システム(100)。
Processor unit (108) and
A memory unit (110) operably coupled to the processor unit (108),
Operatively coupled to the processor unit (108)
Obtaining at least the first input image data set (220, 316) from the first imaging modality and the second input image data set (222, 318) from the second imaging modality,
The first supervised learning CNN (116) is associated with the first supervised learning CNN (116) and the second input image data set (222, 318) based on the label associated with the first input image data set (220, 316). To jointly train a second supervised learning CNN (116) based on the label to generate one or more common feature primitives and corresponding mapping functions, and to generate a first unsupervised learning CNN (114). ) Is jointly trained in the first input image data set (220, 316) and the second unsupervised learning CNN (114) is jointly trained in the second input image data set (222, 318). An interactive learning network configurator (112) that performs at least one of learning a compressed representation of an image dataset, the compressed representation being configured to include one or more common feature primitives and corresponding mapping functions. ), And a feature primitive repository (118) configured to store the at least one or more common feature primitives and the corresponding mapping function.
A multi-modality transfer learning system (100) comprising an interactive expression learning transfer unit (104).
前記インタラクティブ学習ネットワークコンフィギュレータ(112)は、
少なくとも1つの目に見えない入力画像データセット(404)を得て、
前記少なくとも1つの目に見えない入力画像データセット(404)に対応する少なくとも1つの学習パラメータおよび少なくとも1つの学習成果(408、420)を得て、
前記特徴プリミティブリポジトリ(118)を介して、前記少なくとも1つの学習パラメータおよび前記少なくとも1つの学習成果(408、420)に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数に基づいて前記少なくとも1つの目に見えない入力画像データセット(404)を学習するためのCNNを構成し、
少なくとも前記目に見えない入力画像データセット(404)の訓練サブセットで前記構成されたCNNを最適化し、
前記最適化されたCNNを介して前記少なくとも1つの目に見えない入力画像データセット(404)を処理して前記少なくとも1つの学習成果(408、420)を得る
ようにさらに構成される、請求項11に記載のマルチモダリティ転送学習システム(100)。
The interactive learning network configurator (112)
Obtaining at least one invisible input image dataset (404),
Obtaining at least one learning parameter and at least one learning outcome (408, 420) corresponding to the at least one invisible input image data set (404),
Through the feature primitive repository (118), the at least one feature primitive corresponding to the at least one learning parameter and the at least one learning outcome (408, 420) and the corresponding mapping function are obtained.
A CNN for learning the at least one invisible input image dataset (404) based on the at least one feature primitive and the at least one mapping function is configured.
Optimizing the configured CNN with at least a training subset of the invisible input image dataset (404)
Claim that the at least one invisible input image data set (404) is further configured to process the at least one invisible input image data set (404) via the optimized CNN to obtain the at least one learning outcome (408, 420). 11. The multi-modality transfer learning system (100).
前記インタラクティブ学習ネットワークコンフィギュレータ(112)は、
前記第1の教師あり学習CNN(116)を前記第1の入力画像データセット(220、316)で、および前記第2の教師あり学習CNN(116)を前記第2の入力画像データセット(222、318)で共同で訓練し、前記第1の入力画像データセット(220、316)および前記第2の入力画像データセット(222、318)を特徴付ける少なくとも前記1つまたは複数の共通の特徴プリミティブ、ならびに前記第1の教師あり学習CNN(116)および前記第2の教師あり学習CNN(116)の前記対応するマッピング関数を得る
ようにさらに構成される、請求項11に記載のマルチモダリティ転送学習システム(100)。
The interactive learning network configurator (112)
The first supervised learning CNN (116) is the first input image data set (220, 316), and the second supervised learning CNN (116) is the second input image data set (222). , 318), and at least one or more of the common feature primitives, which are jointly trained in the first input image data set (220, 316) and feature the second input image data set (222, 318). The multimodality transfer learning system according to claim 11, further configured to obtain the corresponding mapping functions of the first supervised learning CNN (116) and the second supervised learning CNN (116). (100).
JP2020524235A 2017-11-03 2018-11-02 METHOD, PROCESSING UNIT AND SYSTEM FOR STUDYING MEDICAL IMAGE DATA OF ANATOMICAL STRUCTURES OBTAINED FROM MULTIPLE IMAGING MODALITIES - Patent application Active JP7467336B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201741039221 2017-11-03
IN201741039221 2017-11-03
PCT/US2018/058855 WO2019090023A1 (en) 2017-11-03 2018-11-02 System and method for interactive representation learning transfer through deep learning of feature ontologies

Publications (2)

Publication Number Publication Date
JP2021507327A true JP2021507327A (en) 2021-02-22
JP7467336B2 JP7467336B2 (en) 2024-04-15

Family

ID=64332416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020524235A Active JP7467336B2 (en) 2017-11-03 2018-11-02 METHOD, PROCESSING UNIT AND SYSTEM FOR STUDYING MEDICAL IMAGE DATA OF ANATOMICAL STRUCTURES OBTAINED FROM MULTIPLE IMAGING MODALITIES - Patent application

Country Status (4)

Country Link
EP (1) EP3704636A1 (en)
JP (1) JP7467336B2 (en)
CN (1) CN111316290B (en)
WO (1) WO2019090023A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210486B (en) * 2019-05-15 2021-01-01 西安电子科技大学 Sketch annotation information-based generation countermeasure transfer learning method
CN110186375A (en) * 2019-06-06 2019-08-30 西南交通大学 Intelligent high-speed rail white body assemble welding feature detection device and detection method
US11941497B2 (en) 2020-09-30 2024-03-26 Alteryx, Inc. System and method of operationalizing automated feature engineering
CN112434602B (en) * 2020-11-23 2023-08-29 西安交通大学 Fault diagnosis method based on movable common feature space mining
CN113707312A (en) * 2021-09-16 2021-11-26 人工智能与数字经济广东省实验室(广州) Blood vessel quantitative identification method and device based on deep learning

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011114243A1 (en) * 2010-03-18 2011-09-22 Koninklijke Philips Electronics N.V. Functional image data enhancement and/or enhancer
JP6235610B2 (en) * 2012-12-26 2017-11-22 ボルケーノ コーポレイション Measurement and enhancement in multi-modality medical imaging systems
US9922272B2 (en) * 2014-09-25 2018-03-20 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
CN105930877B (en) * 2016-05-31 2020-07-10 上海海洋大学 Remote sensing image classification method based on multi-mode deep learning
US10242443B2 (en) 2016-11-23 2019-03-26 General Electric Company Deep learning medical systems and methods for medical procedures
US10127659B2 (en) 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
CN106909905B (en) * 2017-03-02 2020-02-14 中科视拓(北京)科技有限公司 Multi-mode face recognition method based on deep learning
CN106971174B (en) * 2017-04-24 2020-05-22 华南理工大学 CNN model, CNN training method and CNN-based vein identification method
CN107220337B (en) * 2017-05-25 2020-12-22 北京大学 Cross-media retrieval method based on hybrid migration network

Also Published As

Publication number Publication date
CN111316290B (en) 2024-01-12
CN111316290A (en) 2020-06-19
JP7467336B2 (en) 2024-04-15
WO2019090023A1 (en) 2019-05-09
EP3704636A1 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
CN111316290B (en) System and method for interactive representation learning migration through deep learning of feature ontologies
US11393229B2 (en) Method and system for artificial intelligence based medical image segmentation
Kazeminia et al. GANs for medical image analysis
Zhou et al. Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method
Liu et al. A medical image fusion method based on convolutional neural networks
US10842379B2 (en) Multi-modality image fusion for 3D printing of organ morphology and physiology
CN109102532A (en) The metaplasia of deep learning for medical imaging
JP2019512829A (en) Method and system for task processing having robustness against information shortage
US20100272330A1 (en) Anatomically constrained image registration
US20210383537A1 (en) Synthesis of contrast enhanced medical images
Khan et al. Segmentation of shoulder muscle MRI using a new region and edge based deep auto-encoder
Vu et al. Deep convolutional neural networks for automatic segmentation of thoracic organs‐at‐risk in radiation oncology–use of non‐domain transfer learning
CN103617604B (en) Fusion method based on the image that two-dimensional empirical mode decomposition method feature extracts
Biswas et al. Data augmentation for improved brain tumor segmentation
Liu et al. An automatic cardiac segmentation framework based on multi-sequence MR image
Nair et al. Multi-layer, multi-modal medical image intelligent fusion
JP2007530088A (en) Object-specific segmentation
Ogiela et al. Natural user interfaces in medical image analysis
Quan et al. An intelligent system approach for probabilistic volume rendering using hierarchical 3D convolutional sparse coding
Wei et al. Multimodal Medical Image Fusion: The Perspective of Deep Learning
Kaur et al. Multimodal medical image fusion using deep learning
Gaasedelen et al. Automated multiclass cardiac volume segmentation and model generation
Chen et al. Efficient lower-limb segmentation for large-scale volumetric CT by using projection view and voxel group attention
US20230060113A1 (en) Editing presegmented images and volumes using deep learning
US20240312075A1 (en) Medical Image Augmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230124

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230331

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230405

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150