JP2023183367A - 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 - Google Patents
時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 Download PDFInfo
- Publication number
- JP2023183367A JP2023183367A JP2023007862A JP2023007862A JP2023183367A JP 2023183367 A JP2023183367 A JP 2023183367A JP 2023007862 A JP2023007862 A JP 2023007862A JP 2023007862 A JP2023007862 A JP 2023007862A JP 2023183367 A JP2023183367 A JP 2023183367A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- vector
- attention
- temporal
- msa
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 181
- 230000002123 temporal effect Effects 0.000 claims description 52
- 239000011159 matrix material Substances 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 17
- 238000010606 normalization Methods 0.000 claims description 17
- 230000003111 delayed effect Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 2
- 238000002591 computed tomography Methods 0.000 abstract description 115
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 4
- 210000004185 liver Anatomy 0.000 description 14
- 206010028980 Neoplasm Diseases 0.000 description 12
- 206010073071 hepatocellular carcinoma Diseases 0.000 description 10
- 231100000844 hepatocellular carcinoma Toxicity 0.000 description 10
- 230000003902 lesion Effects 0.000 description 10
- 201000007450 intrahepatic cholangiocarcinoma Diseases 0.000 description 9
- 201000007270 liver cancer Diseases 0.000 description 9
- 208000014018 liver neoplasm Diseases 0.000 description 9
- 238000003745 diagnosis Methods 0.000 description 8
- 208000006990 cholangiocarcinoma Diseases 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 201000011510 cancer Diseases 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000002347 injection Methods 0.000 description 6
- 239000007924 injection Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000002872 contrast media Substances 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 206010027476 Metastases Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000009401 metastasis Effects 0.000 description 2
- 206010061289 metastatic neoplasm Diseases 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 208000009443 Vascular Malformations Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 208000009956 adenocarcinoma Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000013 bile duct Anatomy 0.000 description 1
- 210000003445 biliary tract Anatomy 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000981 epithelium Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010253 intravenous injection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007449 liver function test Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 210000005075 mammary gland Anatomy 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000001394 metastastic effect Effects 0.000 description 1
- 230000017074 necrotic cell death Effects 0.000 description 1
- 210000001672 ovary Anatomy 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000010882 preoperative diagnosis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
時空間的アテンションモデルに基づく多時相CT画像分類システムであって、
分類される患者のs個の時相のCT画像を取得するためのデータ取得ユニットと、
s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得る、第1埋め込み層ネットワークユニットと、
s個の空間的アテンションネットワークを含む空間的アテンションユニットであって、各空間的アテンションネットワークは、L1層の第1マルチヘッドアテンションネットワークMSAと、L1層の第1多層パーセプトロンと、1層の第1正規化層とを含み、L1層の第1マルチヘッドアテンションネットワークMSAとL1層の第1多層パーセプトロンは順にインターリーブ接続され、前記第1マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に変換し、クエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、i=1,2…は、空間的アテンションユニット中のi番目の自己アテンションモジュールSAを表し、スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な空間的アテンション関数を得るために用いられ、最終的な空間的アテンション関数と入力ベクトルを加算するものを次の層の第1多層パーセプトロンに対応する入力ベクトルとし(当該ネットワークは、マルチヘッドアテンションモジュールにより異なるベクトル間のつながりを互いに比較し、重要な部分を強化することができる)、前記第1多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第1マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第1マルチヘッドアテンションネットワークMSAの入力ベクトルは埋め込みベクトルであり、第1正規化層は、最終層の第1多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、対応する時相のCT画像の空間的特徴とする、空間的アテンションユニットと、
1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルを得るための第2埋め込み層ネットワークユニット、
1つの時間的アテンションネットワークを含む時間的アテンションユニットであって、時間的アテンションネットワークは、L2層の第2マルチヘッドアテンションネットワークMSAと、L2層の第2多層パーセプトロンと、1層の第2正規化層とを含み、L2層の第2マルチヘッドアテンションネットワークMSAとL2層の第2多層パーセプトロンは順にインターリーブ接続され、前記第2マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に変換し、クエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な時間的アテンション関数を得るために用いられ、j=1,2…は、時間的アテンションユニット中のj番目の自己アテンションモジュールSAを表し、最終的な時間的アテンション関数と入力ベクトルを加算するものを次の層の第2多層パーセプトロンに対応する入力ベクトルとし、前記第2多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第2マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第2マルチヘッドアテンションネットワークMSAの入力ベクトルは第2埋め込み層ネットワークユニットの出力する埋め込み層ベクトルであり、第2正規化層は、最終層の第2多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、空間的特徴及び時間的特徴を有するベクトルを得る、時間的アテンションユニットと、
分類層を含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果を得るための分類層ユニットと、を含む。
X0=[Xclass;X1 p;X2 p…XN p]+Xpos であり、
ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xpは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表す。
ただし、dkはキーワード行列K1i中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数である。
ただし、dkはキーワード行列K2j中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数である。
LNは正規化方法を表し、xlは第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表し、MLP()は対応する第1多層パーセプトロン又は第2多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表す。
LNは正規化方法を表し、x’lは第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表し、MSA()は対応する第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの出力を表し、xlはl層目の第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表す。
サンプルを収集してデータセットを構築するステップであって、前記データセットの各サンプルは1人の患者のs個の時相のCT画像を含むステップと、
上記時空間的アテンションモデルに基づく多時相CT画像分類システムを構築し、データセット中の各サンプルをシステムの入力として、システムの出力する分類結果と分類ラベルとの誤差を最小にすることを目標としてトレーニングし、前記時空間的アテンションモデルに基づく多時相CT画像分類システムを得るステップと、を含む。
(1)本発明は、空間的アテンションネットワーク及び時間的アテンションネットワークの2種類のアテンションネットワークを含む、時空間的アテンションモデルに基づく多時相CT画像分類システムを提案する。空間的アテンションネットワークはCT画像の空間的特徴を抽出することができ、時間的アテンションネットワークは異なる時相のCT画像間のつながりを抽出することができ、各時相のCT間のグローバルなアテンションを強化する。
データ取得ユニットであって、分類される患者のs個の時相のCT画像を取得するために用いられ、
s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得るために用いられ、各時相のCT画像のサイズは
X0=[Xclass;X1 p;X2 p…XN p]+Xpos,Xp∈R1×D,Xpos∈R(1+N)×D (1)
であり、
ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xpは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表し、N=HW/P2である。Dは畳み込み層の畳み込みカーネルの数であり、畳み込み層を通過した画像ブロックベクトルと学習可能なクラスラベルベクトルを合わせることで、ラベルベクトル全体の表現情報を集めることができ、さらに学習可能な同次元の位置ベクトルと加算すると、データ情報を強調することができる。
Q1i=XW1i Q,K1i=XW1i K,V1i=XW1i V (2)
となり、
ただし、W1i Q、W1i K、W1i Vはi番目のトレーニング可能な重み行列を表し、Xは入力ベクトルを表す。
であり、
ただし、dkはキーワード行列K1i中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数であり、head1iはi番目の自己アテンションモジュールSAの出力を表す。
MSA()=Concat(head11,…,head1i,…)W1 O (4)
と表され、
MSA()は空間的アテンションネットワークの出力であり、W1 Oはトレーニング可能な重み行列である。
LNは正規化方法を表し、x’lは第1多層パーセプトロンの入力ベクトルを表し、MSA()は第1マルチヘッドアテンションネットワークの出力を表し、xlはl層目の第1マルチヘッドアテンションネットワークの入力ベクトルを表す。
MLP()は第1多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロンの入力ベクトルを表す。
x0 Lは全ての符号化層を通過した後のxLの第1次元のデータを表し、L=2L1である。
1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルxを得るために用いられ、
x=[Xclass;xspace],xspace∈Rs×D,Xclass∈R1×D (8)
ただし、xspaceは合わせられた空間的特徴を表す。
分類層Wを含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果Probを得るために用いられ、
Prob=W(xtime T) (9)
Prob∈RCはクラスの確率分布を表し、Cはクラスの総数を表す。
データ取得ユニットにより取得された分類される患者のs個の時相のCT画像を第1埋め込み層ネットワークユニットに入力し、各第1埋め込み層ネットワークは、対応する単一の時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得て、
得られた対応する時相のCT画像の埋め込みベクトルを空間的アテンションユニット中の対応する空間的アテンションネットワークに入力して対応する時相のCT画像の空間的特徴を得て、
s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を第2埋め込み層ネットワークユニットに入力し、s個の対応する時相のCT画像の空間的特徴を合わせた後、クラスラベルベクトルと重ねて埋め込み層ベクトルを構成し、
埋め込み層ベクトルを時間的アテンションユニットに入力して、空間的特徴及び時間的特徴を有するベクトルを得て、最後に、得られた空間的特徴及び時間的特徴を有するベクトルを分類層ユニットに入力して、最終的な分類結果が出力される。
(1)サンプルを収集してデータセットを構築し、前記データセットの各サンプルは1人の患者のs個の時相の肝がんCT画像を含み、
肝がんCT画像に対して肝細胞がん及び肝内胆管細胞がんの二項分類を例にとると、肝細胞がん(hepatocellular carcinoma、HCC)は死亡率の高い原発性肝がんであり、肝内胆管細胞がん(intrahepatic cholangiocarcinoma、ICC)とは、二次胆管及びその枝の上皮から発生する腺がんを指し、肝細胞がんに次ぐ発生率を有する原発性肝臓悪性腫瘍である。合計400件のサンプルが収集されており、そのうちHCCサンプルは200件、ICCサンプルは200件があり、全てのサンプルのラベル付けは専門の医用画像科医師によって実施され、具体的には次のとおりである。
(1.1)最初に、病院から肝がん患者の単純スキャン相肝臓CT画像及び造影CT画像(動脈相、門脈相、遅発相の肝臓CT画像)を収集し、データスクリーニングにより完全な研究情報を有する患者データを選択し、データマスキング技術により患者個人のプライベートな情報を除去し、患者のプライバシーを保護し、データの機密性を向上させるために役立ち、最終的にHCC及びICC患者から合計400件の肝臓CT画像及び対応する肝機能検査報告を収集し、そのうちHCC患者は200件、ICC患者は200件があり、属するクラスに従ってラベル付けし、HCC患者は1とラベル付けし、ICC患者は0とラベル付けする。
さらに、データを強調し、データが不十分な場合に、データからより多くの価値を生み出し、入力はデータの前処理を完了された4時相肝臓CT画像であり、ランダムな回転、ランダムな反転などの操作を行って、データセットのサンプルを補足する。
Loss=-ylog(Prob)-(1-y)log(1-Prob) (10)
ただし、y∈{0,1}であり、0はICC患者を表し、1はHCC患者を表す。
Claims (7)
- 分類される患者のs個の時相のCT画像を取得するためのデータ取得ユニットと、
s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得る、第1埋め込み層ネットワークユニットと、
s個の空間的アテンションネットワークを含む空間的アテンションユニットであって、各空間的アテンションネットワークは、L1層の第1マルチヘッドアテンションネットワークMSAと、L1層の第1多層パーセプトロンと、1層の第1正規化層とを含み、L1層の第1マルチヘッドアテンションネットワークMSAとL1層の第1多層パーセプトロンは順にインターリーブ接続され、前記第1マルチヘッドアテンションネットワークMSAは、最終的な空間的アテンション関数を生成し、最終的な空間的アテンション関数と入力ベクトルを加算するものを次の層の第1多層パーセプトロンに対応する入力ベクトルとするために用いられ、前記第1多層パーセプトロンは正規化された入力ベクトルを符号化して前記第1多層パーセプトロンの入力ベクトルと加算し、加算結果を次の層の第1マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第1マルチヘッドアテンションネットワークMSAの入力ベクトルは埋め込みベクトルであり、第1正規化層は、最終層の第1多層パーセプトロンの出力するベクトルと前記第1多層パーセプトロンの入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、対応する時相のCT画像の空間的特徴とする、空間的アテンションユニットと、
1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルを得るための第2埋め込み層ネットワークユニットと、
1つの時間的アテンションネットワークを含む時間的アテンションユニットであって、時間的アテンションネットワークは、L2層の第2マルチヘッドアテンションネットワークMSAと、L2層の第2多層パーセプトロンと、1層の第2正規化層とを含み、L2層の第2マルチヘッドアテンションネットワークMSAとL2層の第2多層パーセプトロンは順にインターリーブ接続され、前記第2マルチヘッドアテンションネットワークMSAは、最終的な時間的アテンション関数を生成し、最終的な時間的アテンション関数と入力ベクトルを加算するものを次の層の第2多層パーセプトロンに対応する入力ベクトルとするために用いられ、前記第2多層パーセプトロンは正規化された入力ベクトルを符号化して前記第2多層パーセプトロンの入力ベクトルと加算し、加算結果を次の層の第2マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第2マルチヘッドアテンションネットワークMSAの入力ベクトルは第2埋め込み層ネットワークユニットの出力する埋め込み層ベクトルであり、第2正規化層は、最終層の第2多層パーセプトロンの出力するベクトルと前記第2多層パーセプトロンの入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、空間的特徴及び時間的特徴を有するベクトルを得る、時間的アテンションユニットと、
分類層Wを含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果Probを得るために用いられ、Prob=W(xtime T)となり、Prob∈RCはクラスの確率分布を表し、Cはクラスの総数を表す、分類層ユニットと、を含むことを特徴とする時空間的アテンションモデルに基づく多時相CT画像分類システム。 - sは2以上であり、s個の時相のCT画像は、単純スキャン相CT画像と、動脈相CT画像と、門脈相CT画像と、遅発相CT画像との少なくとも2つを含むことを特徴とする請求項1に記載のシステム。
- 前記埋め込みベクトルは、
X0=[Xclass;X1 p;X2 p…XN p]+Xpos であり、
ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xpは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表すことを特徴とする請求項1に記載のシステム。 - 前記マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q、キーワード行列K及び値行列Vの3つの異なる行列に変換し、クエリ行列Q、キーワード行列K及び値行列Vの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、
スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な空間的又は時間的アテンション関数を得るために用いられることを特徴とする請求項1に記載のシステム。 - 前記第1マルチヘッドアテンションネットワークMSA、第2マルチヘッドアテンションネットワークMSAの入力ベクトルは、
LNは正規化方法を表し、xlは第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表し、MLP()は対応する第1多層パーセプトロン又は第2多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表すことを特徴とする請求項1に記載のシステム。 - 前記第1多層パーセプトロン、第2多層パーセプトロンの入力ベクトルは、
LNは正規化方法を表し、x’lは第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表し、MSA()は対応する第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの出力を表し、xlはl層目の第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表すことを特徴とする請求項1に記載のシステム。 - サンプルを収集してデータセットを構築するステップであって、前記データセットの各サンプルは1人の患者のs個の時相のCT画像を含むステップと、
請求項1~6のいずれか1項に記載の時空間的アテンションモデルに基づく多時相CT画像分類システムを構築し、データセット中の各サンプルをシステムの入力として、システムの出力する分類結果と分類ラベルとの誤差を最小にすることを目標としてトレーニングし、前記時空間的アテンションモデルに基づく多時相CT画像分類システムを得るステップと、を含むことを特徴とする時空間的アテンションモデルに基づく多時相CT画像分類システムの構築方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210672853.4 | 2022-06-15 | ||
CN202210672853.4A CN114758032B (zh) | 2022-06-15 | 2022-06-15 | 基于时空注意力模型的多相期ct图像分类系统及构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023183367A true JP2023183367A (ja) | 2023-12-27 |
JP7411126B2 JP7411126B2 (ja) | 2024-01-10 |
Family
ID=82336458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023007862A Active JP7411126B2 (ja) | 2022-06-15 | 2023-01-23 | 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7411126B2 (ja) |
CN (1) | CN114758032B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808976A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
CN118015017A (zh) * | 2024-02-06 | 2024-05-10 | 中国科学院宁波材料技术与工程研究所 | 分割模型的训练方法、装置、电子设备及存储介质 |
CN118298316A (zh) * | 2024-06-05 | 2024-07-05 | 江西啄木蜂科技有限公司 | 一种基于时空分析模型的自然保护地变化检测方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152246B (zh) * | 2023-04-19 | 2023-07-25 | 之江实验室 | 一种图像识别方法、装置、设备及存储介质 |
CN116188469A (zh) * | 2023-04-28 | 2023-05-30 | 之江实验室 | 一种病灶检测方法、装置、可读存储介质及电子设备 |
CN116206164B (zh) * | 2023-05-06 | 2023-08-18 | 之江实验室 | 基于半监督对比学习的多相期ct分类系统及构建方法 |
CN117290684B (zh) * | 2023-09-27 | 2024-07-09 | 南京拓恒航空科技有限公司 | 基于Transformer的高温干旱天气预警方法、电子设备 |
CN118136237A (zh) * | 2024-03-20 | 2024-06-04 | 中国医学科学院肿瘤医院 | 一种基于图像处理的食管癌筛查系统及方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2021116658A (ru) | 2017-05-23 | 2021-07-05 | ГУГЛ ЭлЭлСи | Нейронные сети с преобразованием последовательности на основе внимания |
JP6912998B2 (ja) | 2017-10-25 | 2021-08-04 | 株式会社日立製作所 | データ分析装置、データ分析方法、およびデータ分析プログラム |
US11972567B2 (en) * | 2018-05-29 | 2024-04-30 | The General Hospital Corporation | System and method for analyzing medical images to detect and classify a medical condition using machine-learning and a case pertinent radiology atlas |
JP2020087127A (ja) | 2018-11-28 | 2020-06-04 | 国立研究開発法人産業技術総合研究所 | グラフ構造を有するデータのエンコードに関するプログラム、情報処理方法及び情報処理システム |
CN110443268B (zh) | 2019-05-30 | 2022-02-08 | 杭州电子科技大学 | 一种基于深度学习的肝部ct图像良性恶性分类方法 |
US11158048B2 (en) * | 2019-06-28 | 2021-10-26 | Shandong University Of Science And Technology | CT lymph node detection system based on spatial-temporal recurrent attention mechanism |
JP2021081921A (ja) | 2019-11-18 | 2021-05-27 | 株式会社Preferred Networks | データ処理装置、データ処理方法、プログラム、およびモデル |
CN111539491B (zh) * | 2020-07-07 | 2020-11-06 | 点内(上海)生物科技有限公司 | 基于深度学习与注意力机制的多发性结节分类系统和方法 |
CN112287978B (zh) * | 2020-10-07 | 2022-04-15 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
CN113902926B (zh) * | 2021-12-06 | 2022-05-31 | 之江实验室 | 一种基于自注意力机制的通用图像目标检测方法和装置 |
CN114399634B (zh) * | 2022-03-18 | 2024-05-17 | 之江实验室 | 基于弱监督学习的三维图像分类方法、系统、设备及介质 |
-
2022
- 2022-06-15 CN CN202210672853.4A patent/CN114758032B/zh active Active
-
2023
- 2023-01-23 JP JP2023007862A patent/JP7411126B2/ja active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118015017A (zh) * | 2024-02-06 | 2024-05-10 | 中国科学院宁波材料技术与工程研究所 | 分割模型的训练方法、装置、电子设备及存储介质 |
CN117808976A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
CN117808976B (zh) * | 2024-03-01 | 2024-05-24 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
CN118298316A (zh) * | 2024-06-05 | 2024-07-05 | 江西啄木蜂科技有限公司 | 一种基于时空分析模型的自然保护地变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114758032A (zh) | 2022-07-15 |
CN114758032B (zh) | 2022-09-16 |
JP7411126B2 (ja) | 2024-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7411126B2 (ja) | 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 | |
Zhong et al. | An attention-guided deep regression model for landmark detection in cephalograms | |
Usman et al. | Analyzing transfer learning of vision transformers for interpreting chest radiography | |
Ukwuoma et al. | Deep learning framework for rapid and accurate respiratory COVID-19 prediction using chest X-ray images | |
Pang et al. | Tumor attention networks: Better feature selection, better tumor segmentation | |
Patro et al. | SCovNet: A skip connection-based feature union deep learning technique with statistical approach analysis for the detection of COVID-19 | |
Du et al. | Segmentation and visualization of left atrium through a unified deep learning framework | |
Özbay et al. | Brain tumor detection with mRMR-based multimodal fusion of deep learning from MR images using Grad-CAM | |
Pacal et al. | Enhancing Skin Cancer Diagnosis Using Swin Transformer with Hybrid Shifted Window-Based Multi-head Self-attention and SwiGLU-Based MLP | |
Wang et al. | Classification of skin lesions with generative adversarial networks and improved MobileNetV2 | |
Rasoulian et al. | Weakly supervised intracranial hemorrhage segmentation using hierarchical combination of attention maps from a swin transformer | |
Ji et al. | ResDSda_U-Net: A novel U-Net based residual network for segmentation of pulmonary nodules in lung CT images | |
Akash Guna et al. | U-net xception: A two-stage segmentation-classification model for covid detection from lung ct scan images | |
Wu et al. | Human identification with dental panoramic images based on deep learning | |
US20220287647A1 (en) | Disease classification by deep learning models | |
Yang et al. | Cardiovascular Disease Detection from Multi-View Chest X-rays with BI-Mamba | |
Maram et al. | Brain tumour detection on brats 2020 using u-net | |
Dawood et al. | Brain tumors detection using computed tomography scans based on deep neural networks | |
Ashraf et al. | Enhancing Breast Cancer Diagnosis with Vision Transformer-based Ultrasound Image Classification | |
Shaji et al. | Brain Tumor Segmentation Using Modified Double U-Net Architecture | |
Li et al. | Feature pyramid based attention for cervical image classification | |
Malik et al. | Exploring dermoscopic structures for melanoma lesions' classification | |
Alam et al. | An Efficient Deep Learning-Based Skin Cancer Classifier for an Imbalanced Dataset. Diagnostics 2022, 12, 2115 | |
Saturi et al. | Modelling of deep learning enabled lung disease detection and classification on chest X-ray images | |
Thiruvenkadam et al. | Deep Learning with XAI based Multi-Modal MRI Brain Tumor Image Analysis using Image Fusion Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230123 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230323 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7411126 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |