JP2023183367A - 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 - Google Patents

時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 Download PDF

Info

Publication number
JP2023183367A
JP2023183367A JP2023007862A JP2023007862A JP2023183367A JP 2023183367 A JP2023183367 A JP 2023183367A JP 2023007862 A JP2023007862 A JP 2023007862A JP 2023007862 A JP2023007862 A JP 2023007862A JP 2023183367 A JP2023183367 A JP 2023183367A
Authority
JP
Japan
Prior art keywords
layer
vector
attention
temporal
msa
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023007862A
Other languages
English (en)
Other versions
JP7411126B2 (ja
Inventor
聞▲タオ▼ 朱
Wentao Zhu
元鋒 呉
Yuanfeng Wu
梦凡 薛
Mengfan Xue
浩東 江
Haodong Jiang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Publication of JP2023183367A publication Critical patent/JP2023183367A/ja
Application granted granted Critical
Publication of JP7411126B2 publication Critical patent/JP7411126B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】多時相CT画像を組み合わせて処理することにより、計算の冗長性を低減し、分類の効率及び精度を向上させるCT(Computed Tomography)画像分類システム及び構築方法を提供する。【解決手段】CT画像分類システムは、データ取得ユニットと、第1埋め込み層ネットワークユニットと、空間的アテンションユニットと、第2埋め込み層ネットワークユニットと、時間的アテンションユニットと、分類層ユニットと、を含む。埋め込み層ユニットによって多時相CT画像をベクトル化し、次に空間的アテンションユニットを用いて空間的特徴を抽出し、多時相CT画像の空間的特徴を合わせた後に時間的アテンションユニットに入力して、空間的特徴及び時間的特徴を有するベクトルを得て、分類層ユニットによって分類を行う。【選択図】図1

Description

本発明は、医用画像処理技術分野に関し、特に、時空間的アテンションモデルに基づく多時相CT画像分類システム及び構築方法に関する。
CT(Computed Tomography)は、コンピュータ断層撮影であり、精密に平行化されたX線ビーム、γ線、超音波などを用いて、非常に高感度な検出器と共に人体のある部位を次々に断面的にスキャンするものであり、スキャン時間が短く、画像が鮮明であるなどの特徴を有し、治療方法の改良につれて、CT画像スキャンは様々な腫瘍(例えば、肝がん)の診断で普及しており、腫瘍の部位、大きさ及び範囲を素早く見つけることができ、病変部の壊死、出血などの変化の有無を直接観察でき、腫瘍の転移の有無も検出できるため、腫瘍の検出率を高めている。
単純CTスキャンは病変を素早く見つけ、さらには一部の疾患を検出できるが、血管奇形、早期がん、転移性腫瘍などの一部の病変は単純CTスキャンでは診断できない。病変の表示率を高め、病巣の範囲と臨床病期を決定するために、造影CTスキャン(Contrast‐Enhanced CT、CECT)が必要となる。例えば脳CT検査の場合、単純CT診断の正確率は82%であり、造影CTスキャンの正確率は92~95%に上がっていることから、造影CTは診断率向上に役立つことが分かる。造影CTスキャンでは一般的に造影剤を静脈注射し、現在一般的な静脈注射方法には2つがあり、1つは人力手押し注射であり、もう1つは高圧注射器を用いた注射である。造影剤を注射すると、造影CTは単純CTより多くの情報を提供することができ、動脈相、門脈相、遅発相の血流を観察できるため、診断には非常に役立つ。異なるサブタイプの腫瘍の治療方法もそれぞれ異なり、現在、多時相造影CTは腫瘍のサブタイプの術前診断で重要なツールとなっている。
ディープラーニングの医用画像処理への応用も1つの大きな方向性であり、機械学習にそれを導入することで、その本来の目標である人工知能に一層近づけ、サンプルデータの内在する法則及び表現レベルを学習し、これらの学習プロセスで得られる情報はテキスト、画像、音声などのデータの解釈に大いに役立つ。その最終的な目標は、機械が人間のように分析・学習能力を有し、テキスト、画像、音声などのデータを認識できるようにすることである。ディープラーニングは複雑な機械学習アルゴリズムであり、音声・画像認識で収めている効果は、これまでの関連技術をはるかに超えており、検索技術、データマイニング、機械学習、機械翻訳、自然言語処理、マルチメディア学習、音声、推薦、個別化技術、及び他の関連分野でいずれも多くの成果を上げている。ディープラーニングは、機械が視聴覚や思考などの人間の活動を模倣するようにし、多くの複雑なパターン認識の難題を解決しており、人工知能の関連技術に大きな進歩をもたらしている。ディープラーニングの発展につれて、畳み込みニューラルネットワークの更新は繰り返され、画像認識の分野でますます多くの応用が実現され、あまりに人力の介入を必要とせず、画像特徴を自動的に抽出でき、学習能力が高いなどの利点が、特にがんの分類や病変の検出などの医用画像分析タスクで競争力の高い性能を示している。
しかしながら、悪性腫瘍の判定と診断は依然として困難であり、術前の誤診は治療方針の決定を誤らせる可能性があり、腫瘍イメージングレポートとデータシステムの複雑化に伴い、大規模な実践での実施は難しくなることで、仕事の効率を高めるため、計算による意思決定支援ツールの臨床的ニーズの拡大が必要となり、従来の畳み込みニューラルネットワークはCT画像の局所特徴抽出に一定の優位性があり、病巣の状況を素早く確認することができるが、造影CTの複数の時相(phase)の画像を利用できないため、時間的な情報のつながりが弱まり、情報の利用が不完全になり、最終的な診断結果に影響を与える。
中国特許出願CN110443268Aはディープラーニングに基づく肝がんCT画像を良性・悪性に分類する方法を開示しており、当該方法は、既存のResnet34ネットワークモデルを基に設計・改良を行い、患者の肝臓情報の最大のスライスを選んで、データ処理と強調により、モデルに入れて分類を行う。しかしながら、CT画像は3Dであるため、当該方法で抽出された空間的特徴は不完全であり、しかも多時相CT画像の状況が考慮されていないため、患者の複数の時相の病変を効果的に組み合わせて処理することができず、診断結果の正確さと精度は低下している。
そこで、上記の課題に対しては、多時相のCTを組み合わせて処理して、分類の精度と速度を高められる方法が必要である。既存の医用画像処理方法及びディープラーニングの発展の現状を踏まえ、アテンションメカニズム及びtransformerによって構成されたエンコーダの使用が考えられ、そのうちアテンションメカニズムは単純スキャン相CT画像と造影CT画像の時間的なつながりを強化することができ、transformerはもともと2017年に自然言語処理(Natural Language Processing、NLP)分野で提案されたモデルであり、2020年に初めて視覚分野で用いられ、NLP類似しており、画像をシリアル化し、画像分類タスクをうまく実行することができ、最終的な分類結果は最適な畳み込みニューラルネットワークにも負けず、また、必要な計算リソースは大幅に低減しており、分類の効率及び正確率を高めている。
本発明は、通常のCTスキャン及び造影CTスキャンの時に患者の病巣構造に大きな変化がないことを考慮して、時空間的アテンションモデルに基づく多時相CT画像分類システム及び構築方法を提案し、従来の畳み込みニューラルネットワークに基づいて、多時相CT画像を組み合わせて処理できないという問題を解決する。
本発明では、まず専門の医用画像科医師が多時相CT画像をラベル付けし、次に画像の前処理を行って、病巣部分を分割し、画像サイズをモデルの入力に適合するように調整し、データを強調し、埋め込み層を構築し、入力は通常の単純スキャンCT画像及び造影剤注射後の多時相造影CT画像であり、出力は通常の単純スキャンCT画像及び造影剤注射後の多時相造影CT画像の埋め込みベクトルであり、空間的アテンションネットワークを構築し、当該ネットワークモデルの入力は上記のCT画像の埋め込みベクトルであり、通常の単純スキャンCT画像及び造影剤注射後の多時相CT画像の空間的特徴をそれぞれ出力することができ、さらに上記の空間的特徴を組み合わせて、時間的アテンションネットワークを構築し、当該ネットワークモデルの入力は組み合わせられた空間的特徴であり、時間的特徴と空間的特徴を組み合わせたベクトルを出力することができ、さらに分類層を通じて最終的な分類結果を出力し、最後にラベルと計算して損失を得て、トレーニングと最適化を繰り返すことで損失を最小にし、最適な分類モデルを得て、時空間的アテンションモデルに基づく多時相CT画像分類システムとする。
本発明で採用される技術的解決手段は、具体的に次のとおりである。
時空間的アテンションモデルに基づく多時相CT画像分類システムであって、
分類される患者のs個の時相のCT画像を取得するためのデータ取得ユニットと、
s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得る、第1埋め込み層ネットワークユニットと、
s個の空間的アテンションネットワークを含む空間的アテンションユニットであって、各空間的アテンションネットワークは、L1層の第1マルチヘッドアテンションネットワークMSAと、L1層の第1多層パーセプトロンと、1層の第1正規化層とを含み、L1層の第1マルチヘッドアテンションネットワークMSAとL1層の第1多層パーセプトロンは順にインターリーブ接続され、前記第1マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に変換し、クエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、i=1,2…は、空間的アテンションユニット中のi番目の自己アテンションモジュールSAを表し、スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な空間的アテンション関数を得るために用いられ、最終的な空間的アテンション関数と入力ベクトルを加算するものを次の層の第1多層パーセプトロンに対応する入力ベクトルとし(当該ネットワークは、マルチヘッドアテンションモジュールにより異なるベクトル間のつながりを互いに比較し、重要な部分を強化することができる)、前記第1多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第1マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第1マルチヘッドアテンションネットワークMSAの入力ベクトルは埋め込みベクトルであり、第1正規化層は、最終層の第1多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、対応する時相のCT画像の空間的特徴とする、空間的アテンションユニットと、
1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルを得るための第2埋め込み層ネットワークユニット、
1つの時間的アテンションネットワークを含む時間的アテンションユニットであって、時間的アテンションネットワークは、L2層の第2マルチヘッドアテンションネットワークMSAと、L2層の第2多層パーセプトロンと、1層の第2正規化層とを含み、L2層の第2マルチヘッドアテンションネットワークMSAとL2層の第2多層パーセプトロンは順にインターリーブ接続され、前記第2マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に変換し、クエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な時間的アテンション関数を得るために用いられ、j=1,2…は、時間的アテンションユニット中のj番目の自己アテンションモジュールSAを表し、最終的な時間的アテンション関数と入力ベクトルを加算するものを次の層の第2多層パーセプトロンに対応する入力ベクトルとし、前記第2多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第2マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第2マルチヘッドアテンションネットワークMSAの入力ベクトルは第2埋め込み層ネットワークユニットの出力する埋め込み層ベクトルであり、第2正規化層は、最終層の第2多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、空間的特徴及び時間的特徴を有するベクトルを得る、時間的アテンションユニットと、
分類層を含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果を得るための分類層ユニットと、を含む。
さらに、sは2以上であり、s個の時相のCT画像は、具体的に、単純スキャン相CT画像と、動脈相CT画像と、門脈相CT画像と、遅発相CT画像との少なくとも2つを含む。
さらに、前記埋め込みベクトルは、具体的に、
=[Xclass;X ;X …X ]+Xpos であり、
ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表す。
さらに、クエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成することは、具体的に、
であり、
ただし、dはキーワード行列K1i中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数である。
同様に、クエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成することは、具体的に、
であり、
ただし、dはキーワード行列K2j中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数である。
さらに、前記第1マルチヘッドアテンションネットワークMSA、第2マルチヘッドアテンションネットワークMSAの入力ベクトルは、
であり、
LNは正規化方法を表し、xは第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表し、MLP()は対応する第1多層パーセプトロン又は第2多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表す。
さらに、前記第1多層パーセプトロン、第2多層パーセプトロンの入力ベクトルは、
であり、
LNは正規化方法を表し、x’は第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表し、MSA()は対応する第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの出力を表し、xはl層目の第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表す。
時空間的アテンションモデルに基づく多時相CT画像分類システムの構築方法であって、
サンプルを収集してデータセットを構築するステップであって、前記データセットの各サンプルは1人の患者のs個の時相のCT画像を含むステップと、
上記時空間的アテンションモデルに基づく多時相CT画像分類システムを構築し、データセット中の各サンプルをシステムの入力として、システムの出力する分類結果と分類ラベルとの誤差を最小にすることを目標としてトレーニングし、前記時空間的アテンションモデルに基づく多時相CT画像分類システムを得るステップと、を含む。
本発明の有益な効果は次のとおりである。
(1)本発明は、空間的アテンションネットワーク及び時間的アテンションネットワークの2種類のアテンションネットワークを含む、時空間的アテンションモデルに基づく多時相CT画像分類システムを提案する。空間的アテンションネットワークはCT画像の空間的特徴を抽出することができ、時間的アテンションネットワークは異なる時相のCT画像間のつながりを抽出することができ、各時相のCT間のグローバルなアテンションを強化する。
(2)本発明は、多時相のCT画像に基づいて診断する必要のある様々な疾患に普遍性を有し、異なる時相の病巣の特徴をより効果的に利用して、時間的なつながりを強化し、従来の畳み込みニューラルネットワークをメインモデルとした設計を捨て、アテンションメカニズムにより、より多くの計算を重要な領域に投入し、注目すべき目標のより多くの詳細情報を得ることができ、これによって他の無用な情報を抑制し、計算の冗長性と遅延を低減し、CT画像の診断をより短時間で実現しやすく、診断の精度を高くし、診断の効果をより安定的にする。
本発明の時空間的アテンションモデルに基づく多時相CT画像分類システムの構造図である。 本発明の時空間的アテンションモデルに基づく多時相CT画像分類システムによる分類のフローチャートである。 本発明の時空間的アテンションモデルに基づく肝がんの多時相CT画像分類システムの構築方法のフローチャートである。
例示的な実施例をここで詳細に説明し、その例示は添付の図面に示される。以下の説明が図面に言及している場合、特に断りのない限り、異なる図面の同じ番号は、同じ又は類似の要素を示す。以下の例示的な実施例に記載の実施形態は、本発明と一致する全ての実施形態を表すわけではない。それどころか、それらは、添付の特許請求の範囲に詳述されているような、本発明のいくつかの態様と一致する装置及び方法の例に過ぎない。
本発明で使用される用語は、特定の実施例を説明するためのものに過ぎず、本発明を限定するものではない。
本発明及び添付の特許請求の範囲で使用される単数形「一種」、「前記」及び「当該」は、文脈が明らかに他の意味を示さない限り、複数形も含むことを意図している。また、本明細書において使用される用語「及び/又は」は、1つ又は複数の関連する列挙された項目の任意の又は全ての可能な組み合わせを指し、包含することを理解されたい。
なお、本発明では「第1」、「第2」、「第3」などの用語で様々な情報を説明するかもしれないが、これらの情報はこれらの用語に限定されない。これらの用語は同じタイプの情報を互いに区別するためだけに用いられる。例えば、本発明の範囲から逸脱しない限り、第1情報は第2情報とも呼ばれてもよいし、同様に、第2情報は第1情報と呼ばれてもよい。文脈によって、ここで使用される言葉「もし」は、「…とき」又は「…と」又は「決定に応じて」と解釈されてもよい。
本発明の趣旨は、時空間的アテンションモデルに基づく多時相CT画像分類システム及び構築方法を提案することであり、従来の畳み込みニューラルネットワークに基づいて、多時相CT画像を組み合わせて処理できないという問題を解決する。なお、本発明の多時相CT画像は、臨床で通常どおりスキャンするCT画像及び造影剤注射後にスキャンする造影CT画像を含み、通常どおりスキャンするCT画像は単純スキャン相CT画像であり、造影剤注射後にスキャンする造影CT画像は動脈相、門脈相、遅発相のCT画像を含む。
本発明の時空間的アテンションモデルに基づく多時相CT画像分類システムは、図1に示されるとおり、以下を含む。
データ取得ユニットであって、分類される患者のs個の時相のCT画像を取得するために用いられ、
s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得るために用いられ、各時相のCT画像のサイズは
であり、H、Wは一枚のCT画像の長さ、幅であり、CはCT画像の層数である。分割後の画像ブロックのサイズはP×P×Cであり、Pは分割後の画像ブロックの長さ及び幅であり、各画像ブロックは畳み込み層に通じて画像ブロックベクトルに展開され、埋め込みベクトルXとして線形投影され、埋め込みベクトルXは、
=[Xclass;X ;X …X ]+Xpos,X∈R1×D,Xpos∈R(1+N)×D (1)
であり、
ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表し、N=HW/Pである。Dは畳み込み層の畳み込みカーネルの数であり、畳み込み層を通過した画像ブロックベクトルと学習可能なクラスラベルベクトルを合わせることで、ラベルベクトル全体の表現情報を集めることができ、さらに学習可能な同次元の位置ベクトルと加算すると、データ情報を強調することができる。
前記多時相CT画像分類システムは、s個の空間的アテンションネットワークを含む空間的アテンションユニットも含み、各空間的アテンションネットワークは、L1層の第1マルチヘッドアテンションネットワークMSAと、L1層の第1多層パーセプトロンと、1層の第1正規化層とを含み、L1層の第1マルチヘッドアテンションネットワークMSAとL1層の第1多層パーセプトロンは順にインターリーブ接続され、前記第1マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に変換するために用いられ、具体的には、まず入力ベクトルをクエリベクトルq、キーワードベクトルk及び値ベクトルvの3つの異なるベクトルに変換し、そのうちクエリベクトルqは他のベクトルとマッチングするために用いられ、キーワードベクトルkはマッチングされ、値ベクトルvは抽出される情報を表し、q、k、vの3種類のベクトルは学習可能な行列と入力ベクトルを乗算して得られる。埋め込みベクトルは多次元であることを考慮して、グローバルな視点から表すと、
1i=XW1i ,K1i=XW1i ,V1i=XW1i (2)
となり、
ただし、W1i 、W1i 、W1i はi番目のトレーニング可能な重み行列を表し、Xは入力ベクトルを表す。
クエリ行列Q1i、キーワード行列K1i及び値行列V1iの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成し、具体的には、クエリベクトルqと各キーワードベクトルkのドット積を求め、ドット積をキーワードベクトルkの次元の平方根で割り、softmax層を通じて値ベクトルvと乗算して和を求め、softmax関数は入力値を区間(0,1)にマッピングするために用いられる。入力ベクトル間のアテンション関数の算式は、
(3)
であり、
ただし、dはキーワード行列K1i中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数であり、head1iはi番目の自己アテンションモジュールSAの出力を表す。
スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な空間的アテンション関数を得るために用いられ、
MSA()=Concat(head11,…,head1i,…)W (4)
と表され、
MSA()は空間的アテンションネットワークの出力であり、W はトレーニング可能な重み行列である。
当該ネットワークは、マルチヘッドアテンションモジュールにより異なるベクトル間のつながりを互いに比較し、重要な部分を強化することができる。第1マルチヘッドアテンションネットワークMSAを基に第1多層パーセプトロンMLPを使用し、MLPは非線形層としてGelu関数を有する多層パーセプトロンを表し、Gelu関数は、高性能のニューラルネットワーク活性化関数であり、その非線形変化は予想に合致するランダム正則変換方式であるためである。具体的には、最終的な空間的アテンション関数と入力ベクトルを加算するものを次の層の第1多層パーセプトロンに対応する入力ベクトルとし、
(5)
LNは正規化方法を表し、x’は第1多層パーセプトロンの入力ベクトルを表し、MSA()は第1マルチヘッドアテンションネットワークの出力を表し、xはl層目の第1マルチヘッドアテンションネットワークの入力ベクトルを表す。
前記第1多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第1マルチヘッドアテンションネットワークMSAに対応する入力ベクトルとし、
(6)
MLP()は第1多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロンの入力ベクトルを表す。
1層目の第1マルチヘッドアテンションネットワークMSAの入力ベクトルは埋め込みベクトルであり、即ちx=Xであり、第1正規化層は、最終層の第1多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、対応する時相のCT画像の空間的特徴とするために用いられ、
(7)
は全ての符号化層を通過した後のxの第1次元のデータを表し、L=2L1である。
単純スキャン相、動脈相、門脈相及び遅発相のCT画像に対して、それぞれ、対応する単純スキャン相、動脈相、門脈相及び遅発相のCT画像の空間的特徴を得る。
1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルxを得るために用いられ、
x=[Xclass;xspace],xspace∈Rs×D,Xclass∈R1×D (8)
ただし、xspaceは合わせられた空間的特徴を表す。
前記多時相CT画像分類システムは、1つの時間的アテンションネットワークを含む時間的アテンションユニットも含み、時間的アテンションネットワークの構造及び機能は空間的アテンションネットワークの構造と同じであり、具体的には、L2層の第2マルチヘッドアテンションネットワークMSAと、L2層の第2多層パーセプトロンと、1層の第2正規化層とを含み、L2層の第2マルチヘッドアテンションネットワークMSAとL2層の第2多層パーセプトロンは順にインターリーブ接続され、前記第2マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、式(2)に従って、正規化された入力ベクトルをクエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に変換し、クエリ行列Q2j、キーワード行列K2j及び値行列V2jの3つの異なる行列に基づいて、式(3)に従って入力ベクトル中の各ベクトル間のアテンション関数を生成し、jは時間的アテンションユニット中の自己アテンションモジュールSAのインデックスであり、スプライシング層は式(4)に従って各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な時間的アテンション関数を得て、式(5)に従って最終的な時間的アテンション関数と入力ベクトルを加算するものを次の層の第2多層パーセプトロンに対応する入力ベクトルとし、式(6)に従って、前記第2多層パーセプトロンは正規化された入力ベクトルを符号化してその入力ベクトルと加算し、加算結果を次の層の第2マルチヘッドアテンションネットワークMSAに対応する入力ベクトルとし、1層目の第2マルチヘッドアテンションネットワークMSAの入力ベクトルは第2埋め込み層ネットワークユニットの出力する埋め込み層ベクトルであり、第2正規化層は、最終層の第2多層パーセプトロンの出力するベクトルとその入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、空間的特徴及び時間的特徴を有するベクトルxtimeを得るために用いられ、
分類層Wを含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果Probを得るために用いられ、
Prob=W(xtime ) (9)
Prob∈Rはクラスの確率分布を表し、Cはクラスの総数を表す。
図2は、本発明の時空間的アテンションモデルに基づく多時相CT画像分類システムによる分類のフローチャートであり、具体的には次のとおりである。
データ取得ユニットにより取得された分類される患者のs個の時相のCT画像を第1埋め込み層ネットワークユニットに入力し、各第1埋め込み層ネットワークは、対応する単一の時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得て、
得られた対応する時相のCT画像の埋め込みベクトルを空間的アテンションユニット中の対応する空間的アテンションネットワークに入力して対応する時相のCT画像の空間的特徴を得て、
s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を第2埋め込み層ネットワークユニットに入力し、s個の対応する時相のCT画像の空間的特徴を合わせた後、クラスラベルベクトルと重ねて埋め込み層ベクトルを構成し、
埋め込み層ベクトルを時間的アテンションユニットに入力して、空間的特徴及び時間的特徴を有するベクトルを得て、最後に、得られた空間的特徴及び時間的特徴を有するベクトルを分類層ユニットに入力して、最終的な分類結果が出力される。
本発明のシステムは、異なる種類の腫瘍又はサブタイプのCT画像における違いに基づいてCT画像の分類を実現し、さらに、腫瘍の病型/病期の診断上の分類を実現するものである。本発明のシステムは、2種類以上の腫瘍の分類に用いることができ、具体的に、システムの構築方法によって決定される。例えば、肝がんは一般的に原発性及び続発性の2種類に分けられる。原発性肝臓悪性腫瘍は肝臓の上皮又は間葉組織から発生するものであり、続発性(転移性とも呼ばれる)肝がんとは、全身の複数の臓器に由来する悪性腫瘍が肝臓に浸潤するものを指す。一般的には、胃、胆道、膵臓、結腸・直腸、卵巣、子宮、肺、乳腺などの臓器の悪性腫瘍の肝転移が多く見られる。
図3に示すのは、本発明の時空間的アテンションモデルに基づく肝がん多時相CT画像分類システムの構築方法のフローチャートであり、当該方法は、具体的には以下を含む。
(1)サンプルを収集してデータセットを構築し、前記データセットの各サンプルは1人の患者のs個の時相の肝がんCT画像を含み、
肝がんCT画像に対して肝細胞がん及び肝内胆管細胞がんの二項分類を例にとると、肝細胞がん(hepatocellular carcinoma、HCC)は死亡率の高い原発性肝がんであり、肝内胆管細胞がん(intrahepatic cholangiocarcinoma、ICC)とは、二次胆管及びその枝の上皮から発生する腺がんを指し、肝細胞がんに次ぐ発生率を有する原発性肝臓悪性腫瘍である。合計400件のサンプルが収集されており、そのうちHCCサンプルは200件、ICCサンプルは200件があり、全てのサンプルのラベル付けは専門の医用画像科医師によって実施され、具体的には次のとおりである。
(1.1)最初に、病院から肝がん患者の単純スキャン相肝臓CT画像及び造影CT画像(動脈相、門脈相、遅発相の肝臓CT画像)を収集し、データスクリーニングにより完全な研究情報を有する患者データを選択し、データマスキング技術により患者個人のプライベートな情報を除去し、患者のプライバシーを保護し、データの機密性を向上させるために役立ち、最終的にHCC及びICC患者から合計400件の肝臓CT画像及び対応する肝機能検査報告を収集し、そのうちHCC患者は200件、ICC患者は200件があり、属するクラスに従ってラベル付けし、HCC患者は1とラベル付けし、ICC患者は0とラベル付けする。
(1.2)専門の医用画像科医師は4つの時相の肝臓CT画像中の病巣部分をラベル付けし、分割して、データセットを構築する。
さらに、患者の個人差により検査科医師は異なる患者に異なるスキャン回数を設定する可能性があるため、オリジナルのCT画像中のスライス数は異なり、研究の便宜上、各時相のCT画像のサイズ及び数は一律に定義される。本実施例では、各サンプルの肝臓CT画像のサイズを64×128×128×4とし、ここで64は各時相の肝臓CT画像の層数を表し、128、128は各肝臓CT画像の長さ及び幅を表し、4は4つの時相を表し、
さらに、データを強調し、データが不十分な場合に、データからより多くの価値を生み出し、入力はデータの前処理を完了された4時相肝臓CT画像であり、ランダムな回転、ランダムな反転などの操作を行って、データセットのサンプルを補足する。
(2)データ取得ユニットと、第1埋め込み層ネットワークユニットと、空間的アテンションユニットと、第2埋め込み層ネットワークユニットと、時間的アテンションユニットと、分類層ユニットとを含む上記時空間的アテンションモデルに基づく多時相CT画像分類システムを構築し、データセット中の各サンプルをシステムの入力として、システムの出力する分類結果と分類ラベルとの誤差を最小にすることを目標としてトレーニングし、バイナリクロスエントロピー損失関数でシステムの出力する分類結果と分類ラベルとの誤差の計算を例にとると、次のとおりに表す。
Loss=-ylog(Prob)-(1-y)log(1-Prob) (10)
ただし、y∈{0,1}であり、0はICC患者を表し、1はHCC患者を表す。
確率的勾配降下アルゴリズムを用いてシステム全体を最適化し、目標は最小の誤差損失を見つけて、最終的に最適な分類モデルを得ることである。本実施例では、Adam確率的最適化アルゴリズムを用いて勾配の逆伝播と最適化を行い、学習率は0.0001に設定し、最終的に肝細胞がん及び肝内胆管細胞がんの二項分類を実現する時空間的アテンションモデルに基づく多時相CT画像分類システムを得る。
本発明の方法は多時相のCT画像に基づいて診断する必要のある様々な疾患に普遍性を有し、異なる時相の病巣の特徴をより効果的に利用して、時間的なつながりを強化し、従来の畳み込みニューラルネットワークをメインモデルとした設計を捨て、アテンションメカニズムにより、より多くの計算を重要な領域に投入し、注目すべき目標のより多くの詳細情報を得ることができ、これによって他の無用な情報を抑制し、計算の冗長性と遅延を低減し、CT画像の診断をより短時間で実現しやすく、診断の精度を高くし、診断の効果をより安定的にする。
なお、本発明に記載されている実施例は、本発明の実施形態に対する限定ではなく、本発明を明瞭に説明するために挙げた例に過ぎない。当業者は、上記の説明を踏まえて他の様々な形式の修正又は変更を行うことができる。ここでは全ての実施形態を挙げる必要はなく、そうすることもできない。本発明の趣旨と原則内の修正、同等な置換、改良など、いずれも本発明の特許請求の範囲に含まれる。本発明で主張する保護範囲は、特許請求の範囲の内容に従うものとし、明細書の発明を実施するための形態などの記載は特許請求の範囲の内容を解釈するために用いてもよい。そこから生まれる自明な変化又は変更は依然として本発明の保護範囲に含まれる。

Claims (7)

  1. 分類される患者のs個の時相のCT画像を取得するためのデータ取得ユニットと、
    s個の第1埋め込み層ネットワークを含む第1埋め込み層ネットワークユニットであって、第1埋め込み層ネットワークは、それぞれ、各時相のCT画像を複数の画像ブロックに分割し、各画像ブロックをそれぞれ画像ブロックベクトルに展開し、全ての画像ブロックベクトルとクラスラベルベクトルを合わせた後に同次元の位置ベクトルと加算して対応する時相のCT画像の埋め込みベクトルを得る、第1埋め込み層ネットワークユニットと、
    s個の空間的アテンションネットワークを含む空間的アテンションユニットであって、各空間的アテンションネットワークは、L1層の第1マルチヘッドアテンションネットワークMSAと、L1層の第1多層パーセプトロンと、1層の第1正規化層とを含み、L1層の第1マルチヘッドアテンションネットワークMSAとL1層の第1多層パーセプトロンは順にインターリーブ接続され、前記第1マルチヘッドアテンションネットワークMSAは、最終的な空間的アテンション関数を生成し、最終的な空間的アテンション関数と入力ベクトルを加算するものを次の層の第1多層パーセプトロンに対応する入力ベクトルとするために用いられ、前記第1多層パーセプトロンは正規化された入力ベクトルを符号化して前記第1多層パーセプトロンの入力ベクトルと加算し、加算結果を次の層の第1マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第1マルチヘッドアテンションネットワークMSAの入力ベクトルは埋め込みベクトルであり、第1正規化層は、最終層の第1多層パーセプトロンの出力するベクトルと前記第1多層パーセプトロンの入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、対応する時相のCT画像の空間的特徴とする、空間的アテンションユニットと、
    1つの第2埋め込み層ネットワークを含む第2埋め込み層ネットワークユニットであって、s個の空間的アテンションネットワークの出力するs個の対応する時相のCT画像の空間的特徴を合わせた後にクラスラベルベクトルと合わせて埋め込み層ベクトルを得るための第2埋め込み層ネットワークユニットと、
    1つの時間的アテンションネットワークを含む時間的アテンションユニットであって、時間的アテンションネットワークは、L2層の第2マルチヘッドアテンションネットワークMSAと、L2層の第2多層パーセプトロンと、1層の第2正規化層とを含み、L2層の第2マルチヘッドアテンションネットワークMSAとL2層の第2多層パーセプトロンは順にインターリーブ接続され、前記第2マルチヘッドアテンションネットワークMSAは、最終的な時間的アテンション関数を生成し、最終的な時間的アテンション関数と入力ベクトルを加算するものを次の層の第2多層パーセプトロンに対応する入力ベクトルとするために用いられ、前記第2多層パーセプトロンは正規化された入力ベクトルを符号化して前記第2多層パーセプトロンの入力ベクトルと加算し、加算結果を次の層の第2マルチヘッドアテンションネットワークMSAに対応する入力とし、1層目の第2マルチヘッドアテンションネットワークMSAの入力ベクトルは第2埋め込み層ネットワークユニットの出力する埋め込み層ベクトルであり、第2正規化層は、最終層の第2多層パーセプトロンの出力するベクトルと前記第2多層パーセプトロンの入力ベクトルを加算して得られたベクトルの第1次元ベクトルを正規化し、空間的特徴及び時間的特徴を有するベクトルを得る、時間的アテンションユニットと、
    分類層Wを含む分類層ユニットであって、空間的特徴及び時間的特徴を有するベクトルに基づいて分類結果Probを得るために用いられ、Prob=W(xtime )となり、Prob∈Rはクラスの確率分布を表し、Cはクラスの総数を表す、分類層ユニットと、を含むことを特徴とする時空間的アテンションモデルに基づく多時相CT画像分類システム。
  2. sは2以上であり、s個の時相のCT画像は、単純スキャン相CT画像と、動脈相CT画像と、門脈相CT画像と、遅発相CT画像との少なくとも2つを含むことを特徴とする請求項1に記載のシステム。
  3. 前記埋め込みベクトルは、
    =[Xclass;X ;X …X ]+Xpos であり、
    ただし、Xclassはクラスラベルベクトルを表し、Xposは位置ベクトルを表し、Xは線形化後の画像ブロックベクトルを表し、Nは分割後の画像ブロックの数を表すことを特徴とする請求項1に記載のシステム。
  4. 前記マルチヘッドアテンションネットワークMSAは、複数の自己アテンションモジュールSAと、1つのスプライシング層とを含み、自己アテンションモジュールSAは、正規化された入力ベクトルをクエリ行列Q、キーワード行列K及び値行列Vの3つの異なる行列に変換し、クエリ行列Q、キーワード行列K及び値行列Vの3つの異なる行列に基づいて入力ベクトル中の各ベクトル間のアテンション関数を生成するために用いられ、
    ただし、dはキーワード行列K中の各キーワードベクトルkの次元を表し、softmax()はsoftmax関数であり、
    スプライシング層は、各自己アテンションモジュールSAの出力するアテンション関数をスプライシングして最終的な空間的又は時間的アテンション関数を得るために用いられることを特徴とする請求項1に記載のシステム。
  5. 前記第1マルチヘッドアテンションネットワークMSA、第2マルチヘッドアテンションネットワークMSAの入力ベクトルは、
    であり、
    LNは正規化方法を表し、xは第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表し、MLP()は対応する第1多層パーセプトロン又は第2多層パーセプトロンの出力を表し、x’l-1はl-1層目の第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表すことを特徴とする請求項1に記載のシステム。
  6. 前記第1多層パーセプトロン、第2多層パーセプトロンの入力ベクトルは、
    であり、
    LNは正規化方法を表し、x’は第1多層パーセプトロン又は第2多層パーセプトロンの入力ベクトルを表し、MSA()は対応する第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの出力を表し、xはl層目の第1マルチヘッドアテンションネットワークMSA又は第2マルチヘッドアテンションネットワークMSAの入力ベクトルを表すことを特徴とする請求項1に記載のシステム。
  7. サンプルを収集してデータセットを構築するステップであって、前記データセットの各サンプルは1人の患者のs個の時相のCT画像を含むステップと、
    請求項1~6のいずれか1項に記載の時空間的アテンションモデルに基づく多時相CT画像分類システムを構築し、データセット中の各サンプルをシステムの入力として、システムの出力する分類結果と分類ラベルとの誤差を最小にすることを目標としてトレーニングし、前記時空間的アテンションモデルに基づく多時相CT画像分類システムを得るステップと、を含むことを特徴とする時空間的アテンションモデルに基づく多時相CT画像分類システムの構築方法。
JP2023007862A 2022-06-15 2023-01-23 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法 Active JP7411126B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210672853.4 2022-06-15
CN202210672853.4A CN114758032B (zh) 2022-06-15 2022-06-15 基于时空注意力模型的多相期ct图像分类系统及构建方法

Publications (2)

Publication Number Publication Date
JP2023183367A true JP2023183367A (ja) 2023-12-27
JP7411126B2 JP7411126B2 (ja) 2024-01-10

Family

ID=82336458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023007862A Active JP7411126B2 (ja) 2022-06-15 2023-01-23 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法

Country Status (2)

Country Link
JP (1) JP7411126B2 (ja)
CN (1) CN114758032B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117808976A (zh) * 2024-03-01 2024-04-02 之江实验室 一种三维模型构建方法、装置、存储介质及电子设备
CN118015017A (zh) * 2024-02-06 2024-05-10 中国科学院宁波材料技术与工程研究所 分割模型的训练方法、装置、电子设备及存储介质
CN118298316A (zh) * 2024-06-05 2024-07-05 江西啄木蜂科技有限公司 一种基于时空分析模型的自然保护地变化检测方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152246B (zh) * 2023-04-19 2023-07-25 之江实验室 一种图像识别方法、装置、设备及存储介质
CN116188469A (zh) * 2023-04-28 2023-05-30 之江实验室 一种病灶检测方法、装置、可读存储介质及电子设备
CN116206164B (zh) * 2023-05-06 2023-08-18 之江实验室 基于半监督对比学习的多相期ct分类系统及构建方法
CN117290684B (zh) * 2023-09-27 2024-07-09 南京拓恒航空科技有限公司 基于Transformer的高温干旱天气预警方法、电子设备
CN118136237A (zh) * 2024-03-20 2024-06-04 中国医学科学院肿瘤医院 一种基于图像处理的食管癌筛查系统及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2021116658A (ru) 2017-05-23 2021-07-05 ГУГЛ ЭлЭлСи Нейронные сети с преобразованием последовательности на основе внимания
JP6912998B2 (ja) 2017-10-25 2021-08-04 株式会社日立製作所 データ分析装置、データ分析方法、およびデータ分析プログラム
US11972567B2 (en) * 2018-05-29 2024-04-30 The General Hospital Corporation System and method for analyzing medical images to detect and classify a medical condition using machine-learning and a case pertinent radiology atlas
JP2020087127A (ja) 2018-11-28 2020-06-04 国立研究開発法人産業技術総合研究所 グラフ構造を有するデータのエンコードに関するプログラム、情報処理方法及び情報処理システム
CN110443268B (zh) 2019-05-30 2022-02-08 杭州电子科技大学 一种基于深度学习的肝部ct图像良性恶性分类方法
US11158048B2 (en) * 2019-06-28 2021-10-26 Shandong University Of Science And Technology CT lymph node detection system based on spatial-temporal recurrent attention mechanism
JP2021081921A (ja) 2019-11-18 2021-05-27 株式会社Preferred Networks データ処理装置、データ処理方法、プログラム、およびモデル
CN111539491B (zh) * 2020-07-07 2020-11-06 点内(上海)生物科技有限公司 基于深度学习与注意力机制的多发性结节分类系统和方法
CN112287978B (zh) * 2020-10-07 2022-04-15 武汉大学 一种基于自注意力上下文网络的高光谱遥感图像分类方法
CN113902926B (zh) * 2021-12-06 2022-05-31 之江实验室 一种基于自注意力机制的通用图像目标检测方法和装置
CN114399634B (zh) * 2022-03-18 2024-05-17 之江实验室 基于弱监督学习的三维图像分类方法、系统、设备及介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118015017A (zh) * 2024-02-06 2024-05-10 中国科学院宁波材料技术与工程研究所 分割模型的训练方法、装置、电子设备及存储介质
CN117808976A (zh) * 2024-03-01 2024-04-02 之江实验室 一种三维模型构建方法、装置、存储介质及电子设备
CN117808976B (zh) * 2024-03-01 2024-05-24 之江实验室 一种三维模型构建方法、装置、存储介质及电子设备
CN118298316A (zh) * 2024-06-05 2024-07-05 江西啄木蜂科技有限公司 一种基于时空分析模型的自然保护地变化检测方法

Also Published As

Publication number Publication date
CN114758032A (zh) 2022-07-15
CN114758032B (zh) 2022-09-16
JP7411126B2 (ja) 2024-01-10

Similar Documents

Publication Publication Date Title
JP7411126B2 (ja) 時空間的アテンションモデルに基づく多時相ct画像分類システム及び構築方法
Zhong et al. An attention-guided deep regression model for landmark detection in cephalograms
Usman et al. Analyzing transfer learning of vision transformers for interpreting chest radiography
Ukwuoma et al. Deep learning framework for rapid and accurate respiratory COVID-19 prediction using chest X-ray images
Pang et al. Tumor attention networks: Better feature selection, better tumor segmentation
Patro et al. SCovNet: A skip connection-based feature union deep learning technique with statistical approach analysis for the detection of COVID-19
Du et al. Segmentation and visualization of left atrium through a unified deep learning framework
Özbay et al. Brain tumor detection with mRMR-based multimodal fusion of deep learning from MR images using Grad-CAM
Pacal et al. Enhancing Skin Cancer Diagnosis Using Swin Transformer with Hybrid Shifted Window-Based Multi-head Self-attention and SwiGLU-Based MLP
Wang et al. Classification of skin lesions with generative adversarial networks and improved MobileNetV2
Rasoulian et al. Weakly supervised intracranial hemorrhage segmentation using hierarchical combination of attention maps from a swin transformer
Ji et al. ResDSda_U-Net: A novel U-Net based residual network for segmentation of pulmonary nodules in lung CT images
Akash Guna et al. U-net xception: A two-stage segmentation-classification model for covid detection from lung ct scan images
Wu et al. Human identification with dental panoramic images based on deep learning
US20220287647A1 (en) Disease classification by deep learning models
Yang et al. Cardiovascular Disease Detection from Multi-View Chest X-rays with BI-Mamba
Maram et al. Brain tumour detection on brats 2020 using u-net
Dawood et al. Brain tumors detection using computed tomography scans based on deep neural networks
Ashraf et al. Enhancing Breast Cancer Diagnosis with Vision Transformer-based Ultrasound Image Classification
Shaji et al. Brain Tumor Segmentation Using Modified Double U-Net Architecture
Li et al. Feature pyramid based attention for cervical image classification
Malik et al. Exploring dermoscopic structures for melanoma lesions' classification
Alam et al. An Efficient Deep Learning-Based Skin Cancer Classifier for an Imbalanced Dataset. Diagnostics 2022, 12, 2115
Saturi et al. Modelling of deep learning enabled lung disease detection and classification on chest X-ray images
Thiruvenkadam et al. Deep Learning with XAI based Multi-Modal MRI Brain Tumor Image Analysis using Image Fusion Techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231222

R150 Certificate of patent or registration of utility model

Ref document number: 7411126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150