JP2024043567A - 特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システム - Google Patents

特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システム Download PDF

Info

Publication number
JP2024043567A
JP2024043567A JP2023006834A JP2023006834A JP2024043567A JP 2024043567 A JP2024043567 A JP 2024043567A JP 2023006834 A JP2023006834 A JP 2023006834A JP 2023006834 A JP2023006834 A JP 2023006834A JP 2024043567 A JP2024043567 A JP 2024043567A
Authority
JP
Japan
Prior art keywords
feature
domain
image
loss
image block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023006834A
Other languages
English (en)
Other versions
JP7244974B1 (ja
Inventor
聞▲タオ▼ 朱
Wentao Zhu
梦凡 薛
Mengfan Xue
怡達 陳
Yida Chen
海亮 黄
Hailiang Huang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Application granted granted Critical
Publication of JP7244974B1 publication Critical patent/JP7244974B1/ja
Publication of JP2024043567A publication Critical patent/JP2024043567A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システムを提供する。【解決手段】病理画像特徴抽出器は、訓練データセットを構築するデータ取得モジュールと、特徴抽出器の訓練のための特徴分離ネットワークを構築する特徴分離ネットワーク構築モジュールと、訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とする訓練モジュールと、を含む。【効果】設定された損失関数が、色エンコーダ及び組織構造エンコーダの特徴抽出の標的性を最大限に保証し、異なる病理画像の複数の色ドメインをカバーし、異なるドメインの色変化を導入し、異なるセンターからの病理画像に適応することができ、より高い汎化性能を有する。【選択図】図2

Description

本発明は、医療画像処理技術の分野及び人工知能の分野に関し、より具体的には、特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システムに関する。
正常組織細胞は、様々な要因の刺激で遺伝子構造が変化し、不可逆的な細胞形態や機能の異常を引き起こし、癌細胞となる。癌細胞は、無限増殖、形質転換可能で、容易に転移という3つの特徴を有し、正常細胞が癌細胞になった後に制御不可能な無限分裂増殖が始まり、周囲の正常組織に侵入し、ひいては体内循環系又はリンパ系を経由して身体の他の部位に拡散する。早期癌は、抗癌剤又は外科手術による腫瘍切除の方式で治療することができ、このとき、治癒率が高く、身体への負担が少ない。しかしながら、癌が中・末期に進行したまま、ひいては転移後に診断された場合、治療手段が非常に限られてしまい、放射線治療や化学療法などの体毒性副作用の強い治療方法で治療するしかない。したがって、癌の早期診断は、人間が癌に対処するための最も効果的な武器となる。
現在、医師は、通常、コンピュータ断層撮影(Computed Tomography、CT)及び病理診断の方法を採用して癌の診断を行っている。しかし、コンピュータ断層撮影は、初歩的な診断しか提供できず、組織の病理診断こそ臨床診断のゴールドスタンダードとなっている。病理専門家は、腫瘍と疑われる部位から切り出した組織をスライスに作成した後、デジタル顕微鏡及びコンピュータ技術により、全スライド病理画像(Whole Slide Imaging、WSI)を作成し、次いで、コンピュータ上で全スライド病理画像の細胞及び細胞間の形態を観察して病巣領域を探し、診断意見を下す。しかし、現在中国国内に資質を持つ病理医は、一万人余りしかおらず、分布も偏在し、一般的に、経済が先進した省に集中し、中西部などの後進地域と省において病理医の深刻な不足に直面し、患者の実際の要求を満たすことができず、これにより、中国数十億人の健康に直接的又は間接的に影響を与える。また、病理医による全スライド病理画像の人工診断は、医師の専門知識の蓄積や業務経験に強く依存しており、しかも医師の診断結果は、主観性による影響を受け、時間がかかるだけでなく、疲労による診断結論への影響も存在する。国際的な最新の研究成果によると、ヘマトキシリン・エオシン(hematoxylin-eosin、H&E)染色の腫瘍細胞核の人工的な統計分析が誤差を生じやすく、例えば、腫瘍細胞核の人工的な百分率統計は実のデータより45%上回っていることもある。同一の腫瘍に対して、異なる病理医の診断の相違は、10%~95%の動的範囲で変化し、偽陰性の診断結果や癌サブタイプの誤判定を引き起こし、この誤診、見落としは、臨床的治療手段に直接影響し、患者の生命の安全を脅かす。
ビッグデータ時代において、計算力の継続的な高まりやオープンソース医療データベースの確立は、医療分野における人工知能技術の適用の障害をすっかり取り除く。深層学習により、コンピュータ支援診断システムを確立し、エンドツーエンドの全スライド病理画像の診断を実現し、医師が診断の効率及び正確率を向上させることを支援することができる。訓練済み深層学習モデルは、全スライド病理画像を同じ基準で検出し、主観性による影響を回避し、病理医の診断の分岐を低減する。
全スライド病理画像を作成する時には、ヘマトキシリン-エオシン(H&E)で染色を行う必要がある。しかしながら、組織固定時間、染色剤の配合比、及びスキャナなどの差異の影響により、異なる腫瘍センターにより作成された全スライド病理画像間には、大きな色の差異があり、データ量が不十分である場合、ネットワークは、学習の過程で色の差異にも過度に注目し、実に注目必要な組織のテクスチャ構造情報を無視する状況がある。現在、ほとんどの学者は、色正規化方法を採用して全ての画像の色分布をテンプレート画像と一致させる。しかし、この方法は2段階(two-stage)であり、実際に適用される過程に、まず色正規化アルゴリズムにより新たな画像を生成してからネットワーク学習を行う必要があり、色正規化の過程に余分な情報損失を導入し、不可避的に原画像の組織構造情報を破壊し、分類正確度の低下を招く。また、現在開示されている医療画像データベースにおける医療画像は、病巣領域のラベルが含まれておらず、深層学習モデルの訓練に用いる病巣ラベル付けの病理画像データを十分に得ることは困難である。したがって、余分な色正規化操作を必要とせず、かつ、組織構造情報を保持するとともに、色差がモデルに影響を与えることを回避できる病理画像特徴抽出器が必要とされる。
本発明は、従来の深層学習に基づく全スライド病理画像分類方法のいずれも、余分な色正規化フローを必要とすることによる組織構造情報損失という問題を解決することを目的とし、特徴分離に基づく病理画像特徴抽出器の訓練方法及び訓練装置を提供し、訓練して得られた病理画像特徴抽出器は、余分な色正規化フローを必要とせず、完全な組織構造情報を保持するとともに、色差のモデルへの影響を回避する。
上記技術的問題を解決するために、本発明は、以下の技術的解決手段を採用し、
特徴分離に基づく病理画像特徴抽出器の訓練方法であって、当該方法は、具体的には、
訓練データセットを構築するステップであって、前記訓練データセットの各サンプルが病理画像の分割に基づいて取得された2つの画像ブロックを含むステップと、
特徴抽出器の訓練のための特徴分離ネットワークを構築するステップであって、前記特徴分離ネットワークは、
入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
入力された組織構造情報特徴及び色情報特徴を画像ブロックに再生成するための生成器Gと、
実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含むステップと、
訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とするステップであって、前記損失関数Ltotalは、以下のように表され、
total=-λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
ここで、Ladv,sは、元のサンプルの2つの画像ブロックx及びyが属するドメインと組織構造判別器Dにより判別されたドメインとの間の損失を含む、組織構造の敵対的損失を表し、
adv,domainは、元のサンプルの2つの画像ブロックx及びyに対応するXドメインのドメイン敵対的損失及びYドメインのドメイン敵対的損失を含む、ドメイン敵対的損失を表し、
reconは、各元のサンプルの2つの画像ブロックの自己再構築損失を表し、
latent,sは、変換画像ブロックと対応する元のサンプルの画像ブロックの組織構造情報特徴の組織構造情報整合性損失を表し、Llatent,cは、変換画像ブロックと対応する元のサンプルの画像ブロックの色情報特徴の色情報整合性損失を表し、
前記変換画像ブロックは、サンプルにおける2つの画像ブロックの色情報特徴を交換した後、生成器Gに基づいて再生成されたものであり、
ccは、変換画像ブロックが組織構造エンコーダE、色エンコーダEによりエンコードされ、生成器Gにより再生成された画像ブロックと元のサンプルの画像ブロックの循環整合性損失を表し、
λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表す、ステップと、を含む。
前記特徴分離ネットワークの訓練は、いかなる画像レベル、ピクセルレベル、又はROIレベルの注釈を必要としない。前記小さな画像ブロックの特徴抽出器は、即ち特徴分離ネットワークにおける組織構造エンコーダEであり、色情報を回避する状況で小さな画像ブロックにおける組織構造情報を抽出することができる。
さらに、前記組織構造の敵対的損失は、以下のように表され、
adv,s(E,D)=Ex[1/2log D(E(x))+1/2log(1-D(E(x)))]+E[1/2log D(E(y))+1/2log(1-D(E(y)))]
ここで、E(・)は、組織構造エンコーダEの出力を表し、D(・)は、組織構造判別器Dの出力を表し、x及びyは、各サンプルの2つの画像ブロックを表し、E[・]は、数学的期待である。
さらに、自己再構築損失Lrecon、ドメイン敵対的損失Ladv,domain、色情報整合性損失Llatent,c及び組織構造情報整合性損失Llatent,sは、BCE損失関数又はMSE損失関数を採用する。
さらに、前記循環整合性損失Lccは、以下のように表され、
cc(E,E,G)=Ex,y[||G(E(v),E(u))-x||+||G(E(u),E(v))-y||
ここで、E(・)は、組織構造エンコーダEの出力を表し、x及びyは、各サンプルの2つの画像ブロックを表し、E[・]は、数学的期待であり、||・||は、L1ノルムの算出を表し、G(・)は、生成器Gの出力を表し、E(・)は、色エンコーダEの出力を表し、u及びvは、変換画像ブロックを表し、以下に表され、
u=G(E(y),E(x)),v=G(E(x),E(y))。
特徴分離に基づく病理画像特徴抽出器の訓練装置であって、
訓練データセットを構築するためのデータ取得モジュールであって、前記訓練データセットの各サンプルが病理画像の分割に基づいて取得された2つの画像ブロックを含むデータ取得モジュールと、
特徴抽出器の訓練のための特徴分離ネットワークを構築するための特徴分離ネットワーク構築モジュールであって、前記特徴分離ネットワークは、
入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
入力された組織構造情報特徴及び色情報特徴を画像ブロックに再生成するための生成器Gと、
実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含む特徴分離ネットワーク構築モジュールと、
訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とする訓練モジュールであって、前記損失関数Ltotalは、以下のように表され、
total=λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
ここで、Ladv,sは、元のサンプルの2つの画像ブロックx及びyが属するドメインと組織構造判別器Dにより判別されたドメインとの間の損失を含む、組織構造の敵対的損失を表し、
adv,domainは、元のサンプルの2つの画像ブロックx及びyに対応するXドメインのドメイン敵対的損失及びYドメインのドメイン敵対的損失を含む、ドメイン敵対的損失を表し、
reconは、各元のサンプルの2つの画像ブロックの自己再構築損失を表し、
latent,sは、変換画像ブロックと対応する元のサンプルの画像ブロックの組織構造情報特徴の組織構造情報整合性損失を表し、Llatent,cは、変換画像ブロックと対応する元のサンプルの画像ブロックの色情報特徴の色情報整合性損失を表し、
前記変換画像ブロックは、サンプルにおける2つの画像ブロックの色情報特徴を交換した後、生成器Gに基づいて再生成されたものであり、
ccは、変換画像ブロックが組織構造エンコーダE、色エンコーダEによりエンコードされ、生成器Gにより再生成された画像ブロックと元のサンプルの画像ブロックの循環整合性損失を表し、
λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表す、訓練モジュールと、を含む。
電子機器であって、メモリと、プロセッサと、メモリに記憶され、プロセッサで実行可能なコンピュータプログラムとを含み、前記プロセッサは、前記コンピュータプログラムを実行する時、上述したような特徴分離に基づく病理画像特徴抽出器の訓練方法を実現する。
コンピュータ実行可能命令を含む記憶媒体であって、前記コンピュータ実行可能命令は、コンピュータプロセッサにより実行される時、上述したような特徴分離に基づく病理画像特徴抽出器の訓練方法が実施される。
病理画像分類システムであって、
分類すべき病理画像を複数の画像ブロックに分割するためのデータ前処理ユニットと、
上記特徴分離に基づく病理画像特徴抽出器の訓練方法により訓練して得られた特徴抽出器であって、各画像ブロックに対して組織構造情報特徴を抽出するための特徴抽出器と、
特徴抽出器により抽出された各画像ブロックの組織構造情報特徴に基づいて分類を行い、分類すべき病理画像の分類結果を得るための分類ユニットと、を含む。
さらに、分類ユニットは、訓練済みのマルチインスタンス学習ネットワークであり、前記マルチインスタンス学習ネットワークは、各小さな画像ブロックに応じて分類結果の重要度に対応する注意スコアを付けるための注意モジュールと、同一の全スライド病理画像の小さな画像ブロックからの組織構造情報ベクトルをslideレベルの特徴ベクトルに集合するための集合層と、slideレベルの特徴ベクトルを分類するための分類層とから構成することができる。
さらに、前記マルチインスタンス学習ネットワークは、ピクセルレベル又はROIレベルの注釈を必要とせず、全スライド病理画像のタイプラベルのみを必要とする。
さらに、前記全スライド病理画像は、医療用全スライド病理画像である。
従来技術と比較して、本発明の有益な結果は、以下のとおりである。
(1)本発明は、複数の敵対的生成ネットワークを含む特徴分離ネットワークを提供し、当該特徴分離ネットワークは、いかなるペアデータを使用せずに訓練し、全スライド病理画像を色情報特徴及び組織構造情報特徴に分離分解し、染色剤の配合比、組織固定時間、スキャナなどの人為的要因による色差異情報を除去し、画像中のより深い階層の細胞と細胞間の構造、形態学的特徴などの診断に関連する不純物のない組織構造情報のみを保持することができる。また、訓練の過程に異なる病理画像の複数のドメインをカバーし、異なるドメインの変化を導入し、異なるセンターからの全スライド病理画像に適応することができ、より強い汎化性能及びより高いロバスト性を有する。
(2)本発明により提供される特徴分離ネットワークは、いかなる色正規化過程を必要とせず、従来の色正規化に基づくコンピュータ支援診断方法による組織構造情報損失を回避し、診断に関連する組織構造情報を最大限に保持することができ、より完全な組織構造情報特徴に基づく全スライド病理画像の分類は、より高い正確度を有する。1段階(one-stage)モデルフレームワークの支援診断は、よりよい利便性を有する。
(3)本発明により提供される特徴分離ネットワークの損失関数は、組織構造の敵対的損失、自己再構築損失、ドメイン敵対的損失、潜在空間の色情報整合性損失、潜在空間の組織構造情報整合性損失、及び循環整合性損失という6つの損失関数を含んで、ネットワークを制約し、ネットワークにおける色エンコーダが全スライド病理画像の色情報特徴のみをエンコードし、組織構造エンコーダが診断に関連する組織構造情報特徴のみをエンコードすることを最大限に保証し、異なるエンコーダ特徴抽出の標的性を保証し、不純物情報がエンコードされることによるモデルへの悪影響を低減し、モデルの分類性能を向上させる。
(4)本発明の特徴抽出器により抽出された情報特徴に基づいて分類するためのマルチインスタンス分類ネットワークは、ブロックレベル又はピクセルレベルのラベルを必要とせず、画像レベルの病変ラベルのみを必要とし、必要なデータは、特定の病変に制限されず、いかなる器官からの全スライド病理画像はいずれも訓練に参加することができ、データセットの制限を大幅に緩和し、データ収集及びラベル付けの作業量を軽減し、一定の臨床的価値を有する。
本発明の特徴分離ネットワークのネットワーク構造及び訓練のフローチャートである。 本発明の特徴分離に基づく病理画像特徴抽出器の訓練装置の構造図である。 本発明の電子機器のハードウェア構造図である。 本発明の病理画像分類システムの構造図である。 本発明の病理画像分類システムの分類のフローチャートである。
以下、本発明の実施例における図面と組み合わせて、本発明の実施例における技術的解決手段を明確且つ完全に記述するが、明らかに、記述された実施例は、本発明の一部の実施例に過ぎず、全ての実施例ではない。本発明における実施例に基づき、当業者であれば、創造的な労力を行わずに得られた他の全ての実施例は、いずれも本発明の保護範囲に属する。
本発明は、特徴分離(feature decoupling)に基づく病理画像特徴抽出器の訓練方法を提供し、当該特徴分離に基づく病理画像特徴抽出器の訓練方法により、本発明の実施例により提供される新規な病理画像特徴抽出器を訓練して得ることができ、当該病理画像特徴抽出器により、異なるセンター、異なる処理条件から得られた病理画像から、より高い信頼性を有する組織構造情報特徴を直接抽出することができ、具体的には、本発明の特徴分離に基づく病理画像特徴抽出器の訓練方法は、以下のステップを含み、
ステップS1において、訓練データセットを構築し、前記訓練データセットの各サンプルは病理画像を分割することで取得された2つの画像ブロックを含む。
ここで、画像ブロックを分割して取得する時、空白背景領域及び天然空洞領域をフィルタリングし、病理組織領域のみを保持すべきであり、スライディングウィンドウを用いて、病理組織領域を均一なサイズの小さな画像ブロックに分割し、画像ブロックデータは、いかなるピクセル、パッチ、又はROIレベルのラベルを含まず、色正規化操作を行う必要もない。
ステップS2において、特徴抽出器用の特徴分離ネットワークを構築し、図1に示すように、前記特徴分離ネットワークは、主に、
入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
入力された組織構造情報特徴及び色情報特徴を画像ブロックに再生成するための生成器Gと、
実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含む。
ステップS3において、訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練し、具体的には、図1に示すように、以下のサブステップを含み、
ステップS3.1において、各サンプルの2つの小さな画像ブロックをx、yと表記し、ここで、画像ブロックxは、Xドメインに属し、画像ブロックyは、Yドメインに属する。組織構造エンコーダE及び色エンコーダEにそれぞれ送信して特徴分離を行い、対応する組織構造情報特徴hs,x、hs,y及び色情報特徴hc,x、hc,yを得る。ここで、組織構造エンコーダE及び色エンコーダEは、いずれも従来のエンコーダであり、主に畳み込み層、残差ブロック、及び全結合層などから構成され、例示的に、組織構造エンコーダEは、3つの畳み込み層と4つの残差ブロックから構成され、色エンコーダEは、4つの畳み込み層と1つの全結合層から構成されてもよい。組織構造エンコーダEは、画像を共有の組織構造ドメインSにマッピングし、色エンコーダEは、画像を異なる色ドメインにマッピングし、以下の式であり、
s,x=E(x),hc,x=E(x),hs,y=E(y),hc,y=E(y)
式において、E(・)、E(・)は、それぞれ組織構造エンコーダE及び色エンコーダEの出力を表す。
ステップS3.2において、画像ブロックxと画像ブロックyの組織構造情報特徴hs,x、hs,yが同一の共有の組織構造ドメインS内にあるという仮定に基づき、組織構造判別器Dを用いてhs,x、hs,yが同一の組織構造ドメインS内にあることを判別する。組織構造の敵対的損失Ladv,sを算出し、例示的には、組織構造の敵対的損失Ladv,sは、以下のように表され、
adv,s(E,D)=Ex[1/2log D(E(x))+1/2log(1-D(E(x)))]+E[1/2log D(E(y))+1/2log(1-D(E(y)))]
ここで、E[・]は、数学的期待であり、D(・)は、組織構造判別器Dの出力を表す。
ステップS3.3において、生成器Gを用いて、画像ブロックxに基づいて抽出して得られた組織構造情報特徴hs,x及び色情報特徴hc,xを画像ブロックxに再生成し、画像ブロックyに基づいて抽出して得られた組織構造情報特徴hs,y及び色情報特徴hc,yを画像ブロックyに再生成する。生成器Gは、任意の通常の生成器であってもよく、例示的に、生成器は、4つの残差ブロックと3つの小さなストライドの畳み込み層とから構成される。hs,x及びhc,xは、同一の画像ブロックxに由来し、hs,y及びhc,yは、同一の画像ブロックyに由来するので、理論上、再生成された画像ブロックxは、原画像ブロックxと同じであるべきであり、画像ブロックyは、原画像ブロックyと同じであるべきである。この仮定に基づき、各元のサンプルの2つの画像ブロックの自己再構築損失(self-reconstruction loss)Lreconを算出し、自己再構築損失は、BCE損失、MSE損失などを当該損失関数として選択することができる。
ステップS3.4において、サンプルにおける2つの画像ブロックの色情報特徴を交換し、さらに生成器Gを用いることにより、Xドメインの画像ブロックu及びYドメインの画像ブロックvを含む新たな変換画像ブロックを生成し、以下の式であり、
u=G(E(y),E(x))=G(hs,y,hc,x),v=G(E(x),E(y))=G(hs,x,hc,y
ここで、G(・)は、生成器Gの出力を表す。
ステップS3.5において、ドメイン判別器Dは、Xドメイン及びYドメインにおける実画像ブロック(画像ブロックx及び画像ブロックy)と、生成された変換画像ブロック(画像ブロックu及び画像ブロックv)とを区別するものであり、生成器Gは、ドメイン判別器Dを「騙す」ように、実画像ブロックをできるだけ生成するものである。ドメイン敵対的損失Ladv,domainを算出することは、BCE損失、MSE損失などを当該損失関数として選択することができる。
ステップS3.6において、画像ブロックu及び画像ブロックvを組織構造エンコーダE及び色エンコーダEにそれぞれ送信して特徴分離を行い、対応する組織構造情報特徴hs,u、hs,v及び色情報特徴hc,u、hc,vを得る。同様に、組織構造エンコーダEは、画像を共有の組織構造ドメインSにマッピングし、色エンコーダは、画像を異なる色ドメインにマッピングし、以下の式であり、
s,u=E(u),hc,u=E(u),hs,v=E(v),hc,v=E(v)
画像ブロックu及び画像ブロックvの組織構造情報特徴hs,u、hs,vは、それぞれ画像ブロックy及び画像ブロックxが2回の組織構造エンコーダE及び1回の生成器Gを介することで得られ、画像ブロックu及び画像ブロックvの色情報特徴hc,u、hc,vは、それぞれ画像ブロックx及び画像ブロックyが2回の色エンコーダE及び1回の生成器Gを介することで得られる。理論上、hc,u、hc,vは、それぞれhc,x及びhc,yと同じであるべきであり、hs,u、hs,vは、それぞれhs,y及びhs,xと同じであるべきである。この仮定に基づき、hc,u、hc,v及びhc,x、hc,yにより潜在空間の色情報整合性損失(consistency loss)Llatent,cを算出することができ、hs,u、hs,v及びhs,y、hs,xにより潜在空間の組織構造情報整合性損失Llatent,cを算出することができ、BCE損失を潜在空間の色情報整合性損失関数及び組織構造情報整合性損失関数として選択することができる。
ステップS3.7において、2つの変換画像ブロックの色情報特徴を交換し、生成器Gを用いて新たなXドメインの画像ブロックxcc及びYドメインの画像ブロックyccを生成し、以下の式であり、
cc=G(hs,v,hc,u),ycc=G(hs,u,hc,v
2つのI2I変換後に生成された画像ブロックxcc及びyccは、元の画像ブロックx及びyと同じであるべきであり、この制約を強制実行するために、循環整合性損失Lccを構築し、例示的に、以下のように表され、
cc(E,E,G)=Ex,y[||G(E(v),E(u))-x||+||G(E(u),E(v))-y||
ここで、||・||は、L1ノルムの算出を表す。
以上をまとめると、総損失関数Ltotalを算出し、具体的には、以下の式であり、
total=-λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
ここで、λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表し、例示的に、λadv,s=1、λadv,domain=1、λrecon=10、λlatent,s=10、λlatent,c=10、λcc=10と設定することができる。
確率的勾配降下アルゴリズムを用いて、総損失関数を最小化することを目標としてネットワークパラメータを最適化し、学習率(例えば、0.0001)を設定し、Adamを最適化器として用いて、連続するn回(例えば、30回)の反復の損失が減少しなくなった時点で訓練を停止し、訓練済みの特徴分解ネットワークを得、訓練済みの組織構造エンコーダは、即ち病理画像特徴抽出器である。
訓練済みの病理画像特徴抽出器は、染色剤の配合比、組織固定時間、スキャナなどの人為的要因による色差異情報を除去し、画像中のより深い階層の細胞と細胞間構造、形態学的特徴などの診断に関連する不純物のない組織構造情報のみを保持し、十分に学習することができ、
前述特徴分離に基づく病理画像特徴抽出器の訓練方法の実施例に対応して、本発明は、さらに、特徴分離に基づく病理画像特徴抽出器の訓練装置の実施例を提供する。
図2に示すように、本発明の実施例にて提供される特徴分離に基づく病理画像特徴抽出器の訓練装置は、
訓練データセットを構築するためのデータ取得モジュールであって、前記訓練データセットの各サンプルが病理画像の分割に基づいて取得された2つの画像ブロックを含む取得モジュールと、
特徴抽出器の訓練のための特徴分離ネットワークを構築するための特徴分離ネットワーク構築モジュールであって、前記特徴分離ネットワークは、
入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
入力された組織構造情報特徴及び色情報特徴を画像ブロックに再生成するための生成器Gと、
実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含む特徴分離ネットワーク構築モジュールと、
訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とするための訓練モジュールであって、前記損失関数Ltotalは、以下のように表され、
total=λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
ここで、Ladv,sは、元のサンプルの2つの画像ブロックx及びyが属するドメインと組織構造判別器Dにより判別されたドメインとの間の損失を含む、組織構造の敵対的損失を表し、
adv,domainは、元のサンプルの2つの画像ブロックx及びyに対応するXドメインのドメイン敵対的損失及びYドメインのドメイン敵対的損失を含む、ドメイン敵対的損失を表し、
reconは、各元のサンプルの2つの画像ブロックの自己再構築損失を表し、
latent,sは、変換画像ブロックと対応する元のサンプルの画像ブロックの組織構造情報特徴の組織構造情報整合性損失を表し、Llatent,cは、変換画像ブロックと対応する元のサンプルの画像ブロックの色情報特徴の色情報整合性損失を表し、
前記変換画像ブロックは、サンプルにおける2つの画像ブロックの色情報特徴を交換した後、生成器Gに基づいて再生成されたものであり、
ccは、変換画像ブロックが組織構造エンコーダE、色エンコーダEによりエンコードされ、生成器Gにより再生成された画像ブロックと元のサンプルの画像ブロックとの循環整合性損失を表し、
λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表す、訓練モジュールと、を含む。
装置の実施例については、基本的に方法の実施例に対応するので、関連する内容は、方法の実施例の一部の説明を参照すればよい。上述の装置の実施例は、単に例示的なものであり、前記別個部材として説明されたユニットは、物理的に分離されてもよく、又は物理的に分離されなくてもよく、ユニットとして表示された部材は、物理的なユニットであってもよく、又は物理的なユニットでなくてもよく、即ち、1つの箇所に位置してもよく、又は複数のネットワークユニットに分散されてもよい。本発明の手段の目的を達成するために、実際の要求に応じて、その一部又は全部のモジュールを選択して実現することができる。当業者であれば創造的な労力を費やさずに、理解して実施することができる。
実施例は、メモリと、プロセッサと、メモリに記憶され、プロセッサで実行可能なコンピュータプログラムとを含む電子機器をさらに提供し、前記プロセッサは、前記コンピュータプログラムを実行する時、上述したような特徴分離に基づく病理画像特徴抽出器の訓練方法を実施する。図3に示すように、本発明の電子機器のハードウェア構造図であり、図3に示すプロセッサ、メモリ、ネットワークインタフェース、及び不揮発性メモリに加えて、実施例において、電子機器は、通常、当該データ処理能力を備える任意の機器の実際の機能に応じて、他のハードウェアをさらに含んでもよく、これについて繰り返して説明しない。
上記電子機器における各ユニットの機能及び作用の実現過程は、具体的に、上記方法における対応するステップの実現過程を詳しく参照し、ここでは繰り返して説明しない。
本発明の実施例は、プロセッサにより実行される時、上記実施例における特徴分離に基づく病理画像特徴抽出器の訓練方法が実施されるプログラムを記憶したコンピュータ可読記憶媒体をさらに提供する。
前記コンピュータ可読記憶媒体は、ハードディスク又はメモリなど、前述いずれかの実施例に記載のデータ処理能力を備える任意の機器の内部記憶ユニットであってもよい。前記コンピュータ可読記憶媒体は、データ処理能力を備える任意の機器、例えば、前記機器に備えられたプラグインハードディスク、スマートメモリカード(Smart Media(登録商標) Card、SMC)、SDカード、フラッシュメモリカード(Flash Card)などであってもよい。さらに、前記コンピュータ可読記憶媒体は、データ処理能力を有する任意の機器の内部記憶ユニットと外部記憶機器の両方を含んでもよい。前記コンピュータ可読記憶媒体は、前記コンピュータプログラム及び前記データ処理能力を備える任意の機器に必要な他のプログラムとデータを記憶するために用いられ、また既に出力され又は出力しようとするデータを一時的に記憶するために用いられる。
さらに、訓練済みの特徴抽出器により抽出された組織構造情報特徴に基づき、より強い汎化性能を有する病理画像分類システムを得ることができ、本実施例にて提供される病理画像分類システムは、図4に示すように、
分類すべき病理画像を複数の画像ブロックに分割するためのデータ前処理ユニットと、
前述の実施例に記載の特徴分離に基づく病理画像特徴抽出器の訓練方法により訓練して得られた特徴抽出器であって、各画像ブロックに対して組織構造情報特徴を抽出するための特徴抽出器と、
特徴抽出器により抽出された各画像ブロックの組織構造情報特徴に基づいて分類を行い、分類すべき病理画像の分類結果を得るための分類ユニットと、を含む。
例示的に、以下、肺癌サブタイプ診断(肺腺癌、肺扁平上皮癌の診断)を目的とする全病理画像分類と病巣検出を例にとって、具体的な実施方法と組み合わせて、本発明の病理画像分類システムの構築及び応用をさらに詳細に説明するが、ここで、分類ユニットは、マルチインスタンス分類ネットワークを採用し、取得された訓練データセットに基づいて訓練して得られる。具体的には、本発明の病理画像分類システムの構築は、主にマルチインスタンス分類ネットワークの訓練であり、以下のステップを含む。
ステップS1において、肺癌の全スライド病理画像データセットを構築し、オープンソースデータセットTCGA(The Cancer Genome Atlas)及びTCIA(The Cancer Immunome Atlas)から、肺腺癌1524枚及び肺扁平上皮癌1476枚の合計3000枚の肺癌の全スライド病理画像を、2つの分類のデータ量分布を均一に保つように収集する。画像に対してラベル付けし、肺腺癌のWSIを0と、肺扁平上皮癌のWSIを1とラベル付けし、全てのデータは、いかなるピクセル、パッチ、又はROIレベルのラベルを含まない。
ステップS2において、全ての全スライド病理画像に対して前処理を行い、病理組織領域を抽出し、スライディングウィンドウを用いて病理組織領域を256×256のサイズの小さな画像ブロックに分割し、各小さな画像ブロックが属する病理画像番号を記録し、各小さな画像ブロックの座標を保存することを含む。
ステップS3において、訓練済みの特徴分離ネットワークにおける組織構造エンコーダEを小さな画像ブロックの特徴抽出器として、全ての小さな画像ブロックの組織構造情報特徴hs,k,k=1,…,Kを抽出し、Kは、1つの全スライド病理画像を分割して得られた小さな画像ブロックの数を表す。
ステップS4において、ゲーテッド注意(gated attention)モジュール、集合層、及び分類層を含むゲーテッド注意に基づくマルチインスタンス分類ネットワークを訓練し、具体的には、
ステップS4.1において、全ての小さな画像ブロックの組織構造情報特徴hs,kをゲーテッド注意モジュールに送信し、各小さな画像ブロックの注意スコアaを得、
ここで、Wa,1,…,Wa,4、Paは、全結合層の調整可能なパラメータであり、σ(・)は、sigmoid活性化関数を表し、tanh(・)は、双曲線正接活性化関数であり、
は、要素ごとに2つの行列を乗算することを表す。
ステップS4.2において、組織構造情報特徴hs,kを集合層(Aggregation Layer)に入力し、注意スコアを対応する重みとして、全ての組織構造情報特徴hs,kの加重和を算出し、slideレベルの特徴gslideを集合して生成し、
ステップS4.3において、slideレベルの特徴gslideを分類層に送信し、予測分類結果probを得、分類層から出力された予測分類結果と実ラベルとの2値化クロスエントロピー損失関数は、以下のとおりであり、
L=-flog(prob)-(1-f)log(1-prob)
ここで、f∈{0,1}は、病理画像の実ラベルを表し、本実施例では、0が肺腺癌、1が肺扁平上皮癌を表す。
ステップS4.4において、確率的勾配降下アルゴリズムを用いて勾配の逆伝播を行い、損失関数を最小化にすることを目標としてネットワークパラメータを最適化し、本実施例では、Adam最適化器を用い、初期学習率を0.0001に設定するとともに、早期停止法(early stopping)を用いてパラメータを適時に更新及び保存し、十分割交差検証(10-fold cross validation)を用いて最適モデルを決定し、訓練済みのマルチインスタンス分類ネットワークを得る。
本発明の病理画像分類システムによる病理画像分類のフローは、図5に示すように、具体的には、以下のステップを含み、
ステップS1において、患者の肺の全スライド病理画像を取得し、
ステップS2において、データ前処理ユニットを用いて、訓練する時に各全スライド病理画像に対して前処理を行う方法で前処理を行い、K枚の小さな画像ブロックを得、
ステップS3において、訓練済みの特徴抽出器を用いて、全ての小さな画像ブロックの組織構造情報特徴hs,kを抽出し、
ステップS4において、訓練済みのマルチインスタンス分類ネットワークに入力して分類結果を得る。
明らかに、本発明の上記実施例は、本発明を明確に説明するための例示に過ぎず、本発明の実施形態を限定するものではない。当業者であれば、上記説明に基づいて他の異なる形態の変化又は変更を行うことができる。本明細書では全ての実施形態を網羅する必要がなく、また全ての実施形態を網羅することができない。本発明の精神と原則内で行われたいかなる修正、均等置換及び改良などは、いずれも本発明の特許請求の保護範囲内に含まれるべきである。本願の要求の保護範囲は、その特許請求の内容に準じるべきであり、説明書における具体的な実施形態などの記載は、特許請求の内容を解釈するために用いられる。このようにして導出された明らかな変化又は変更は、依然として本発明の保護範囲にある。

Claims (8)

  1. 訓練データセットを構築するステップであって、前記訓練データセットの各サンプルが病理画像の分割に基づいて取得された2つの画像ブロックを含むステップと、
    特徴抽出器の訓練のための特徴分離ネットワークを構築するステップであって、前記特徴分離ネットワークは、
    入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
    入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
    入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
    入力された組織構造情報特徴及び色情報特徴を画像ブロックに新たに生成するための生成器Gと、
    実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含むステップと、
    訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とするステップであって、前記損失関数Ltotalは、以下のように表され、
    total=-λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
    ここで、Ladv,sは組織構造の敵対的損失を表し、組織構造エンコーダEと組織構造判別器Dの敵対的損失を含み、
    adv,domainは、元のサンプルの2つの画像ブロックx及びyに対応するXドメインのドメイン敵対的損失及びYドメインのドメイン敵対的損失を含む、ドメイン敵対的損失を表し、
    reconは、各元のサンプルの2つの画像ブロックの自己再構築損失を表し、
    latent,sは、変換画像ブロックと対応する元のサンプルの画像ブロックの組織構造情報特徴の組織構造情報整合性損失を表し、
    latent,cは、変換画像ブロックと対応する元のサンプルの画像ブロックの色情報特徴の色情報整合性損失を表し、
    前記変換画像ブロックは、サンプルにおける2つの画像ブロックの色情報特徴を交換した後、生成器Gに基づいて再生成されたものであり、
    ccは、変換画像ブロックが組織構造エンコーダE、色エンコーダEによりエンコードされ、生成器Gにより再生成された画像ブロックと元のサンプルの画像ブロックの循環整合性損失を表し、
    λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表す、ステップと、を含む、
    ことを特徴とする特徴分離に基づく病理画像特徴抽出器の訓練方法。
  2. 前記組織構造の敵対的損失は、以下のように表され、
    adv,s(E,D)=Ex[1/2log D(E(x))+1/2log(1-D(E(x)))]+E[1/2log D(E(y))+1/2log(1-D(E(y)))]
    ここで、E(・)は、組織構造エンコーダEの出力を表し、D(・)は、組織構造判別器Dの出力を表し、x及びyは、各サンプルの2つの画像ブロックを表し、E[・]は、数学的期待である、
    ことを特徴とする請求項1に記載の方法。
  3. 自己再構築損失Lrecon、ドメイン敵対的損失Ladv,domain、色情報整合性損失Llatent,c及び組織構造情報整合性損失Llatent,sは、BCE損失関数又はMSE損失関数を採用する、
    ことを特徴とする請求項1に記載の方法。
  4. 前記循環整合性損失Lccは、以下のように表され、
    cc(E,E,G)=Ex,y[||G(E(v),E(u))-x||+||G(E(u),E(v))-y||
    ここで、E(・)は、組織構造エンコーダEの出力を表し、x及びyは、各サンプルの2つの画像ブロックを表し、E[・]は、数学的期待であり、||・||は、L1ノルムの算出を表し、G(・)は、生成器Gの出力を表し、E(・)は、色エンコーダEの出力を表し、u及びvは、変換画像ブロックを表し、以下の式、
    u=G(E(y),E(x)),v=G(E(x),E(y))、で表される、
    ことを特徴とする請求項1に記載の方法。
  5. 訓練データセットを構築するためのデータ取得モジュールであって、前記訓練データセットの各サンプルが病理画像の分割に基づいて取得された2つの画像ブロックを含む取得モジュールと、
    特徴抽出器の訓練のための特徴分離ネットワークを構築するための特徴分離ネットワーク構築モジュールであって、前記特徴分離ネットワークは、
    入力された画像ブロックをエンコードして組織構造情報特徴を得るための組織構造エンコーダEと、
    入力された画像ブロックをエンコードして色情報特徴を得るための色エンコーダEと、
    入力された組織構造情報特徴が同一のドメインにあるか否かを判別するための組織構造判別器Dと、
    入力された組織構造情報特徴及び色情報特徴を画像ブロックに再生成するための生成器Gと、
    実画像ブロックと生成された画像ブロックが同一のドメインにあるか否かを区別するためのドメイン判別器Dと、を含む特徴分離ネットワーク構築モジュールと、
    訓練データセットに基づき、各サンプルを特徴分離ネットワークの入力として、損失関数を最小化することを目標として訓練して特徴分離ネットワークのパラメータを最適化し、訓練済みの組織構造エンコーダを、病理画像特徴抽出器とするための訓練モジュールであって、前記損失関数Ltotalは、以下のように表され、
    total=-λadv,sadv,s-λadv,domainadv,domain+λreconrecon+λlatent,slatent,s+λlatent,clatent,c+λcccc
    ここで、Ladv,sは、元のサンプルの2つの画像ブロックx及びyが属するドメインと組織構造判別器Dにより判別されたドメインとの間の損失を含む、組織構造の敵対的損失を表し、
    adv,domainは、元のサンプルの2つの画像ブロックx及びyに対応するXドメインのドメイン敵対的損失及びYドメインのドメイン敵対的損失を含む、ドメイン敵対的損失を表し、
    reconは、各元のサンプルの2つの画像ブロックの自己再構築損失を表し、
    latent,sは、変換画像ブロックと対応する元のサンプルの画像ブロックの組織構造情報特徴の組織構造情報整合性損失を表し、Llatent,cは、変換画像ブロックと対応する元のサンプルの画像ブロックの色情報特徴の色情報整合性損失を表し、
    前記変換画像ブロックは、サンプルにおける2つの画像ブロックの色情報特徴を交換した後、生成器Gに基づいて再生成されたものであり、
    ccは、変換画像ブロックが組織構造エンコーダE、色エンコーダEによりエンコードされ、生成器Gにより再生成された画像ブロックと元のサンプルの画像ブロックの循環整合性損失を表し、
    λadv,s、λadv,domain、λrecon、λlatent,s、λlatent,c及びλccは、それぞれ対応する損失の重みを表す、訓練モジュールと、を含む、
    ことを特徴とする特徴分離に基づく病理画像特徴抽出器の訓練装置。
  6. メモリと、プロセッサと、メモリに記憶され、プロセッサで実行可能なコンピュータプログラムとを含む電子機器であって、前記プロセッサは、前記コンピュータプログラムを実行する時、請求項1~4のいずれか1項に記載の特徴分離に基づく病理画像特徴抽出器の訓練方法を実施する、
    ことを特徴とする電子機器。
  7. コンピュータ実行可能命令を含む記憶媒体であって、前記コンピュータ実行可能命令は、コンピュータプロセッサにより実行される時、請求項1~4のいずれか1項に記載の特徴分離に基づく病理画像特徴抽出器の訓練方法が実施される、
    ことを特徴とするコンピュータ実行可能命令を含む記憶媒体。
  8. 分類すべき病理画像を複数の画像ブロックに分割するためのデータ前処理ユニットと、
    請求項1~4のいずれか1項に記載の特徴分離に基づく病理画像特徴抽出器の訓練方法により訓練して得られた特徴抽出器であって、各画像ブロックに対して組織構造情報特徴を抽出するための特徴抽出器と、
    特徴抽出器により抽出された各画像ブロックの組織構造情報特徴に基づいて分類を行い、分類すべき病理画像の分類結果を得るための分類ユニットと、を含む、
    ことを特徴とする病理画像分類システム。
JP2023006834A 2022-09-19 2023-01-19 特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システム Active JP7244974B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202211138097.3A CN115222752B (zh) 2022-09-19 2022-09-19 基于特征解耦的病理图像特征提取器训练方法及装置
CN202211138097.3 2022-09-19

Publications (2)

Publication Number Publication Date
JP7244974B1 JP7244974B1 (ja) 2023-03-23
JP2024043567A true JP2024043567A (ja) 2024-04-01

Family

ID=83617646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023006834A Active JP7244974B1 (ja) 2022-09-19 2023-01-19 特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システム

Country Status (2)

Country Link
JP (1) JP7244974B1 (ja)
CN (1) CN115222752B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116741347B (zh) * 2023-05-12 2024-06-04 中山大学附属第一医院 一种病理图像patches提取与深度学习建模方法
CN116386856B (zh) 2023-06-05 2023-10-20 之江实验室 基于医生决策模式识别的多标签疾病辅助诊断系统
CN116883397B (zh) * 2023-09-06 2023-12-08 佳木斯大学 一种应用于解剖病理学的自动精益方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186052A1 (ja) * 2017-04-07 2018-10-11 株式会社日立ハイテクノロジーズ 画像診断支援装置及び画像診断支援システム、並びに画像診断支援方法
WO2022168412A1 (ja) * 2021-02-05 2022-08-11 株式会社日立製作所 画像処理装置、画像処理方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415184B (zh) * 2019-06-28 2022-12-20 南开大学 一种基于正交元空间的多模态图像增强方法
JP7344149B2 (ja) * 2020-02-07 2023-09-13 キオクシア株式会社 最適化装置及び最適化方法
CN111476294B (zh) * 2020-04-07 2022-03-22 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
US20220084204A1 (en) * 2020-09-11 2022-03-17 Nvidia Corporation Labeling images using a neural network
CN112863529B (zh) * 2020-12-31 2023-09-22 平安科技(深圳)有限公司 基于对抗学习的说话人语音转换方法及相关设备
CN113449786A (zh) * 2021-06-22 2021-09-28 华东师范大学 基于风格迁移的强化学习对抗防御方法
CN113361489B (zh) * 2021-07-09 2022-09-16 重庆理工大学 基于解耦表示的人脸正面化模型构建方法和训练方法
CN114299324B (zh) * 2021-12-01 2024-03-29 万达信息股份有限公司 一种基于多尺度域对抗网络的病理图像分类方法及系统
CN114638767B (zh) * 2022-05-18 2022-08-16 山东师范大学 基于生成对抗网络的腹腔镜影像除烟方法
CN114898159B (zh) * 2022-06-01 2024-03-08 西北工业大学 基于解耦表征生成对抗网络的sar图像可解释性特征提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186052A1 (ja) * 2017-04-07 2018-10-11 株式会社日立ハイテクノロジーズ 画像診断支援装置及び画像診断支援システム、並びに画像診断支援方法
WO2022168412A1 (ja) * 2021-02-05 2022-08-11 株式会社日立製作所 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN115222752B (zh) 2023-01-24
CN115222752A (zh) 2022-10-21
JP7244974B1 (ja) 2023-03-23

Similar Documents

Publication Publication Date Title
Mei et al. SANet: A slice-aware network for pulmonary nodule detection
Duran-Lopez et al. PROMETEO: A CNN-based computer-aided diagnosis system for WSI prostate cancer detection
Yu et al. A systematic survey of deep learning in breast cancer
JP2024043567A (ja) 特徴分離に基づく病理画像特徴抽出器の訓練方法、訓練装置、電子機器、記憶媒体及び病理画像分類システム
CN113724880A (zh) 一种异常脑连接预测系统、方法、装置及可读存储介质
CN112801168B (zh) 一种肿瘤影像的病灶区域预测分析方法、系统及终端设备
Wang et al. Information bottleneck-based interpretable multitask network for breast cancer classification and segmentation
CN111882538A (zh) 一种区分肺结核与肿瘤信息的处理系统及信息处理方法
CN115497623A (zh) 一种基于影像、病理和基因多组学的肺癌预后预测系统
Zhang et al. RFI-GAN: A reference-guided fuzzy integral network for ultrasound image augmentation
Elayaraja et al. An efficient approach for detection and classification of cancer regions in cervical images using optimization based CNN classification approach
Shi et al. Automatic detection of pulmonary nodules in CT images based on 3D Res-I network
CN115564756A (zh) 医学图像病灶定位显示方法与系统
Tyagi et al. An amalgamation of vision transformer with convolutional neural network for automatic lung tumor segmentation
Xu et al. A High‐Precision Classification Method of Mammary Cancer Based on Improved DenseNet Driven by an Attention Mechanism
Tang et al. NSCGCN: A novel deep GCN model to diagnosis COVID-19
Kumari et al. Data efficient deep learning for medical image analysis: A survey
Gengtian et al. EfficientNet-Based Deep Learning Approach for Breast Cancer Detection With Mammography Images
Balannolla et al. Detection and Classification of Lung Carcinoma using CT scans
Xu et al. Lung segmentation in chest X‐ray image using multi‐interaction feature fusion network
Sakli et al. Deep Learning Methods for Brain Tumor Segmentation
Ravi et al. MDNN: Predictive Modeling of Breast Cancer Subtypes Using Modified Deep Neural Networks
Shen et al. Classification of Benign-Malignant Pulmonary Nodules Based on Multi-view Improved Dense Network
Shui et al. A three-path network with multi-scale selective feature fusion, edge-inspiring and edge-guiding for liver tumor segmentation
Shijitha et al. Efficient Morphological Segmentation of Brain Hemorrhage Stroke Lesion Through MultiResUNet.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7244974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150