JP2024039598A - 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム - Google Patents

連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム Download PDF

Info

Publication number
JP2024039598A
JP2024039598A JP2023095887A JP2023095887A JP2024039598A JP 2024039598 A JP2024039598 A JP 2024039598A JP 2023095887 A JP2023095887 A JP 2023095887A JP 2023095887 A JP2023095887 A JP 2023095887A JP 2024039598 A JP2024039598 A JP 2024039598A
Authority
JP
Japan
Prior art keywords
data
model
training data
parameters
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023095887A
Other languages
English (en)
Other versions
JP7386370B1 (ja
Inventor
▲勁▼松 李
Jingsong Li
▲艶▼霞 ▲趙▼
Yanxia Zhao
佩君 胡
Peijun Hu
超 黄
Chao Huang
雨 田
Yu Tian
天舒 周
Tianshu Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Application granted granted Critical
Publication of JP7386370B1 publication Critical patent/JP7386370B1/ja
Publication of JP2024039598A publication Critical patent/JP2024039598A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】単一のラベルタイプの制限を打破し、連合学習に基づくマルチタスクハイブリッドモデルアーキテクチャを提案し、各関与者のデータサイロを打破し、多機関データの潜在能力と深層価値を十分にマイニングするだけでなく、タスク間の関係を十分に利用してさらに効果的な文脈特徴をマイニングし、異なる階層特徴間の情報の相補性を実現し、さらにモデルの精度及びロバスト性を向上させる。【解決手段】連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムは、各種の弱教師ありデータ、完全教師ありデータ及びラベルなしデータに基づくデータ収集モジュールと、連合学習に基づく第1段階でのマルチタスクネットワークモデルモジュールと、第2段階に基づく疑似ラベル生成モジュールと、第2段階に基づく動的サンプル選択モジュールと、異なる段階に基づく連合モデル動的更新モジュールとを含む。【選択図】図1

Description

本発明は画像分割の技術分野に関し、特に連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムに関する。
医用画像分割はコンピュータ支援診断の画像内容分析をサポートする代表的なタスクであり、病変カテゴリを認識できるだけでなく、特定の領域を位置特定でき、臨床診断において重要な役割を果たす。コンピュータのハードウェア性能の向上に伴って、深層学習に基づく画像分割技術は医用画像を処理する有力なツールになる。医用画像分割用の深層学習モデルの最適化は通常、様々なソースからの大量の注釈付きのピクセルレベルの訓練データに依存する。しかし、ピクセルレベルの注釈コストが非常に高く、医用画像のラベル付けには非常に高度な専門知識が必要であるため、各医療機関のピクセルレベルのラベル付き画像は非常に限られており、且つ利用可能な画像のほとんどはラベルなし又は弱ラベル付きのものである。一方、医療機関間の敏感な患者情報の厳密な共有契約によってデータの共有が非常に困難であるため、膨大なピクセルレベルの症例注釈データを収集することは非常に困難な作業であることが多く、これらの規模が小さく、データ分布が不均衡で、情報含有量が少ないピクセルレベルデータを利用するだけではロバスト性及び汎化能力が満足できるモデルを訓練するのに十分ではない。連合学習(FL)は分散型学習フレームワークとして、複数の顧客が生データを共有することなくすべての利用可能なデータを十分に利用して機関間の協力を行うことを目的とし、データのプライバシーのセキュリティを確保した上で、ユーザが共同モデリングを実現することを支援し、それによってモデルの性能を向上させることができ、この技術の応用は医療分野でますます重要な役割を果たしている。
公開番号CN113571203Aの特許文献には、連合学習に基づくマルチセンターの脳腫瘍生命予後の予測方法及びシステムが開示されており、前記方法は、C-Sアーキテクチャに基づいてマルチセンターの連合学習モデルを構築し、各センターに分散的に記憶された患者の電子カルテ情報とラジオミクス特徴及び深層学習特徴を組み合わせて全面的な脳腫瘍生命予後分類モデルを確立し、該脳腫瘍生命予後の予測方法及びシステムが提案したアクティブ学習は、連合学習において訓練サンプルが自動的にラベル付けされた各ローカル機器上で利用可能なラベルなしデータを利用したグローバルモデルの構築を検討したが、該技術は画像レベルのカテゴリラベル及びバウンディングボックスラベルなどの弱ラベル付き画像を使用していない。多くの場合、これらの弱ラベル付き画像はラベル無し画像よりも利用価値が高く、ピクセルレベルのラベルと比べて、弱ラベルは広く利用可能であり、取得コストが低い。
現在、従来技術には以下の欠陥が存在する。
臨床実践において、異なる機関はデータの品質、数量及び教師の可用性に大きな違いが存在する可能性がある。これらのデータを不適切に使用すると、異なるクライアント間の医用画像分割性能が大幅に低下する可能性がある。標準的なFLモデルの訓練過程で、各ローカルクライアントは、先ずサーバから連合モデルをダウンロードし、ローカルでモデルを更新し、次に、各クライアントがローカルで訓練したモデルパラメータをサーバに返送し、最後に、すべてのクライアントのモデルパラメータを集約してグローバル連合モデルを更新する。既存のFLフレームワークのほとんどは、各ローカルクライアントが訓練に用いるデータが同じレベルのラベルに従う必要があることを要求するため、モデルの学習能力が大幅に制限されている。
いくつかの半教師あり連合学習方法は、訓練中にピクセルレベルのラベル付き画像を除いたラベルなしデータを利用しようとするが、教師ありの可用性の変化を考慮しておらず、すなわち異なるクライアントは異なるレベルの画像ラベルを有する。異なるラベル強度レベルを有するこれらの弱ラベル付きデータ及びラベルなしデータからの情報を効果的に利用し、特にピクセルレベルのラベル付きデータがないクライアントについては、連合モデルのロバスト性を向上させることに非常に有利であるとともに、訓練の不安定性を防止する。
このため、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムが提案されている。
本発明は上記技術的課題を解決するために、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムを提案する。
本発明が採用する技術的解決手段は以下のとおりである。
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法は、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するステップS1であって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるステップS1と、
第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するステップS2と、
第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するステップS3と、
第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するステップS4と、
第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うステップS5と、を含む。
さらに、前記ステップS2は具体的には、
CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築するサブステップS21と、
中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得するサブステップS22と、
各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得するサブステップS23と、
中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得するサブステップS24と、
各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合ステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得するサブステップS25と、を含む。
さらに、前記サブステップS24では、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練することと、に分けられる。
さらに、前記ステップS3は具体的には、
各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得するサブステップS31と、
中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行うサブステップS32と、を含む。
さらに、前記サブステップS32では、各クライアントがローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行うことと、
クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行うことと、に分けられる。
さらに、前記ステップS4は具体的には、動的サンプル選択方法を採用し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択することである。
さらに、前記ステップS5は具体的には、
毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信するサブステップS51と、
各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了するサブステップS52と、
各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信するサブステップS53と、
中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了するサブステップS54と、を含む。
さらに、前記ステップS2の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では局所訓練モデルパラメータをまとめる方式は、
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式であって、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集める方式と、
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式であって、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集める方式と、
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式であって、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める方式と、を含む。
さらに、前記ステップS3の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では局所訓練モデルパラメータをまとめる方式は、
第2段階でグローバル連合モデルを集約する過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整する方式を含む。
本発明は連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムをさらに提供し、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
本発明は以下の有益な効果を有する。
1、本発明は連合学習に基づくマルチタスクネットワークモデルを構築し、検出タスクが医用画像分割タスクを支援することによって各関与者のデータと組み合わせて協調モデリングを行い、患者のプライバシーを確保した上で、各関与者のデータサイロを打破し、多機関データの潜在能力と深層価値を十分にマイニングし、各協力者が他の関与者の異なるラベル付け形式のデータセットの空間分布及びモデル特徴表現能力から利益を取得することができるだけでなく、タスク間の関係及び効果的な文脈特徴を十分にマイニングし、さらなる有用な情報を取得し、異なる階層の特徴間の情報の相補性を実現し、さらにモデルの精度を向上させる。
2、本発明は各クライアントの利用可能な各種の弱教師ありデータ、完全教師あり及びラベルなしデータを利用してグローバルネットワークモデルを構築し、疑似ラベル修正及び動的サンプル選択の訓練ポリシーによって、モデルに対してより価値のあるサンプルを選択し、多くの弱ラベルデータを十分に利用してモデルの性能及び汎化能力を向上させる。
3、本発明は連合グローバルモデルを動的に更新するポリシーによって、各クライアントのデータ分布及びモデルの現在の訓練スケジュールに基づいて集約重みを動的に調整することができるデータ駆動方法を設計し、各クライアントの教師の可用性を十分に考慮し、各クライアントがマルチタスクハイブリッド連合最適化期間の重要性を客観的に評価し、連合グローバルモデルが過適合されたクライアントに依存することを防止し、モデルを実際のタスクに近づける。
図1は本発明の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの機能フローチャートである。 図2は本発明のマルチタスクネットワークモデルの構造模式図である。 図3は本発明の訓練ポリシーを示す図である。 図4は本発明のグローバル連合モデル更新ポリシーを示す図である。 図5は本発明の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの構造模式図である。
以下、少なくとも1つの例示的な実施例についての説明は、実際には単なる例示であり、本発明及びその応用又は使用を何ら制限するものではない。本発明の実施例に基づき、当業者が創造的な労働を必要とせずに取得したすべての他の実施例は、いずれも本発明の保護範囲に属する。
用語の解釈について
Ground Truth:ラベル付きデータ。
neck:中国語訳文は頸部であり、マルチタスク医用画像分割ネットワークアーキテクチャにおける上を受けて下を起こす重要な一環であり、主にバックボーンネットワークbackboneによって抽出された特徴を融合し、ネットワークによって学習された特徴をより多様化し、それによりネットワークの性能を向上させる。
Kaiming初期化:何恺明によって提案された初期化方法である。業界ではHe初期化又はKaiming初期化と呼ばれる。平均値が0、分散が2⁄Nのガウス分布が採用され、Nは入力ニューロンの数である。
Xavier初期化:
Figure 2024039598000002

Figure 2024039598000003
の均一分布が採用され、Ninは入力ニューロンの数であり、Noutは出力ニューロンの数である。
本願が提案した連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの機能フローチャートは、図1に示される。該プロセスは2つの段階に分けられ、第1段階ではバウンディングボックスのラベル付き訓練データ及びピクセルレベルのラベル付き訓練データを利用して連合学習に基づくマルチタスクネットワークの予備訓練を行い、複数のタスク共有情報によってバックボーンネットワークの性能を向上させ、第2段階では、ピクセルレベルのラベルがない場合に、先ず段階1の予備訓練により得られた2つの異なるグローバルネットワークモデルに基づき、ラベル無し画像及び弱ラベル付き画像に含まれる有用な情報(すなわち画像レベルのラベル付き訓練データ及びバウンディングボックスのラベル付き訓練データ)を効果的に利用し、反復疑似ラベル生成器によって疑似ラベルを生成し、次にラベルの修正操作を行い、弱ラベル付きデータから取得された情報に基づき、高品質の疑似ラベルで訓練し、クライアント間の自己適応重み割り当てプログラムで医用画像分割グローバルモデルのパラメータ更新を行う。
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法は、以下のステップを含む。
ステップS1では、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集し、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データを対応する医療機関のソースデータセットとして用いる。
[D,…,D]がN個のクライアントのソースデータセットを表すと仮定する。クライアントiが与えられ、
Figure 2024039598000004

Figure 2024039598000005

Figure 2024039598000006
及び
Figure 2024039598000007
はそれぞれクライアントiからのピクセルレベルのラベル付き訓練データ、ラベルなし訓練データ、画像レベルのラベル付き訓練データ及びバウンディングボックスのラベル付き訓練データを表す。Xは訓練画像セットを表し、Ygtはピクセルレベルの利用可能なラベルを表し、Yimgは画像レベルの利用可能なラベルを表し、Ybboxはバウンディングボックスレベルの利用可能なラベルを表す。
ステップS2では、第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得する。
ステップS21では、CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築する。
図2に示されるマルチタスクネットワークモデルを構築し、前記マルチタスクネットワークモデルは、バックボーンネットワーク部分、neck部分、境界検出タスクブランチ部分及びグローバルマスク分割タスクブランチ部分の4つの主要な部分を含む。バックボーンネットワークはN個のクライアントのソースデータセットの特徴を抽出することに用いられ、ここでCSP-ResNeXt構造をバックボーンとして選択し、最適化過程の勾配冗長性の問題を効果的に解決する。neckは空間特徴ピラミッド畳み込みモジュールASPPと符号化情報を融合した特徴ピラミッドFPNとで構成される。ASPPは異なるスケールの特徴を生成して融合し、FPNは異なるセマンティクスレベルの特徴を融合し、それにより生成された特徴にはマルチスケール及び複数のセマンティクスレベルの特徴が含まれる。境界検出タスクブランチ部分については、アンカーボックスanchorに基づくマルチスケール検出ポリシーが採用され、パス集約ネットワークPANで融合されたマルチスケール情報特徴マップを使用して検出を行い、各マルチスケール特徴マップのグリッドgridはいずれも3つの異なる比率の事前ボックスをラベル付けし、次に検出ヘッドは各グリッドに対して3つの境界(境界の位置を含み、各境界はオブジェクトの信頼度及び各境界領域のカテゴリである)を予測し、次に閾値に基づいて可能性の低い予測境界を除去し、最後に非極大値抑制処理を行って冗長な境界を除去して検出されたオブジェクトを取得する。グローバルマスク分割タスクブランチ部分については、2回のステップが2の転置畳み込みアップサンプリング操作によって元のサイズに回復した後、画像における各ピクセルが属するカテゴリを予測し、医用画像分割の予測結果を取得する。
ステップS22では、中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルF(∙)及びF(∙)を取得する。
ステップS23では、各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得する。
具体的な前処理操作は、画像をサイズ256x256にリサンプリングすることと、ランダムに反転してサイズ224x224にランダムに切り取ることと、階調値を[-200,200]にし、次にZ-Score正規化処理を行うことと、を含む。
ステップS24では、中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得する。
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練する。
訓練過程において以下の損失関数を最小化することによって教師ありを行う。
Figure 2024039598000008
(1)
式中、LdiceはDice損失関数であり、Ygtはピクセルレベルの利用可能なラベルを表し、Y は予測された分割画像の結果を表し、|Ygt|及び|Y |はそれぞれYgtの要素数及びY の要素数である。
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練する。
以下の損失関数を最小化することによって教師ありを行う。
Figure 2024039598000009
式中、α、α及びαは最適化されたハイパーパラメータである。
classは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
Figure 2024039598000010
(3)
式中、p(c)はカテゴリがc(ラベルが0又は1であるなどの分類ラベルを一般的に指す)の予測確率値を表し、Sはネットワークから最後に出力された特徴マップのサイズがS×S,であることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
Figure 2024039598000011
は各グリッドユニット(i=1,…,S)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在すると、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表す。
objは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
Figure 2024039598000012
(4)
式中、Cはオブジェクトの予測信頼度を表し、
Figure 2024039598000013
はオブジェクトのないアンカーボックス(anchor)を表し、LboxはLCIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義される。
Figure 2024039598000014
(5)
IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りである。
Figure 2024039598000015
(6)
vはアスペクト比の一致性を評価するパラメータであり、以下のように定義される。
Figure 2024039598000016
(7)
式中、Yは境界の予測結果であり、Ybboxはバウンディングボックスレベルの利用可能なラベルを表し、wgtはラベルボックスの幅であり、hgtはラベルボックスの高さであり、wは予測ボックスの幅であり、hは予測ボックスの高さであり、Distanceは2つの中心点のユークリッド距離であり、Distanceはラベルボックスと予測ボックスとの最小外接矩形の対角線距離である。
ステップS25では、各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合ステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得する。
ステップS3では、第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成する。
ステップ31では、各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得する。
具体的な前処理操作は、画像をサイズ256x256にリサンプリングすることと、ランダムに反転してサイズ224x224にランダムに切り取ることと、階調値を[-200,200]にし、次にZ-Score正規化処理を行い、第2段階の前処理画像データを取得することと、を含む。
各種のレベルの画像ラベルを統合するために、バウンディングボックスレベルの利用可能なラベルをピクセルレベルの利用可能なラベルに変更する。具体的には、バウンディングボックスレベルの利用可能なラベルはYbboxがピクセルレベルのラベルY bboxに変換されることを表し、前景クラスはバウンディングボックス内にあり、背景クラスはバウンディングボックス外にある。従って、YgtとY bboxは同じ次元を有し、例えば、
Figure 2024039598000017
であり、Cは前景クラスの総数を表し、W及びHはそれぞれの2D画像データの幅及び高さを表す。
ステップS32では、中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行う。
図3に示すように、ローカルクライアントに利用可能なピクセルレベルのラベルがない場合に、2つの異なるグローバル予備訓練モデルパラメータを更新したネットワークF(∙)及びF(∙)を使用してクロス疑似ラベル教師ありを行う。訓練画像Xの前処理操作後に2つの異なるネットワークモデルF及びFに送られ、該画像データのタイプは教師付けのタイプを決める。
図3の(A)に示すように、クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、損失関数の式(1)を利用して自己適応教師ありを行う。
図3の(B)に示すように、クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行い、検出タスクが分割タスクを支援する方式を利用して以下の損失関数を最小化することによって教師ありを行う。
Figure 2024039598000018
(8)
Figure 2024039598000019
(9)
式中、Y=F(X)及びY=F(X)は境界検出タスクブランチによって予測された疑似ラベルであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示される。
Figure 2024039598000020
(10)
式中、*は小数点乗算操作を表す。
図3の(C)に示すように、クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルF(∙)及びF(∙)のバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行う。
Figure 2024039598000021
(11)
ステップS4では、第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択する。
動的サンプル選択方法を採用し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択する。
上記疑似ラベルの生成及び修正過程の有効性にもかかわらず、疑似ラベルは正確ではない可能性がある。従って、高品質のデータ及び疑似ラベルを選択するための動的サンプル選択方法が提案される。具体的には、クライアントiが与えられ、該クライアントの訓練データDに対して、等式(12)に基づいて1つのマスク
Figure 2024039598000022
を生成し、言い換えれば、等式(12)に基づいて信頼できる訓練サンプルを選択し(各訓練データに対して、マスク値がm=1であると、該データは訓練サンプルに格納されて訓練に用いられる)、dice(Y,Y)は修正前に疑似ラベルYとYとの一致性を測定することに用いられ、YとYとの予測一致性がより高いと、疑似ラベルがground truthに近くなることが示され、以上の過程は以下のように示される。
Figure 2024039598000023
(12)
式中、
Figure 2024039598000024
は1つの閾値であり、選択された訓練サンプルの数に反比例し、ここでε=0.9である。ピクセルレベルのラベルに対して、サンプル選択操作が行われず、すなわちすべての
Figure 2024039598000025
の訓練サンプルはいずれもm=1である。訓練が進むにつれて、モデルはより正確な疑似ラベルを生成する能力が高くなり、従って、
Figure 2024039598000026
は徐々に|D|に増加し、モデルが増加し続ける訓練データセットから学習することを可能にする。
各クライアントはローカルの訓練データに基づいて2つの異なる局所訓練モデルの訓練を完了した後、訓練された2つの異なる局所訓練モデルを中央サーバ側にそれぞれ返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルに対して適応集約を行って新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、最終的なグローバル連合モデルが収束するまで前記訓練、統合ステップを繰り返す。
ステップS5では、第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行う。
ステップS51では、毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信する。
ステップS52では、各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了する。
ステップS53では、各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信する。
ステップS54では、中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了する。
図4に示すように、毎回の訓練中に、各ローカルクライアントiは先ず中央サーバ側からt回目の反復過程で生成されたグローバル連合モデル(すなわち中央サーバ側が各クライアントによって返送された訓練モデルを集約して得たグローバルモデル)のパラメータθα を受信する。次に、各クライアントはローカルの訓練データDを使用して、ローカル訓練によってグローバル連合モデルパラメータの更新を行う。最後に、各ローカルクライアントモデルパラメータからの勾配
Figure 2024039598000027
更新を中央サーバ側に送信し、中央サーバ側は各クライアントによってアップロードされたモデルパラメータをまとめ、式(13)に基づいてグローバル連合モデル(グローバルモデル)のパラメータを更新する。
Figure 2024039598000028
(13)
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新し、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集める。
第1段階の訓練に対して、マルチブランチタスクモデルはネットワーク部分を共有し、各クライアントの集約重みは以下の式14に示され、
Figure 2024039598000029
(14)
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新し、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集める。
グローバルマスク分割タスクブランチの集約重みは以下の式15に示され、
Figure 2024039598000030
(15)
式中、|D |はピクセルレベルのラベル付き訓練データの数を表す。
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新し、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める。
検出タスクブランチ部分の集約重みは以下の式16に示され、
Figure 2024039598000031
(16)である。
式中、
Figure 2024039598000032
は画像レベルのラベル付き訓練データの数を表す。
第2段階でグローバル連合モデルを集約する過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整し、このために提案された適応集約関数は以下のように定義される。
Figure 2024039598000033
(17)
Figure 2024039598000034
(18)
式中、μ及びβは最適化されたハイパーパラメータであり、それぞれ10及び3に設定され、異なるクライアントに対する依存度に影響を与える。
図5に示すように、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムは、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データを対応する医療機関のソースデータセットとして用いるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
以上より、本発明は、ピクセルレベルのラベル付きデータを利用して基本的な医用画像分割システムを確立するだけでなく、バウンディングボックスのラベル付きデータを利用して医用画像分割システムの精度を向上させることを支援し、クロス疑似教師付け方式を採用して画像レベルのラベル付きデータ及びラベルなしデータを十分に利用して医用画像分割システムの汎化能力を向上させる。該システムは異なるクライアントの間に同じタイプのラベル付きデータがあることを要求せず、異なるクライアントが異なるレベルのラベルであり得るという汎用性の特徴を有する。本発明の課題は、医用画像分割分野のピクセルレベルのラベル付きデータの規模が小さく、分布が不均衡で、患者のプライバシー保護により制限されるため多機関間のデータ共有が困難であるという問題点を解決することであり、既存の連合学習に基づく医用画像分割方法のほとんどは限られたピクセルレベルの症例注釈データのみを考慮する。本発明は、単一のラベルタイプの制限を打破し、マルチタスクハイブリッドモデルアーキテクチャを提案し、連合学習に基づくマルチタスクハイブリッド訓練方式により、各クライアントの境界レベルのラベル付きデータを利用して医用画像分割を支援し、次に連合学習に基づくクロス疑似教師付けと高品質サンプルの動的選択方式を組み合わせ、いかなる形式のラベル付きデータを十分に利用して医用画像分割を行う。また、本発明は、関与者がプライバシーデータを共有することなく各ローカルクライアントに最適化された集約重みを動的に割り当ててグローバル連合モデルを更新することを提案し、さらにモデルのロバスト性を向上させ、医療業界のデータセキュリティ及びプライバシー保護の難題、及び医療資源の不均衡の問題を大幅に緩和する。要するに、本発明は、各臨床機関に分散した異なるレベルのラベルに基づき、データがローカル機関から出ないことを確保することを前提に、患者のプライバシーを漏洩しなかった上で、各臨床機関の協調モデリングを実現し、多機関データの潜在能力と深層価値を十分にマイニングし、各協力者が他の関与者の異なるラベル付け形式のデータセットの空間分布及びモデル特徴表現能力から利益を取得することができ、汎化能力の高い良質な医用画像分割モデルを学習し、大規模なデータセットを有するモデル訓練効果を達成することができ、それにより医師の診断過程で積極的な支援役割を果たし、重要な臨床意味を有する。
以上は本発明の好適な実施例に過ぎず、本発明を制限するためのものではなく、当業者であれば、本発明に対して各種の変更及び変化を行うことができる。本発明の精神及び原則内で行われたいかなる修正、同等置換、改良などは、いずれも本発明の保護範囲内に含まれるべきである。

Claims (5)

  1. 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法であって、ステップS1~ステップS5を含み、
    前記ステップS1では、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集し、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
    前記ステップS2では、第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得し、
    前記ステップS2は具体的に、サブステップS21~サブステップS25を含み、
    前記サブステップS21では、CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築し、
    前記サブステップS22では、中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得し、
    前記サブステップS23では、各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得し、
    前記サブステップS24では、中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得し、
    前記サブステップS24では、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習することは具体的には、
    クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、訓練過程で以下の損失関数を最小化することによって教師ありを行い、
    Figure 2024039598000035
    (1)
    ここで、LdiceはDice損失関数であり、Ygtはピクセルレベルの利用可能なラベルを表し、Y は予測された分割画像の結果を表し、|Ygt|及び|Y |はそれぞれYgtの要素数及びY の要素数であり、
    クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練し、以下の損失関数を最小化することによって教師ありを行い、
    Figure 2024039598000036
    (2)
    ここで、α、α及びαは最適化されたハイパーパラメータであり、
    classは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
    Figure 2024039598000037
    (3)
    ここで、p(c)はカテゴリがcの予測確率値を表し、cは分類ラベルを表し、Sはネットワークから最後に出力された特徴マップのサイズがS×Sであることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
    Figure 2024039598000038
    は各グリッドユニット(i=1,…,S)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在する場合に、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表し、
    objは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
    Figure 2024039598000039
    (4)
    ここで、Cはオブジェクトの予測信頼度を表し、
    Figure 2024039598000040
    はオブジェクトのないアンカーボックス(anchor)を表し、LboxはLCIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義され、
    Figure 2024039598000041
    (5)
    IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りであり、
    Figure 2024039598000042
    (6)
    vはアスペクト比の一致性を評価するパラメータであり、以下のように定義され、
    Figure 2024039598000043
    (7)
    ここで、Yは境界の予測結果であり、Ybboxはバウンディングボックスレベルの利用可能なラベルを表し、wgtはラベルボックスの幅であり、hgtはラベルボックスの高さであり、wは予測ボックスの幅であり、hは予測ボックスの高さであり、Distanceは2つの中心点のユークリッド距離であり、Distanceはラベルボックスと予測ボックスとの最小外接矩形の対角線距離であり、
    前記サブステップS25では、各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合のステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得し、
    前記ステップS3では、第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用し、2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成し、
    前記ステップS3は具体的に、サブステップS31~サブステップS32を含み、
    前記サブステップS31では、各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得し、
    前記サブステップS32では、中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行い、
    前記サブステップS32では、各クライアントがローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択することは、具体的には、
    クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、損失関数の式(1)を利用して自己適応教師ありを行い、
    クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行い、
    検出タスクが分割タスクを支援する方式を利用して以下の損失関数を最小化することによって教師ありを行い、
    Figure 2024039598000044
    (8)
    Figure 2024039598000045
    (9)
    ここで、Y=F(X)及びY=F(X)は境界検出タスクブランチによって予測された疑似ラベルであり、F(∙)及びF(∙)は2つの異なるグローバル予備訓練モデルパラメータを更新したネットワークであり、X及びXはクライアントが受信した、前処理操作後に2つの異なるネットワークモデルF(∙)及びF(∙)に送られたバウンディングボックス訓練データであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示され、
    Figure 2024039598000046
    (10)
    ここで、*は小数点乗算操作を表し、Y bboxはバウンディングボックスレベルの利用可能なラベルが変換された後のピクセルレベルのラベルを表し、
    クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行い、
    Figure 2024039598000047
    (11)
    前記ステップS4では、第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択し、
    前記ステップS5では、第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行う
    ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
  2. 前記ステップS5は具体的には、サブステップS51~サブステップS54を含み、
    前記サブステップS51では、毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信し、
    前記サブステップS52では、各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了し、
    前記サブステップS53では、各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信し、
    前記サブステップS54では、中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了する
    ことを特徴とする請求項1に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
  3. 前記ステップS2段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式、グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式、及び第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式を含み、
    第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式では、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集め、
    グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式では、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集め、
    第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式では、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める
    ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
  4. 前記ステップS3の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、
    第2段階でグローバル連合モデルを集約して得る過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整することを含む
    ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
  5. 請求項1~4のいずれか1項に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法を実現するためのシステムであって、データ収集モジュール、第1段階での連合学習に基づくマルチタスクネットワークモデルモジュール、第2段階での疑似ラベル生成モジュール、第2段階での動的サンプル選択モジュール、及び連合モデル動的更新モジュールを含み、
    前記データ収集モジュールは、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集することに用いられ、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
    前記第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールは、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得することに用いられ、
    前記第2段階での疑似ラベル生成モジュールは、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成することに用いられ、
    前記第2段階での動的サンプル選択モジュールは、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択することに用いられ、
    前記連合モデル動的更新モジュールは、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うことに用いられる
    ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システム。
JP2023095887A 2022-09-09 2023-06-09 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム Active JP7386370B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202211099106.2 2022-09-09
CN202211099106.2A CN115187783B (zh) 2022-09-09 2022-09-09 基于联邦学习的多任务混合监督医疗图像分割方法及系统

Publications (2)

Publication Number Publication Date
JP7386370B1 JP7386370B1 (ja) 2023-11-24
JP2024039598A true JP2024039598A (ja) 2024-03-22

Family

ID=83524546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023095887A Active JP7386370B1 (ja) 2022-09-09 2023-06-09 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム

Country Status (2)

Country Link
JP (1) JP7386370B1 (ja)
CN (1) CN115187783B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935136A (zh) * 2023-08-02 2023-10-24 深圳大学 处理类别不平衡医学图像分类问题的联邦学习方法
CN116883669A (zh) * 2023-08-03 2023-10-13 深圳扬奇医芯智能科技有限公司 一种基于动态注意力联邦框架的多目标分割技术
CN117036701B (zh) * 2023-08-04 2024-04-30 北京透彻未来科技有限公司 一种基于客户端切割数字病理图像的处理系统
CN116823810B (zh) * 2023-08-25 2023-11-17 之江实验室 基于联邦学习的腹部多器官动态增强分割方法及系统
CN117351293B (zh) * 2023-12-04 2024-02-06 天津医科大学口腔医院 一种联合学习的牙周病图像分类方法及设备
CN117952993B (zh) * 2024-03-27 2024-06-18 中国海洋大学 基于图像文本协同约束的半监督医学图像分割方法
CN118052979B (zh) * 2024-04-11 2024-06-18 成都理工大学 一种基于交叉矫正网络的遥感影像目标检测方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087130B2 (en) * 2017-12-29 2021-08-10 RetailNext, Inc. Simultaneous object localization and attribute classification using multitask deep neural networks
CN108399406B (zh) * 2018-01-15 2022-02-01 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
US10775977B2 (en) * 2019-01-25 2020-09-15 Google Llc Image display with selective depiction of motion
US20210241037A1 (en) 2020-01-30 2021-08-05 Canon Medical Systems Corporation Data processing apparatus and method
CN111275207B (zh) * 2020-02-10 2024-04-30 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111340819B (zh) 2020-02-10 2023-09-12 腾讯科技(深圳)有限公司 图像分割方法、装置和存储介质
WO2022019885A1 (en) * 2020-07-20 2022-01-27 Google Llc Unsupervised federated learning of machine learning model layers
CN112116612A (zh) * 2020-09-15 2020-12-22 南京林业大学 基于Mask R-CNN的行道树图像实例分割方法
JP2022066963A (ja) 2020-10-19 2022-05-02 学校法人 聖マリアンナ医科大学 医用画像処理装置及び医用画像処理方法
CN112633086B (zh) * 2020-12-09 2024-01-26 西安电子科技大学 基于多任务EfficientDet的近红外行人监测方法、系统、介质、设备
CN112818975A (zh) * 2021-01-27 2021-05-18 北京金山数字娱乐科技有限公司 文本检测模型训练方法及装置、文本检测方法及装置
CN112966684B (zh) * 2021-03-15 2022-11-04 北湾科技(武汉)有限公司 一种注意力机制下的协同学习文字识别方法
CN112950645B (zh) * 2021-03-24 2023-05-12 中国人民解放军国防科技大学 一种基于多任务深度学习的图像语义分割方法
CN113571203B (zh) * 2021-07-19 2024-01-26 复旦大学附属华山医院 多中心基于联邦学习的脑肿瘤预后生存期预测方法及系统
CN113781397B (zh) * 2021-08-11 2023-11-21 中国科学院信息工程研究所 基于联邦学习的医疗影像病灶检测建模方法、装置及系统
CN113705712B (zh) * 2021-09-02 2024-01-05 广州大学 一种基于联邦半监督学习的网络流量分类方法和系统
CN114187268A (zh) * 2021-12-04 2022-03-15 北京工业大学 基于目标检测和语义分割融合的障碍物检测方法
CN114418954A (zh) 2021-12-24 2022-04-29 中国科学院深圳先进技术研究院 一种基于互学习的半监督医学图像分割方法及其系统
CN114494151A (zh) * 2021-12-30 2022-05-13 山东师范大学 一种复杂果园环境下的果实检测方法及系统
CN114064967B (zh) * 2022-01-18 2022-05-06 之江实验室 多粒度级联交互网络的跨模态时序行为定位方法及装置

Also Published As

Publication number Publication date
CN115187783A (zh) 2022-10-14
CN115187783B (zh) 2022-12-27
JP7386370B1 (ja) 2023-11-24

Similar Documents

Publication Publication Date Title
JP7386370B1 (ja) 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム
CN110689038B (zh) 神经网络模型的训练方法、装置和医学图像处理系统
US11798132B2 (en) Image inpainting method and apparatus, computer device, and storage medium
Gao et al. Deep leaf‐bootstrapping generative adversarial network for structural image data augmentation
JP6887055B2 (ja) 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
CN111898696A (zh) 伪标签及标签预测模型的生成方法、装置、介质及设备
CN110490239B (zh) 图像质控网络的训练方法、质量分类方法、装置及设备
CN112541508A (zh) 果实分割识别方法及系统、果实采摘机器人
CN110827236B (zh) 基于神经网络的脑组织分层方法、装置、计算机设备
Selvan et al. Uncertainty quantification in medical image segmentation with normalizing flows
US20220270357A1 (en) Systems, methods, and apparatuses for implementing medical image segmentation using interactive refinement
CN112884758B (zh) 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统
CN111091010A (zh) 相似度确定、网络训练、查找方法及装置和存储介质
CN113821668A (zh) 数据分类识别方法、装置、设备及可读存储介质
Zhu et al. Big data image classification based on distributed deep representation learning model
CN111681204A (zh) 基于图神经网络的ct肋骨骨折病灶关系建模方法及装置
CN112836755B (zh) 基于深度学习的样本图像生成方法及其系统
CN113989574A (zh) 图像解释方法、图像解释装置、电子设备和存储介质
CN115803751A (zh) 训练模型用于对医学数据执行任务
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN116051699B (zh) 动捕数据的处理方法、装置、设备及存储介质
US11816185B1 (en) Multi-view image analysis using neural networks
Jia et al. A multi-style interior floor plan design approach based on generative adversarial networks
He et al. ECS-SC: Long-tailed classification via data augmentation based on easily confused sample selection and combination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230609

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150