JP2024039598A - 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム - Google Patents
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム Download PDFInfo
- Publication number
- JP2024039598A JP2024039598A JP2023095887A JP2023095887A JP2024039598A JP 2024039598 A JP2024039598 A JP 2024039598A JP 2023095887 A JP2023095887 A JP 2023095887A JP 2023095887 A JP2023095887 A JP 2023095887A JP 2024039598 A JP2024039598 A JP 2024039598A
- Authority
- JP
- Japan
- Prior art keywords
- data
- model
- training data
- parameters
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000003709 image segmentation Methods 0.000 title claims abstract description 40
- 238000013480 data collection Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 255
- 238000001514 detection method Methods 0.000 claims description 44
- 230000011218 segmentation Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 16
- 230000002776 aggregation Effects 0.000 claims description 12
- 238000004220 aggregation Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 238000010187 selection method Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 9
- 238000012804 iterative process Methods 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims description 5
- 238000011423 initialization method Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims 1
- 238000000638 solvent extraction Methods 0.000 claims 1
- 238000002372 labelling Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 208000003174 Brain Neoplasms Diseases 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004393 prognosis Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000002364 input neuron Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
Description
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するステップS1であって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるステップS1と、
第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するステップS2と、
第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するステップS3と、
第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するステップS4と、
第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うステップS5と、を含む。
CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築するサブステップS21と、
中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得するサブステップS22と、
各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得するサブステップS23と、
中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得するサブステップS24と、
各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合ステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得するサブステップS25と、を含む。
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練することと、に分けられる。
各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得するサブステップS31と、
中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行うサブステップS32と、を含む。
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行うことと、
クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行うことと、に分けられる。
毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信するサブステップS51と、
各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了するサブステップS52と、
各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信するサブステップS53と、
中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了するサブステップS54と、を含む。
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式であって、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集める方式と、
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式であって、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集める方式と、
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式であって、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める方式と、を含む。
第2段階でグローバル連合モデルを集約する過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整する方式を含む。
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
Ground Truth:ラベル付きデータ。
、
、
及び
はそれぞれクライアントiからのピクセルレベルのラベル付き訓練データ、ラベルなし訓練データ、画像レベルのラベル付き訓練データ及びバウンディングボックスのラベル付き訓練データを表す。Xは訓練画像セットを表し、Ygtはピクセルレベルの利用可能なラベルを表し、Yimgは画像レベルの利用可能なラベルを表し、Ybboxはバウンディングボックスレベルの利用可能なラベルを表す。
式中、LdiceはDice損失関数であり、Ygtはピクセルレベルの利用可能なラベルを表し、YP Lは予測された分割画像の結果を表し、|Ygt|及び|YP L|はそれぞれYgtの要素数及びYP Lの要素数である。
Lclassは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
式中、pi(c)はカテゴリがc(ラベルが0又は1であるなどの分類ラベルを一般的に指す)の予測確率値を表し、Sはネットワークから最後に出力された特徴マップのサイズがS×S,であることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
は各グリッドユニット(i=1,…,S2)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在すると、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表す。
Lobjは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
式中、Ciはオブジェクトの予測信頼度を表し、
はオブジェクトのないアンカーボックス(anchor)を表し、LboxはLCIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義される。
IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りである。
vはアスペクト比の一致性を評価するパラメータであり、以下のように定義される。
式中、YPは境界の予測結果であり、Ybboxはバウンディングボックスレベルの利用可能なラベルを表し、wgtはラベルボックスの幅であり、hgtはラベルボックスの高さであり、wpは予測ボックスの幅であり、hpは予測ボックスの高さであり、Distance2は2つの中心点のユークリッド距離であり、Distancecはラベルボックスと予測ボックスとの最小外接矩形の対角線距離である。
であり、Cは前景クラスの総数を表し、W及びHはそれぞれの2D画像データの幅及び高さを表す。
式中、Y1=F1(X1)及びY2=F2(X2)は境界検出タスクブランチによって予測された疑似ラベルであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示される。
式中、*は小数点乗算操作を表す。
を生成し、言い換えれば、等式(12)に基づいて信頼できる訓練サンプルを選択し(各訓練データに対して、マスク値がmi=1であると、該データは訓練サンプルに格納されて訓練に用いられる)、dice(Y1,Y2)は修正前に疑似ラベルY1とY2との一致性を測定することに用いられ、Y1とY2との予測一致性がより高いと、疑似ラベルがground truthに近くなることが示され、以上の過程は以下のように示される。
式中、
は1つの閾値であり、選択された訓練サンプルの数に反比例し、ここでε=0.9である。ピクセルレベルのラベルに対して、サンプル選択操作が行われず、すなわちすべての
の訓練サンプルはいずれもmi=1である。訓練が進むにつれて、モデルはより正確な疑似ラベルを生成する能力が高くなり、従って、
は徐々に|Di|に増加し、モデルが増加し続ける訓練データセットから学習することを可能にする。
更新を中央サーバ側に送信し、中央サーバ側は各クライアントによってアップロードされたモデルパラメータをまとめ、式(13)に基づいてグローバル連合モデル(グローバルモデル)のパラメータを更新する。
式中、μ及びβは最適化されたハイパーパラメータであり、それぞれ10及び3に設定され、異なるクライアントに対する依存度に影響を与える。
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データを対応する医療機関のソースデータセットとして用いるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
Claims (5)
- 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法であって、ステップS1~ステップS5を含み、
前記ステップS1では、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集し、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
前記ステップS2では、第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得し、
前記ステップS2は具体的に、サブステップS21~サブステップS25を含み、
前記サブステップS21では、CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築し、
前記サブステップS22では、中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得し、
前記サブステップS23では、各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得し、
前記サブステップS24では、中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得し、
前記サブステップS24では、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、訓練過程で以下の損失関数を最小化することによって教師ありを行い、
ここで、LdiceはDice損失関数であり、Ygtはピクセルレベルの利用可能なラベルを表し、YP Lは予測された分割画像の結果を表し、|Ygt|及び|YP L|はそれぞれYgtの要素数及びYP Lの要素数であり、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練し、以下の損失関数を最小化することによって教師ありを行い、
ここで、α1、α2及びα3は最適化されたハイパーパラメータであり、
Lclassは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
ここで、pi(c)はカテゴリがcの予測確率値を表し、cは分類ラベルを表し、Sはネットワークから最後に出力された特徴マップのサイズがS×Sであることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
は各グリッドユニット(i=1,…,S2)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在する場合に、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表し、
Lobjは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
ここで、Ciはオブジェクトの予測信頼度を表し、
はオブジェクトのないアンカーボックス(anchor)を表し、LboxはLCIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義され、
IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りであり、
vはアスペクト比の一致性を評価するパラメータであり、以下のように定義され、
ここで、YPは境界の予測結果であり、Ybboxはバウンディングボックスレベルの利用可能なラベルを表し、wgtはラベルボックスの幅であり、hgtはラベルボックスの高さであり、wpは予測ボックスの幅であり、hpは予測ボックスの高さであり、Distance2は2つの中心点のユークリッド距離であり、Distancecはラベルボックスと予測ボックスとの最小外接矩形の対角線距離であり、
前記サブステップS25では、各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合のステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得し、
前記ステップS3では、第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用し、2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成し、
前記ステップS3は具体的に、サブステップS31~サブステップS32を含み、
前記サブステップS31では、各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得し、
前記サブステップS32では、中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行い、
前記サブステップS32では、各クライアントがローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択することは、具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、損失関数の式(1)を利用して自己適応教師ありを行い、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行い、
検出タスクが分割タスクを支援する方式を利用して以下の損失関数を最小化することによって教師ありを行い、
ここで、Y1=F1(X1)及びY2=F2(X2)は境界検出タスクブランチによって予測された疑似ラベルであり、F1(∙)及びF2(∙)は2つの異なるグローバル予備訓練モデルパラメータを更新したネットワークであり、X1及びX2はクライアントが受信した、前処理操作後に2つの異なるネットワークモデルF1(∙)及びF2(∙)に送られたバウンディングボックス訓練データであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示され、
ここで、*は小数点乗算操作を表し、YL bboxはバウンディングボックスレベルの利用可能なラベルが変換された後のピクセルレベルのラベルを表し、
クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行い、
前記ステップS4では、第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択し、
前記ステップS5では、第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行う
ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。 - 前記ステップS5は具体的には、サブステップS51~サブステップS54を含み、
前記サブステップS51では、毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信し、
前記サブステップS52では、各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了し、
前記サブステップS53では、各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信し、
前記サブステップS54では、中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了する
ことを特徴とする請求項1に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。 - 前記ステップS2段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式、グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式、及び第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式を含み、
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式では、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集め、
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式では、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集め、
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式では、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める
ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。 - 前記ステップS3の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、
第2段階でグローバル連合モデルを集約して得る過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整することを含む
ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。 - 請求項1~4のいずれか1項に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法を実現するためのシステムであって、データ収集モジュール、第1段階での連合学習に基づくマルチタスクネットワークモデルモジュール、第2段階での疑似ラベル生成モジュール、第2段階での動的サンプル選択モジュール、及び連合モデル動的更新モジュールを含み、
前記データ収集モジュールは、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集することに用いられ、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
前記第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールは、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得することに用いられ、
前記第2段階での疑似ラベル生成モジュールは、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成することに用いられ、
前記第2段階での動的サンプル選択モジュールは、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択することに用いられ、
前記連合モデル動的更新モジュールは、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うことに用いられる
ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211099106.2 | 2022-09-09 | ||
CN202211099106.2A CN115187783B (zh) | 2022-09-09 | 2022-09-09 | 基于联邦学习的多任务混合监督医疗图像分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7386370B1 JP7386370B1 (ja) | 2023-11-24 |
JP2024039598A true JP2024039598A (ja) | 2024-03-22 |
Family
ID=83524546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023095887A Active JP7386370B1 (ja) | 2022-09-09 | 2023-06-09 | 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7386370B1 (ja) |
CN (1) | CN115187783B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116935136A (zh) * | 2023-08-02 | 2023-10-24 | 深圳大学 | 处理类别不平衡医学图像分类问题的联邦学习方法 |
CN116883669A (zh) * | 2023-08-03 | 2023-10-13 | 深圳扬奇医芯智能科技有限公司 | 一种基于动态注意力联邦框架的多目标分割技术 |
CN117036701B (zh) * | 2023-08-04 | 2024-04-30 | 北京透彻未来科技有限公司 | 一种基于客户端切割数字病理图像的处理系统 |
CN116823810B (zh) * | 2023-08-25 | 2023-11-17 | 之江实验室 | 基于联邦学习的腹部多器官动态增强分割方法及系统 |
CN117351293B (zh) * | 2023-12-04 | 2024-02-06 | 天津医科大学口腔医院 | 一种联合学习的牙周病图像分类方法及设备 |
CN117952993B (zh) * | 2024-03-27 | 2024-06-18 | 中国海洋大学 | 基于图像文本协同约束的半监督医学图像分割方法 |
CN118052979B (zh) * | 2024-04-11 | 2024-06-18 | 成都理工大学 | 一种基于交叉矫正网络的遥感影像目标检测方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087130B2 (en) * | 2017-12-29 | 2021-08-10 | RetailNext, Inc. | Simultaneous object localization and attribute classification using multitask deep neural networks |
CN108399406B (zh) * | 2018-01-15 | 2022-02-01 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
US10775977B2 (en) * | 2019-01-25 | 2020-09-15 | Google Llc | Image display with selective depiction of motion |
US20210241037A1 (en) | 2020-01-30 | 2021-08-05 | Canon Medical Systems Corporation | Data processing apparatus and method |
CN111275207B (zh) * | 2020-02-10 | 2024-04-30 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN111340819B (zh) | 2020-02-10 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置和存储介质 |
WO2022019885A1 (en) * | 2020-07-20 | 2022-01-27 | Google Llc | Unsupervised federated learning of machine learning model layers |
CN112116612A (zh) * | 2020-09-15 | 2020-12-22 | 南京林业大学 | 基于Mask R-CNN的行道树图像实例分割方法 |
JP2022066963A (ja) | 2020-10-19 | 2022-05-02 | 学校法人 聖マリアンナ医科大学 | 医用画像処理装置及び医用画像処理方法 |
CN112633086B (zh) * | 2020-12-09 | 2024-01-26 | 西安电子科技大学 | 基于多任务EfficientDet的近红外行人监测方法、系统、介质、设备 |
CN112818975A (zh) * | 2021-01-27 | 2021-05-18 | 北京金山数字娱乐科技有限公司 | 文本检测模型训练方法及装置、文本检测方法及装置 |
CN112966684B (zh) * | 2021-03-15 | 2022-11-04 | 北湾科技(武汉)有限公司 | 一种注意力机制下的协同学习文字识别方法 |
CN112950645B (zh) * | 2021-03-24 | 2023-05-12 | 中国人民解放军国防科技大学 | 一种基于多任务深度学习的图像语义分割方法 |
CN113571203B (zh) * | 2021-07-19 | 2024-01-26 | 复旦大学附属华山医院 | 多中心基于联邦学习的脑肿瘤预后生存期预测方法及系统 |
CN113781397B (zh) * | 2021-08-11 | 2023-11-21 | 中国科学院信息工程研究所 | 基于联邦学习的医疗影像病灶检测建模方法、装置及系统 |
CN113705712B (zh) * | 2021-09-02 | 2024-01-05 | 广州大学 | 一种基于联邦半监督学习的网络流量分类方法和系统 |
CN114187268A (zh) * | 2021-12-04 | 2022-03-15 | 北京工业大学 | 基于目标检测和语义分割融合的障碍物检测方法 |
CN114418954A (zh) | 2021-12-24 | 2022-04-29 | 中国科学院深圳先进技术研究院 | 一种基于互学习的半监督医学图像分割方法及其系统 |
CN114494151A (zh) * | 2021-12-30 | 2022-05-13 | 山东师范大学 | 一种复杂果园环境下的果实检测方法及系统 |
CN114064967B (zh) * | 2022-01-18 | 2022-05-06 | 之江实验室 | 多粒度级联交互网络的跨模态时序行为定位方法及装置 |
-
2022
- 2022-09-09 CN CN202211099106.2A patent/CN115187783B/zh active Active
-
2023
- 2023-06-09 JP JP2023095887A patent/JP7386370B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN115187783A (zh) | 2022-10-14 |
CN115187783B (zh) | 2022-12-27 |
JP7386370B1 (ja) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7386370B1 (ja) | 連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム | |
CN110689038B (zh) | 神经网络模型的训练方法、装置和医学图像处理系统 | |
US11798132B2 (en) | Image inpainting method and apparatus, computer device, and storage medium | |
Gao et al. | Deep leaf‐bootstrapping generative adversarial network for structural image data augmentation | |
JP6887055B2 (ja) | 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置 | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN111898696A (zh) | 伪标签及标签预测模型的生成方法、装置、介质及设备 | |
CN110490239B (zh) | 图像质控网络的训练方法、质量分类方法、装置及设备 | |
CN112541508A (zh) | 果实分割识别方法及系统、果实采摘机器人 | |
CN110827236B (zh) | 基于神经网络的脑组织分层方法、装置、计算机设备 | |
Selvan et al. | Uncertainty quantification in medical image segmentation with normalizing flows | |
US20220270357A1 (en) | Systems, methods, and apparatuses for implementing medical image segmentation using interactive refinement | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
CN111091010A (zh) | 相似度确定、网络训练、查找方法及装置和存储介质 | |
CN113821668A (zh) | 数据分类识别方法、装置、设备及可读存储介质 | |
Zhu et al. | Big data image classification based on distributed deep representation learning model | |
CN111681204A (zh) | 基于图神经网络的ct肋骨骨折病灶关系建模方法及装置 | |
CN112836755B (zh) | 基于深度学习的样本图像生成方法及其系统 | |
CN113989574A (zh) | 图像解释方法、图像解释装置、电子设备和存储介质 | |
CN115803751A (zh) | 训练模型用于对医学数据执行任务 | |
CN117437423A (zh) | 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置 | |
CN116051699B (zh) | 动捕数据的处理方法、装置、设备及存储介质 | |
US11816185B1 (en) | Multi-view image analysis using neural networks | |
Jia et al. | A multi-style interior floor plan design approach based on generative adversarial networks | |
He et al. | ECS-SC: Long-tailed classification via data augmentation based on easily confused sample selection and combination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230609 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |