JP2021056571A - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2021056571A JP2021056571A JP2019176544A JP2019176544A JP2021056571A JP 2021056571 A JP2021056571 A JP 2021056571A JP 2019176544 A JP2019176544 A JP 2019176544A JP 2019176544 A JP2019176544 A JP 2019176544A JP 2021056571 A JP2021056571 A JP 2021056571A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- unit
- feature amount
- processing device
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 53
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims abstract description 48
- 230000011218 segmentation Effects 0.000 claims abstract description 38
- 230000002159 abnormal effect Effects 0.000 claims description 17
- 230000001575 pathological effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 14
- 238000005457 optimization Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
WSIは高解像度であることが特徴である。WSIの解像度を落とすことなく深層モデルの学習に用いるため、非特許文献1では、WSIをパッチと呼ばれる小画像に分割し、モデルに入力する方法が用いられている。
1.システム構成
図1は、情報処理システムのシステム構成の一例を示す図である。情報処理システムは、サーバ装置100と、クライアント装置110と、を含む。サーバ装置100は、ネットワーク120を介してクライアント装置110と通信を行う。図1では説明の簡略化のため、1台のクライアント装置110がネットワーク120を介してサーバ装置100に接続されている。しかし、複数のクライアント装置がネットワーク120を介してサーバ装置100に接続されていてもよい。また、サーバ装置100は1台ではなく複数のサーバ装置、いわゆるクラウドとして、構成されてもよい。また、サーバ装置100は、ネットワーク120を介して、他のサーバ装置、システム等と接続されていてもよい。
(処理の概要)
サーバ装置100は、クライアント装置110からの要求等に基づき画像システムよりWSIを受け取ると、WSIから複数の部分画像を切り出し、切り出した複数の部分画像を特徴抽出モデルに入力し、複数の部分画像それぞれに対応する線形の特徴ベクトルを取得する。そして、サーバ装置100は、WSI中の部分画像の位置情報に基づき、特徴ベクトルを並べた特徴マップを生成し、生成した特徴マップをセグメンテーションモデルに入力し、予測マップを出力する。例えば、サーバ装置100は、要求元のクライアント装置110に予測マップを送信する。WSIは、上述したように、組織の断片の画像をデジタル化したものであり、病理画像の一例である。
図2は、サーバ装置100のハードウェア構成の一例を示す図である。サーバ装置100は、ハードウェア構成として、制御部201と、記憶部202と、通信部203と、を含む。制御部201は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等であって、サーバ装置100の全体を制御したり、画像処理を制御したりする。記憶部202は、HDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)等であって、プログラム及び制御部201がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。制御部201、より具体的にはGPUが、記憶部202に記憶されているプログラムに基づき、処理を実行することによって、後述する図3のサーバ装置100の機能構成及び後述する図4のアクティビティ図の処理が実現される。通信部203は、NIC(Network Interface Card)等であって、サーバ装置100をネットワーク120に接続する。記憶部202は、記憶媒体の一例である。
図3は、サーバ装置100の機能構成の一例を示す図である。サーバ装置100(情報処理装置)は、機能構成として、切り出し部301と、特徴量取得部302と、生成部303と、識別部304と、出力部305と、学習部306と、を含む。切り出し部301は、WSIから部分画像を切り出す。WSIは、画像の一例である。特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。識別部304は、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像のそれぞれを識別する。出力部305は、識別部304による識別結果を出力する。学習部306は、ネットワークを学習する。
図4は、サーバ装置100の情報処理の一例を示すアクティビティ図である。
A401において、切り出し部301は、クライアント装置110からの要求等に基づき画像システムより受け取ったWSIから部分画像を切り出す。
A402において、特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。特徴抽出モデルの一例は、GoogLeNetである。
A403において、生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。
A405において、出力部305は、識別部304によって正常と識別された部分画像及び識別部304によって異常と識別された部分画像にそれぞれ異なる色を付けた予測マップを識別の結果として出力する。実施形態1の例では、出力部305は、要求元のクライアント装置110に予測マップを送信する。他の例として、サーバ装置100がディスプレイ等の表示部を有していた場合、要求に応じて、出力部305は、予測マップをサーバ装置100のディスプレイに出力してもよい。また、要求に応じて、出力部305は、予測マップを記憶部202、又は外部装置の記憶部等に出力するようにしてもよい。
図5は、パイプラインの一例を示す図である。
切り出し部301は、クライアント装置110からの要求等に基づき画像システムより受け取ったWSIから部分画像を切り出す。特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。識別部304は、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像それぞれが正常か、異常かを識別する。出力部305は、識別部304によって正常と識別された部分画像及び識別部304によって異常と識別された部分画像にそれぞれ異なる色を付けた予測マップを識別の結果として出力する。
なお、他の例として識別部304と、出力部305とは、一体となり、識別部304が、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像それぞれが正常か、異常かを識別し、正常と識別された部分画像及び異常と識別された部分画像に色を付けた予測マップを出力するようにしてもよい。
以下、学習部306によるネットワークの最適化手法について2通りの学習方法を説明する。
(1)個別学習
最適化手法の1つ目は、学習部306が特徴抽出モデルとセグメンテーションモデルを別々に学習する方法である。この方法では、学習部306は、まず前半の特徴抽出モデルを学習する。入力はWSIから切り取られた部分画像であり、出力は部分画像が正常か異常かを判定してその確率を表す2次元のベクトルである。訓練データに用いられる部分画像には医師のアノテーションに基づいて正常か異常かの教師ラベルが付されており、出力の2次元ベクトルの各要素は0から1までの値である。学習部306は、この訓練データを用いて性能が安定するまで特徴抽出モデルを学習する。ここで、特徴抽出モデルの性能は訓練データとは別に用意されているテストデータに対する汎化性を調べることによって求められる。
となる[i’,j’]の位置に配置することで、全体としての特徴マップの中央に配置する。
最適化手法の2つ目は、学習部306が特徴抽出モデルからセグメンテーションモデルまでをエンドツーエンドで学習する方法である。各モデルの構造及び学習方法は、個別学習で述べたものと基本的には同じである。
一般的にモデルを2つ以上直列に並べたネットワークでは、1つ目のモデルの出力を2つ目のモデルの入力として、最後の出力からはじめての入力まで一つのモデルで学習するのと同じように誤差を伝播することができる。しかし、実施形態1の条件では、一枚のWSIの特徴量を取り出すために数百から数千の部分画像の情報が必要となる。即ち、後半のセグメンテーションモデルに1つ入力を与えるためには前半の特徴抽出モデルに多い場合で数千の入力を与える必要がある。数千枚の部分画像を一括で入力しようとすると、誤差逆伝播のためにそれら全ての中間層出力を記憶していなければならない。具体的には、ある一枚のWSIから切り出される部分画像をNとし、1部分画像あたりの学習に必要な特徴抽出モデルの消費メモリをMとすると、1枚のWSIをセグメンテーションモデルで学習するために特徴抽出モデルでMNのメモリを消費することになり、これは結局、全WSIを、セグメンテーションモデルを使って学習するのに必要なメモリとほぼ同等であって、一括でWSI1枚分の部分画像を入力することはメモリ容量を考えると現実的ではない。
特徴抽出モデルを一度に更新しないということは、2つのモデルの間で情報を一度保持しておく構造が必要になる。学習部306は、順計算の際には、個別学習と同じように前半の特徴抽出モデルから出力された中間特徴量を位置情報と共に保持し、特徴マップ上の全ての特徴量が出揃った時点でセグメンテーションモデルに入力する。逆伝播に関して、教師ラベルとの誤差はセグメンテーションモデルの最終出力との間に定義されるので、学習部306は、前半の特徴抽出モデルの勾配も最終誤差を微分して求めなくてはならず、特徴抽出モデルの更新のためにはセグメンテーションモデルから計算された誤差情報を保持して置く必要がある。誤差情報を少ないメモリ消費で保持するため、学習部306は、以下の方法をとる。
ここで、前半の特徴抽出モデルの出力である中間特徴量をxとすると、連鎖律を用いて∂L/∂Wは、
と書ける。
一括学習の最適化手順を整理すると次のようになる。
ステップ2:学習部306は、全部分画像の順計算が終わったら、特徴マップと正解マップを用いてセグメンテーションモデルを学習し、更新する。
ステップ3:学習部306は、誤差Lと特徴抽出モデルの出力xを用いて[数4]を計算する。
ステップ4:学習部306は、計算したL’を用いて前半の特徴抽出モデルを学習する。
このような手順を踏むことで2つのモデルをエンドツーエンドで学習させることができる。また全部分画像に対する特徴抽出モデルの中間層出力は数が多すぎて保持できないため、ステップ1では各層の出力は保持せずに特徴量だけを取り出し、ステップ4で改めて現実的なバッチサイズで順計算と誤差逆伝播計算を行っている。このようにしてメモリ消費を抑え、WSI全体のスケールでの学習を実現している。
実施形態1で説明した処理の結果を図8に示す。
「識別器のみ」の行は、特徴抽出モデルであるGoogLeNetのみの性能評価を示す。「セグメンテーションのみ」の行は、セグメンテーションモデルのみの性能評価を示す。「最適化手法1:個別学習」の行は、上述した個別学習で学習した実施形態1のパイプラインの性能評価を示す。「最適化手法2:一括学習」の行は、上述した一括学習で学習した実施形態1のパイプラインの性能評価を示す。なお、評価には、識別の正答率とPrecision Reall(PR)曲線のArea Under Curve(AUC)を用いている。
図8に示されるように、「識別器のみ」及び「セグメンテーションのみ」に比べて、実施形態1で説明した「最適化手法1:個別学習」及び「最適化手法2:一括学習」の方が、正答率及びPR−AUCで上回っている。
即ち、実施形態1によれば、GPUのメモリのハードウェア的制約の中で、局所特徴と大域特徴との両方を考慮し、画像を識別する技術を提供することによって、精度の高い識別を行うことができる。
実施形態1では、病理画像を例に説明を行った。しかし、画像は病理画像に限られない。例えば、画像として、航空画像を用い、航空画像について高精度な識別を行うようにしてもよい。上述した処理を実行することにより、航空画像についても精度の高い識別を行うことができる。
また、実施形態1では、情報処理システムは、サーバ装置100と、クライアント装置110と、を含む構成で説明した。しかし、例えば、サーバ装置100の機能をクライアント装置110が単特で有していてもよい。
前記情報処理装置であって、出力部を更に有し、前記出力部は、前記識別部による識別の結果を出力する、情報処理装置。
前記情報処理装置であって、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像が正常か、異常かを識別する、情報処理装置。
前記情報処理装置であって、前記出力部は、前記識別部によって正常と識別された部分画像及び前記識別部によって異常と識別された部分画像に色を付けた予測マップを前記識別の結果として出力する、情報処理装置。
前記情報処理装置であって、学習部を更に有し、前記学習部は、前記特徴抽出モデルと、前記セグメンテーションモデルと、を別々に学習する、情報処理装置。
前記情報処理装置であって、学習部を更に有し、前記学習部は、前記特徴抽出モデルから前記セグメンテーションモデルまでを一括で学習する、情報処理装置。
前記情報処理装置であって、前記画像は病理画像である、情報処理装置。
前記情報処理装置であって、前記画像は航空画像である、情報処理装置。
情報処理システムであって、切り出し部と、特徴量取得部と、生成部と、識別部と、出力部と、を有し、前記切り出し部は、画像から複数の部分画像を切り出し、前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像を識別し、前記出力部は、前記識別部による識別の結果を出力する、情報処理システム。
情報処理装置が実行する情報処理方法であって、第1の工程と、第2の工程と、第3の工程と、第4の工程と、を含み、前記第1の工程では、画像から複数の部分画像を切り出し、前記第2の工程では、前記第1の工程において切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記第3の工程では、前記第2の工程において取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記第4の工程では、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像に対する正常、異常を識別する、情報処理方法。
プログラムであって、コンピュータを、前記情報処理装置の各部として機能させるためのプログラム。
もちろん、この限りではない。
例えば、上述のプログラムを記憶する、コンピュータ読み取り可能な非一時的な記憶媒体として提供してもよい。
110 :クライアント装置
120 :ネットワーク
201 :制御部
202 :記憶部
203 :通信部
301 :切り出し部
302 :特徴量取得部
303 :生成部
304 :識別部
305 :出力部
306 :学習部
Claims (11)
- 情報処理装置であって、
切り出し部と、特徴量取得部と、生成部と、識別部と、を有し、
前記切り出し部は、画像から複数の部分画像を切り出し、
前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、前記複数の部分画像それぞれを識別する、
情報処理装置。 - 請求項1に記載の情報処理装置であって、
出力部を更に有し、
前記出力部は、前記識別部による識別の結果を出力する、
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像が正常か、異常かを識別する、
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記出力部は、前記識別部によって正常と識別された部分画像及び前記識別部によって異常と識別された部分画像に色を付けた予測マップを前記識別の結果として出力する、
情報処理装置。 - 請求項1乃至請求項4の何れか1項に記載の情報処理装置であって、
学習部を更に有し、
前記学習部は、前記特徴抽出モデルと、前記セグメンテーションモデルと、を別々に学習する、
情報処理装置。 - 請求項1乃至請求項4の何れか1項に記載の情報処理装置であって、
学習部を更に有し、
前記学習部は、前記特徴抽出モデルから前記セグメンテーションモデルまでを一括で学習する、
情報処理装置。 - 請求項1乃至請求項6の何れか1項に記載の情報処理装置であって、
前記画像は病理画像である、
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記画像は航空画像である、
情報処理装置。 - 情報処理システムであって、
切り出し部と、特徴量取得部と、生成部と、識別部と、出力部と、を有し、
前記切り出し部は、画像から複数の部分画像を切り出し、
前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像を識別し、
前記出力部は、前記識別部による識別の結果を出力する、
情報処理システム。 - 情報処理装置が実行する情報処理方法であって、
第1の工程と、第2の工程と、第3の工程と、第4の工程と、を含み、
前記第1の工程では、画像から複数の部分画像を切り出し、
前記第2の工程では、前記第1の工程において切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
前記第3の工程では、前記第2の工程において取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
前記第4の工程では、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像に対する正常、異常を識別する、
情報処理方法。 - プログラムであって、コンピュータを、請求項1乃至請求項8の何れか1項に記載の情報処理装置の各部として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019176544A JP2021056571A (ja) | 2019-09-27 | 2019-09-27 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
PCT/JP2020/034919 WO2021060076A1 (ja) | 2019-09-27 | 2020-09-15 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019176544A JP2021056571A (ja) | 2019-09-27 | 2019-09-27 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021056571A true JP2021056571A (ja) | 2021-04-08 |
Family
ID=75166983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019176544A Pending JP2021056571A (ja) | 2019-09-27 | 2019-09-27 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021056571A (ja) |
WO (1) | WO2021060076A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10740896B2 (en) * | 2017-12-29 | 2020-08-11 | Leica Biosystems Imaging, Inc. | Processing of histology images with a convolutional neural network to identify tumors |
JP6800901B2 (ja) * | 2018-03-06 | 2020-12-16 | 株式会社東芝 | 物体領域識別装置、物体領域識別方法およびプログラム |
US10321728B1 (en) * | 2018-04-20 | 2019-06-18 | Bodygram, Inc. | Systems and methods for full body measurements extraction |
-
2019
- 2019-09-27 JP JP2019176544A patent/JP2021056571A/ja active Pending
-
2020
- 2020-09-15 WO PCT/JP2020/034919 patent/WO2021060076A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021060076A1 (ja) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689038B (zh) | 神经网络模型的训练方法、装置和医学图像处理系统 | |
WO2020215984A1 (zh) | 基于深度学习的医学图像检测方法及相关设备 | |
US11200483B2 (en) | Machine learning method and apparatus based on weakly supervised learning | |
KR20210122855A (ko) | 검출 모델 훈련 방법과 장치, 컴퓨터 장치, 및 저장 매체 | |
KR102460257B1 (ko) | 진단 결과를 제공하기 위한 방법 및 장치 | |
CN111369542A (zh) | 血管标记方法、图像处理系统和存储介质 | |
CN109447096B (zh) | 一种基于机器学习的扫视路径预测方法和装置 | |
CN113096137B (zh) | 一种oct视网膜图像领域适应分割方法及系统 | |
JP2023533587A (ja) | モデルを訓練する訓練データセットの選択 | |
CN115115829A (zh) | 医疗图像的分割方法、装置、设备、存储介质及程序产品 | |
JP2024500938A (ja) | 医用画像における状態特徴の自動注釈付け | |
KR102179090B1 (ko) | 신경망을 이용한 의료 진단 방법 | |
CN110599444B (zh) | 预测血管树的血流储备分数的设备、系统以及非暂时性可读存储介质 | |
CN114782394A (zh) | 一种基于多模态融合网络的白内障术后视力预测系统 | |
US20220351863A1 (en) | Method and System for Disease Quantification of Anatomical Structures | |
Kuş et al. | Evolutionary Architecture Optimization for Retinal Vessel Segmentation | |
US20220026514A1 (en) | Mri reconstruction with image domain optimization | |
WO2021060076A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
US20220130065A1 (en) | Method for analyzing thickness of cortical region | |
WO2023274599A1 (en) | Methods and systems for automated follow-up reading of medical image data | |
JP7261884B2 (ja) | 学習装置、方法およびプログラム、グラフ構造抽出装置、方法およびプログラム、並びに学習済み抽出モデル | |
EP3864620B1 (en) | Correcting segmentation of medical images using a statistical analysis of historic corrections | |
CN117616467A (zh) | 训练并使用深度学习算法来基于降维表示比较医学图像的方法 | |
WO2021191438A1 (en) | Determining image similarity by analysing registrations | |
JP2021064174A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240423 |