JP2022135701A - 学習装置、方法およびプログラム - Google Patents
学習装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2022135701A JP2022135701A JP2021035666A JP2021035666A JP2022135701A JP 2022135701 A JP2022135701 A JP 2022135701A JP 2021035666 A JP2021035666 A JP 2021035666A JP 2021035666 A JP2021035666 A JP 2021035666A JP 2022135701 A JP2022135701 A JP 2022135701A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- target
- resolutions
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims description 48
- 238000010606 normalization Methods 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 24
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000005070 sampling Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000011176 pooling Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
しかし、上述の技術では、どのようなバリエーションで学習すべきかについての指針がなく、当該バリエーションの選定が難しい。また、搭載するデバイスの使用に特化して学習しているわけではないため、推論精度が十分でない場合がある。
本実施形態に係るモデル提供システム1は、学習装置10と1以上の対象デバイス21とを含む。
学習装置10は、ネットワーク50を介して対象デバイス21-1および対象デバイス21-2と接続される。対象デバイス21は、例えば路上または工場などに配備される監視カメラまたはユーザが利用するIoT機器といった、学習済みモデルを搭載して処理を実行可能なエッジデバイスを想定する。
なお、図1では2つの対象デバイス21を図示するが、1つの対象デバイス21であってもよいし、3以上の対象デバイス21が存在してもよい。以下では、特に断らない限り、対象デバイス21が1つであるか、複数の対象デバイス21が存在する場合でも、複数の対象デバイス21が同一の仕様を有する場合について説明する。
取得部101は、学習済みモデルの提供先である対象デバイス21に関するデバイス情報を取得する。
学習部103は、取得部101から学習用データセットを、決定部102からそれぞれ異なる複数のデータ解像度に関する情報をそれぞれ受け取る。学習部103は、異なるデータ解像度にそれぞれ対応する学習サンプルを含む学習用データセットを用いて、スケーラブルネットワークを学習させ、学習済みモデルを生成する。スケーラブルネットワークは、少なくとも入力データのデータ解像度(サイズ)を変更可能なニューラルネットワークである。
図2Aは、対象データが画像データである場合の複数のデータ解像度の概念を示す。対象データが画像データであれば、画像サイズがデータ解像度となる「1枚の画像」という単位当たりの縦横の画像サイズ(ピクセル数)を異ならせることで、画像データの解像度を変更できる。図2Aでは、104×104[pixel]、128×128[pixel]および152×152[pixel]と3つの異なる画像サイズが示される。一般にピクセル数が多いほど画像の解像度は高くなり、ピクセル数が少ないほど画像の解像度は低いといえる。
なお、本実施形態では、対象データが画像データおよび時系列データに限らず、データ解像度が定義可能な等間隔にサンプリングされたデータであれば、対象データとして採用できる。
yij=f(w→ j,x→ ij)・・・(1)
Lij=-tiln(yij+e)-(1-ti)ln(1-yij+e)・・・(2)
L=Σj{ajΣLij}・・・(3)
fは、パラメータ集合w→ jを保持するニューラルネットワークの関数である。ニューラルネットワークでは、畳み込み層、全結合層、正規化層、プーリング層などの処理を繰り返す。スケーラブルネットワークは、入力される画像サイズに応じて層数が変化するため、層数に応じてパラメータ数なども変化する。よって、パラメータ集合w→ jには、入力される画像サイズとニューラルネットワークの層数との組み合わせであるjが添え字として与えられる。
関数fの最後には、出力層に相当するシグモイド関数が含まれ、出力yijの値域を0から1までに制限する。
なお、教示データtiとの学習誤差Lijに関するミニバッチ学習に限らず、例えば、異なるネットワーク構造を有する2つのスケーラブルネットワーク間の誤差を学習する、いわゆる蒸留を行なってもよい。例えば、出力yijと出力yij’(j<j’)とのバイナリークロスエントロピーを誤差として反復学習すればよい。
反復学習の終了条件を満たすと判定される場合は学習を終了し、反復学習の終了条件を満たさない場合はステップS304に戻り、同様の処理を繰り返す。
例えば、スケーラブルネットワークの基本構造の決定方法として、対象デバイス21に搭載される処理回路のFLOPSをデバイス情報として取得し、決定部102が、対象デバイス21の処理時間またはフレームレートの仕様にあわせて基本構造を決定してもよい。具体的には、1秒間に10枚の画像を撮影し、撮影した画像ごとに学習済みモデルによる推論を実行するような状況を想定すると、例えば、撮影のフレームレート(単位時間当たり0.1秒)にあわせ目一杯の推論時間で実行可能な学習済みモデルであれば、対象デバイス21の仕様にあわせて推論精度を最大限確保した学習済みモデルを提供できる。
例えば、対象物の対象デバイス21に含まれるカメラとの距離または空間的位置関係、対象物の実際のサイズ、カメラの画角などから把握できる情報に基づいて、対象デバイス21全体で取得する画像から対象物の領域に対応する画像サイズが決定されてもよい。
図4は、本実施形態に係るスケーラブルネットワークとして採用するResNetの残差ブロックに関する概念図である。本実施形態では、残差ブロック41は、第1処理ブロック411と第2処理ブロック412との2つの処理ブロックの組である。第1処理ブロック411および第2処理ブロック412はそれぞれ、バッチ正規化(Batch Normalization)層、ReLU(Rectified Linear Unit)層、3×3のカーネルサイズによる畳み込み層を含む。残差ブロック41では、入力データに対して、第1処理ブロック411の各層で処理が実行され、第1処理ブロック411からの出力を入力として、第2処理ブロック412で畳み込み処理が行われる。第2処理ブロック412からの出力と、ショートカット接続による入力データとを加算したデータが残差ブロック41からの出力となる。
図5に示すスケーラブルネットワークでは、第1段53、第2段54および第3段55の残差ブロックの処理段を含み、各処理段は、同一の画像サイズについて処理する1以上の残差ブロック41が含まれる。ここで、nの数は、第1段53、第2段54および第3段55の処理段それぞれにおける、残差ブロック41の数を表す。つまり、ここでは第1段53から第3段55のそれぞれの処理段に、6つの残差ブロック41が含まれる。
図5では、入力画像51が128×128[pixel]の3チャネルとする。
畳み込み層52は、3×3のカーネルサイズによる畳み込み処理を行う層である。入力画像51が畳み込み層52に入力され、畳み込み処理されることで、チャネル数が3[ch]から16[ch]に増やされる。
横軸は、1つの画像を推論(処理)するのにかかる乗算数であり、計算コストと同義である。乗算数が少ないほど、つまり値が小さいほど推論能力が優れることを示す。縦軸は、テスト用サンプルの正解率を示し、推論精度と同義である。
例えば、決定部102は、各対象デバイスの基本構造を上述の方法で決定し、複数の対象デバイスのうちの最小の基本構造および最大の基本構造を決定し、最小の基本構造および最大の基本構造がカバーされる範囲で、画像サイズと層数との組み合わせをM個選択すればよい。
学習装置10は、CPU(Central Processing Unit)81と、RAM(Random Access Memory)82と、ROM(Read Only Memory)83と、ストレージ84と、表示装置85と、入力装置86と、通信装置87とを含み、それぞれバスにより接続される。
入力装置86は、マウスおよびキーボード等の入力デバイスである。入力装置86は、ユーザから操作入力された情報を指示信号として受け付け、指示信号をCPU81に出力する。
通信装置87は、CPU81からの制御に応じて外部機器とネットワークを介して通信する。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (15)
- 対象デバイスで取得する対象データに関する単位当たりの情報量を示すデータ解像度を基準として、前記対象データのデータ解像度を含む範囲で、それぞれ異なる複数のデータ解像度を決定する決定部と、
前記複数のデータ解像度にそれぞれ対応する学習サンプルを用いて、入力データのデータ解像度を変更可能なニューラルネットワークであるスケーラブルネットワークを学習させる学習部と、
を具備する学習装置。 - 前記決定部は、前記対象データのデータ解像度に対応する前記スケーラブルネットワークの構造を基本構造として決定し、前記基本構造における層数を基準として、データ解像度に比例して前記スケーラブルネットワークの層数を決定する、請求項1に記載の学習装置。
- 前記決定部は、前記対象デバイスのスペックに基づいて前記基本構造を決定し、前記層数を変更した場合の畳み込み処理における受容野の変化に応じて、前記複数のデータ解像度を決定する、請求項2に記載の学習装置。
- 前記スペックは、前記対象デバイスに搭載されるメモリのメモリ容量、前記対象デバイスに搭載される処理回路の処理能力、および前記対象デバイスの消費電力の少なくともいずれか1つである、請求項3に記載の学習装置。
- 学習済みのスケーラブルネットワークであって、前記対象データのデータ解像度に対応する前記スケーラブルネットワークの構造である基本構造に関する学習済みモデルを前記対象デバイスに提供する提供部をさらに具備する、請求項1から請求項4のいずれか1項に記載の学習装置。
- 前記学習部は、データ解像度に比例して、層数、チャネル数および畳み込み処理におけるカーネルサイズの少なくとも1つをさらに変更して前記スケーラブルネットワークを学習させる、請求項1から請求項5のいずれか1項に記載の学習装置。
- 前記対象データは、画像データであり、
前記異なる複数のデータ解像度は、それぞれ異なる複数の画像サイズであり、
前記決定部は、前記画像データに含まれる対象物のサイズから、前記異なる複数の画像サイズを決定する、請求項1から請求項6のいずれかに記載の学習装置。 - 前記決定部は、教示データに含まれるラベルまたは物体検出に関するバウンディングボックスに関する情報から前記対象物の画像サイズを決定する、請求項7に記載の学習装置。
- 前記決定部は、前記対象物と前記対象デバイスとの空間的位置関係から前記対象物の画像サイズを決定する、請求項7に記載の学習装置。
- 前記決定部は、他の学習済みモデルに対し前記画像データを入力して得られた分類結果と顕著性マップとを用いて、前記対象物の画像サイズを決定する、請求項7に記載の学習装置。
- 前記学習部は、前記異なる複数のデータ解像度に対応する複数の学習サンプルを1つのバッチに割り当て、前記スケーラブルネットワークをミニバッチ学習する、請求項1から請求項10のいずれか1項に記載の学習装置。
- 前記学習部は、前記複数のデータ解像度のそれぞれに対するネットワーク構造において個別の正規化層を用いる、請求項1から請求項11のいずれか1項に記載の学習装置。
- 前記決定部は、複数の対象デバイスが存在する場合、前記複数の対象デバイスそれぞれで取得される対象データのデータ解像度が含まれるように前記異なる複数のデータ解像度を決定する、請求項1から請求項12のいずれか1項に記載の学習装置。
- 対象デバイスで取得する対象データに関する単位当たりの情報量を示すデータ解像度を基準として、前記対象データのデータ解像度を含む範囲で、それぞれ異なる複数のデータ解像度を決定し、
前記複数のデータ解像度にそれぞれ対応する学習サンプルを用いて、入力データのデータ解像度を変更可能なニューラルネットワークであるスケーラブルネットワークを学習させる、学習方法。 - コンピュータを、
対象デバイスで取得する対象データに関する単位当たりの情報量を示すデータ解像度を基準として、前記対象データのデータ解像度を含む範囲で、それぞれ異なる複数のデータ解像度を決定する決定手段と、
前記複数のデータ解像度にそれぞれ対応する学習サンプルを用いて、入力データのデータ解像度を変更可能なニューラルネットワークであるスケーラブルネットワークを学習させる学習手段として機能させるための学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035666A JP2022135701A (ja) | 2021-03-05 | 2021-03-05 | 学習装置、方法およびプログラム |
US17/461,082 US20220284238A1 (en) | 2021-03-05 | 2021-08-30 | Learning apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035666A JP2022135701A (ja) | 2021-03-05 | 2021-03-05 | 学習装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022135701A true JP2022135701A (ja) | 2022-09-15 |
Family
ID=83117256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035666A Pending JP2022135701A (ja) | 2021-03-05 | 2021-03-05 | 学習装置、方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220284238A1 (ja) |
JP (1) | JP2022135701A (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018213841A1 (en) * | 2017-05-19 | 2018-11-22 | Google Llc | Multi-task multi-modal machine learning model |
US10019654B1 (en) * | 2017-06-28 | 2018-07-10 | Accenture Global Solutions Limited | Image object recognition |
US10768628B2 (en) * | 2017-12-12 | 2020-09-08 | Uatc, Llc | Systems and methods for object detection at various ranges using multiple range imagery |
US10936922B2 (en) * | 2018-06-20 | 2021-03-02 | Zoox, Inc. | Machine learning techniques |
KR20190110965A (ko) * | 2019-09-11 | 2019-10-01 | 엘지전자 주식회사 | 이미지 해상도를 향상시키기 위한 방법 및 장치 |
US11610129B2 (en) * | 2020-06-08 | 2023-03-21 | Robert Bosch Gmbh | System and method for multiscale deep equilibrium models |
-
2021
- 2021-03-05 JP JP2021035666A patent/JP2022135701A/ja active Pending
- 2021-08-30 US US17/461,082 patent/US20220284238A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220284238A1 (en) | 2022-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220108178A1 (en) | Neural network method and apparatus | |
US11836603B2 (en) | Neural network method and apparatus with parameter quantization | |
US20220004935A1 (en) | Ensemble learning for deep feature defect detection | |
TW201947464A (zh) | 用於離散化深度神經網路的量化的連續鬆弛 | |
KR20200086581A (ko) | 뉴럴 네트워크 양자화를 위한 방법 및 장치 | |
US20190164057A1 (en) | Mapping and quantification of influence of neural network features for explainable artificial intelligence | |
JP7196218B2 (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム | |
US11681913B2 (en) | Method and system with neural network model updating | |
KR20200144398A (ko) | 클래스 증가 학습을 수행하는 장치 및 그의 동작 방법 | |
JP7226696B2 (ja) | 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 | |
WO2022012668A1 (zh) | 一种训练集处理方法和装置 | |
Zhang et al. | Hierarchical multi-view aggregation network for sensor-based human activity recognition | |
US11989931B2 (en) | Method and apparatus with object classification | |
JP5311899B2 (ja) | パターン検出器の学習装置、学習方法及びプログラム | |
TW202314560A (zh) | 裝置結構模擬設備以及建立預測目標裝置的結構的模型的方法 | |
CN112420125A (zh) | 分子属性预测方法、装置、智能设备和终端 | |
Jaramillo-Avila et al. | Foveated image processing for faster object detection and recognition in embedded systems using deep convolutional neural networks | |
US20220114453A1 (en) | Method and apparatus with neural network pruning | |
CN112529025A (zh) | 一种数据处理方法及装置 | |
US20210303972A1 (en) | Method and apparatus with neural network quantization | |
CN110889290B (zh) | 文本编码方法和设备、文本编码有效性检验方法和设备 | |
EP4181055A1 (en) | Method and apparatus with image deblurring | |
JP2022135701A (ja) | 学習装置、方法およびプログラム | |
US20230090616A1 (en) | Learning system, apparatus and method | |
Kovács et al. | Object detection on TPU accelerated embedded devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |