JP7294017B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP7294017B2 JP7294017B2 JP2019167656A JP2019167656A JP7294017B2 JP 7294017 B2 JP7294017 B2 JP 7294017B2 JP 2019167656 A JP2019167656 A JP 2019167656A JP 2019167656 A JP2019167656 A JP 2019167656A JP 7294017 B2 JP7294017 B2 JP 7294017B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- variable
- information processing
- threshold
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/499—Denomination or exception handling, e.g. rounding or overflow
- G06F7/49942—Significance control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Description
量子化誤差=|(a1・b1+a2・b2)-(a3・b1+a3・b2)|+|(a10・b10+a11・b11)-(a9・b10+a9・b11)| ‥(1)
式(1)において、"|"は絶対値を示し、"・"は、積を示す。第1項および第2項の差分の絶対値は、飽和誤差を示し、第3項および第4項の差分の絶対値は、丸め誤差を示す。そして、例えば、算出された量子化誤差の層毎の平均値が算出され、量子化誤差の平均値が、閾値と比較する量子化誤差に決定される。なお、例えば、算出された量子化誤差の層毎の最大値または分散が算出され、算出された最大値または分散が、閾値と比較する量子化誤差に決定されてもよい。
(付記1)
プロセッサを有する情報処理装置であって、
前記プロセッサが、
ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成された前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうち、量子化する変数を決定し、
決定されたデータ型の変数を使用して、前記ニューラルネットワークの計算を実行する、情報処理装置。
(付記2)
前記プロセッサは、複数の計算サイクルに分けて、前記ニューラルネットワークの計算を実行し、
前記ニューラルネットワークの計算を実行するステップは、前記複数の計算サイクルの各々において、
量子化する変数を決定する型決定期間に、1つ前の前記計算サイクルで決定したデータ型の変数を使用して前記ニューラルネットワークの計算を実行し、
前記型決定期間後の計算実行期間に、前記決定されたデータ型の変数を使用して、前記ニューラルネットワークの計算を実行する、付記1に記載の情報処理装置。
(付記3)
前記量子化誤差を算出するステップ、前記閾値を生成するステップおよび前記量子化する変数を決定するステップは、前記型決定期間に実行され、前記計算実行期間には実行されない、付記2に記載の情報処理装置。
(付記4)
前記閾値を生成するステップは、
前記参照情報で示される前記第1の認識率と前記第2の認識率との第1の差分を算出し、
算出された前記第1の差分に基づいて前記閾値の更新量を生成し、
生成された前記更新量と現在の前記閾値とに基づいて、更新後の閾値を算出する、付記1ないし付記3のいずれか1項に記載の情報処理装置。
(付記5)
前記閾値を生成するステップは、1つの前記閾値を生成し、
前記量子化する変数を決定するステップは、生成された共通の前記閾値に基づいて、全ての変数のうち、量子化する変数を決定する、付記1ないし付記4のいずれか1項に記載の情報処理装置。
(付記6)
前記閾値を生成するステップは、変数の種類毎に前記閾値を生成し、
前記量子化する変数を決定するステップは、生成された種類別の前記閾値に基づいて、変数の種類毎に量子化する変数を決定する、付記1ないし付記4のいずれか1項に記載の情報処理装置。
(付記7)
前記量子化する変数を決定するステップは、前記ニューラルネットワークで使用する複数の変数のうち、第1の変数のデータ型を前記量子化誤差と前記閾値とに基づいて決定し、前記第1の変数を除く第2の変数のデータ型を固定小数点型に固定する、付記1ないし付記6のいずれか1項に記載の情報処理装置。
(付記8)
前記量子化誤差を算出するステップは、前記ニューラルネットワークに含まれる複数の層毎に、各層で使用される変数の前記量子化誤差を算出する、付記1ないし付記7のいずれか1項に記載の情報処理装置。
(付記9)
前記量子化する変数を決定するステップは、前記算出された前記量子化誤差と前記生成された前記閾値とに基づいて、各層で使用される変数単位で量子化する変数を決定する、付記8に記載の情報処理装置。
(付記10)
前記ニューラルネットワークの計算を実行するステップは、前記決定されたデータ型の変数を使用して、前記ニューラルネットワークの学習を実行する、付記1ないし付記9のいずれか1項に記載の情報処理装置。
(付記11)
前記変数は、重み、活性および勾配を含む、付記10に記載の情報処理装置。
(付記12)
前記ニューラルネットワークの計算を実行するステップは、前記決定されたデータ型の変数を使用して、前記ニューラルネットワークによる推論を実行する、付記1ないし付記9のいずれか1項に記載の情報処理装置。
(付記13)
前記ニューラルネットワークの計算により算出された変数の統計情報を取得し、
前記量子化誤差を算出するステップは、取得された前記統計情報に基づいて、変数の量子化後のビット範囲を決定し、決定した前記ビット範囲にしたがって前記量子化誤差を算出する、付記1ないし付記12のいずれか1項に記載の情報処理装置。
(付記14)
前記変数の前記統計情報を取得するステップは、前記ニューラルネットワークの計算により算出された変数の最上位ビットの分布を前記統計情報として取得し、
前記量子化誤差を算出するステップは、前記取得された前記統計情報の分布に基づいて、前記ビット範囲を決定する、付記13に記載の情報処理装置。
(付記15)
ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成された前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうち、量子化する変数を決定し、
決定されたデータ型の変数を使用して、前記ニューラルネットワークの計算を実行する、処理を情報処理装置が有するプロセッサに実行させる情報処理方法。
(付記16)
ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成した前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうち、量子化する変数を決定し、
決定されたデータ型の変数を使用して、前記ニューラルネットワークの計算を実行する、処理を情報処理装置が有するプロセッサに実行させる情報処理プログラム。
11 統計情報取得部
12 量子化誤差算出部
14、14A 閾値決定部
16 データ型決定部
20 メモリ
30 アクセラレータ
40 通信バス
50 補助記憶装置
60 通信インタフェース
70 入出力インタフェース
80 記録媒体
100、100A 情報処理装置
Claims (13)
- プロセッサを有する情報処理装置であって、
前記プロセッサが、
ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成された前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうちの量子化する第1の変数と、データ型とを決定し、
前記第1の変数を前記データ型で示した第2の変数を使用して、前記ニューラルネットワークの計算を実行する、情報処理装置。 - 前記プロセッサは、複数の計算サイクルに分けて、前記ニューラルネットワークの計算を実行し、
前記ニューラルネットワークの計算を実行するステップは、前記複数の計算サイクルの各々において、
量子化する前記第1の変数を決定する型決定期間に、1つ前の前記計算サイクルで決定したデータ型で示された前記第2の変数を使用して前記ニューラルネットワークの計算を実行し、
前記型決定期間後の計算実行期間に、前記第1の変数を前記決定されたデータ型で示した前記第2の変数を使用して、前記ニューラルネットワークの計算を実行する、請求項1に記載の情報処理装置。 - 前記量子化誤差を算出するステップ、前記閾値を生成するステップおよび前記量子化する前記第1の変数を決定するステップは、前記型決定期間に実行され、前記計算実行期間には実行されない、請求項2に記載の情報処理装置。
- 前記閾値を生成するステップは、
前記参照情報で示される前記第1の認識率と前記第2の認識率との第1の差分を算出し、
算出された前記第1の差分に基づいて前記閾値の更新量を生成し、
生成された前記更新量と現在の前記閾値とに基づいて、更新後の閾値を算出する、請求項1ないし請求項3のいずれか1項に記載の情報処理装置。 - 前記閾値を生成するステップは、1つの前記閾値を前記計算に使用する変数に共通に生成し、
前記量子化する変数を決定するステップは、生成された共通の前記閾値に基づいて、前記計算に使用する変数のうちの量子化する前記第1の変数を決定する、請求項1ないし請求項4のいずれか1項に記載の情報処理装置。 - 前記閾値を生成するステップは、変数の種類毎に前記閾値を生成し、
前記量子化する変数を決定するステップは、生成された種類別の前記閾値に基づいて、変数の種類毎に量子化する変数を決定する、請求項1ないし請求項4のいずれか1項に記載の情報処理装置。 - 前記量子化する前記第1の変数を決定するステップは、前記ニューラルネットワークで使用する複数の変数のうち、前記第1の変数を量子化するデータ型を前記量子化誤差と前記閾値とに基づいて決定し、前記第1の変数を除く変数のデータ型を固定小数点型に固定する、請求項1ないし請求項6のいずれか1項に記載の情報処理装置。
- 前記量子化誤差を算出するステップは、前記ニューラルネットワークに含まれる複数の層毎に、各層で使用される変数の前記量子化誤差を算出する、請求項1ないし請求項7のいずれか1項に記載の情報処理装置。
- 前記量子化する変数を決定するステップは、前記算出された前記量子化誤差と前記生成された前記閾値とに基づいて、各層で使用される変数単位で量子化する変数を決定する、請求項8に記載の情報処理装置。
- 前記ニューラルネットワークの計算を実行するステップは、前記決定されたデータ型で示した前記第2の変数を使用して、前記ニューラルネットワークの学習を実行する、請求項1ないし請求項9のいずれか1項に記載の情報処理装置。
- 前記ニューラルネットワークの計算を実行するステップは、前記決定されたデータ型で示した前記第2の変数を使用して、前記ニューラルネットワークによる推論を実行する、請求項1ないし請求項9のいずれか1項に記載の情報処理装置。
- ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成された前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうちの量子化する第1の変数と、データ型とを決定し、
前記第1の変数を前記データ型で示した第2の変数を使用して、前記ニューラルネットワークの計算を実行する、処理を情報処理装置が有するプロセッサに実行させる情報処理方法。 - ニューラルネットワークで使用する変数を量子化する場合の量子化誤差を算出し、
前記ニューラルネットワークの過去の学習により得られた第1の認識率に関する参照情報と、前記ニューラルネットワークの計算により得られる第2の認識率とに基づいて、閾値を生成し、
算出された前記量子化誤差と、生成した前記閾値とに基づいて、前記ニューラルネットワークの計算に使用する変数のうちの量子化する第1の変数と、データ型とを決定し、
前記第1の変数を前記データ型で示した第2の変数を使用して、前記ニューラルネットワークの計算を実行する、処理を情報処理装置が有するプロセッサに実行させる情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167656A JP7294017B2 (ja) | 2019-09-13 | 2019-09-13 | 情報処理装置、情報処理方法および情報処理プログラム |
EP20190867.0A EP3792748A1 (en) | 2019-09-13 | 2020-08-13 | Information processing device and method, and program |
US16/997,989 US11809995B2 (en) | 2019-09-13 | 2020-08-20 | Information processing device and method, and recording medium for determining a variable data type for a neural network |
CN202010921272.0A CN112508167A (zh) | 2019-09-13 | 2020-09-04 | 信息处理装置和方法以及记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167656A JP7294017B2 (ja) | 2019-09-13 | 2019-09-13 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043905A JP2021043905A (ja) | 2021-03-18 |
JP7294017B2 true JP7294017B2 (ja) | 2023-06-20 |
Family
ID=72087877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019167656A Active JP7294017B2 (ja) | 2019-09-13 | 2019-09-13 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11809995B2 (ja) |
EP (1) | EP3792748A1 (ja) |
JP (1) | JP7294017B2 (ja) |
CN (1) | CN112508167A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230000686A (ko) * | 2021-06-25 | 2023-01-03 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
JP2023069780A (ja) * | 2021-11-08 | 2023-05-18 | 富士通株式会社 | 演算プログラム、演算方法及び計算機 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6528893B1 (ja) | 2018-11-07 | 2019-06-12 | 富士通株式会社 | 学習プログラム、学習方法、情報処理装置 |
US20190236436A1 (en) | 2017-11-03 | 2019-08-01 | Imagination Technologies Limited | Hierarchical Mantissa Bit Length Selection for Hardware Implementation of Deep Neural Network |
JP2019139338A (ja) | 2018-02-07 | 2019-08-22 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019148896A (ja) | 2018-02-26 | 2019-09-05 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142867A (ja) | 1999-11-17 | 2001-05-25 | Matsushita Electric Ind Co Ltd | 学習型認識判断装置 |
JP5231839B2 (ja) | 2008-03-11 | 2013-07-10 | 株式会社東芝 | パターン認識装置及びその方法 |
CN104461459B (zh) * | 2013-09-23 | 2017-04-19 | 富士通株式会社 | 定点化处理方法及其装置 |
US10229356B1 (en) * | 2014-12-23 | 2019-03-12 | Amazon Technologies, Inc. | Error tolerant neural network model compression |
US10373050B2 (en) * | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
CN108345939B (zh) * | 2017-01-25 | 2022-05-24 | 微软技术许可有限责任公司 | 基于定点运算的神经网络 |
CN115841137A (zh) * | 2017-06-06 | 2023-03-24 | 格兰菲智能科技有限公司 | 一种用于对待量化数据进行定点化处理的方法及计算装置 |
KR102564456B1 (ko) * | 2017-10-19 | 2023-08-07 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터를 양자화하는 장치 및 방법 |
GB2568083B (en) * | 2017-11-03 | 2021-06-02 | Imagination Tech Ltd | Histogram-based per-layer data format selection for hardware implementation of deep neutral network |
CN109800865B (zh) * | 2019-01-24 | 2021-03-23 | 北京市商汤科技开发有限公司 | 神经网络生成及图像处理方法和装置、平台、电子设备 |
CN109800877B (zh) * | 2019-02-20 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 神经网络的参数调整方法、装置及设备 |
US20200302299A1 (en) * | 2019-03-22 | 2020-09-24 | Qualcomm Incorporated | Systems and Methods of Cross Layer Rescaling for Improved Quantization Performance |
US20220129759A1 (en) * | 2019-06-26 | 2022-04-28 | Intel Corporation | Universal Loss-Error-Aware Quantization for Deep Neural Networks with Flexible Ultra-Low-Bit Weights and Activations |
US11494657B2 (en) * | 2019-07-30 | 2022-11-08 | Perceive Corporation | Quantizing neural networks using approximate quantization function |
-
2019
- 2019-09-13 JP JP2019167656A patent/JP7294017B2/ja active Active
-
2020
- 2020-08-13 EP EP20190867.0A patent/EP3792748A1/en active Pending
- 2020-08-20 US US16/997,989 patent/US11809995B2/en active Active
- 2020-09-04 CN CN202010921272.0A patent/CN112508167A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190236436A1 (en) | 2017-11-03 | 2019-08-01 | Imagination Technologies Limited | Hierarchical Mantissa Bit Length Selection for Hardware Implementation of Deep Neural Network |
JP2019139338A (ja) | 2018-02-07 | 2019-08-22 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019148896A (ja) | 2018-02-26 | 2019-09-05 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
JP6528893B1 (ja) | 2018-11-07 | 2019-06-12 | 富士通株式会社 | 学習プログラム、学習方法、情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210081802A1 (en) | 2021-03-18 |
CN112508167A (zh) | 2021-03-16 |
JP2021043905A (ja) | 2021-03-18 |
EP3792748A1 (en) | 2021-03-17 |
US11809995B2 (en) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI791610B (zh) | 對人工神經網路及浮點神經網路進行量化的方法及裝置 | |
CN110555450B (zh) | 人脸识别神经网络调整方法和装置 | |
JP2019164793A5 (ja) | ||
KR20200004700A (ko) | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
TW201933193A (zh) | 對人工神經網路進行量化的方法及裝置及對浮點神經網路進行量化的方法 | |
US20190244097A1 (en) | Information processing apparatus and information processing method | |
JP7294017B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN109697048B (zh) | 在神经网络中生成随机性 | |
JP6528884B1 (ja) | 学習プログラム、学習方法、及び情報処理装置 | |
JP7272121B2 (ja) | 演算処理装置、制御方法、及び制御プログラム | |
US20210097397A1 (en) | Information processing apparatus and information processing method | |
JP7322620B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US20210216867A1 (en) | Information processing apparatus, neural network computation program, and neural network computation method | |
US11410036B2 (en) | Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program | |
JP7036224B2 (ja) | 演算処理装置及び演算処理装置の制御方法 | |
EP3742283A1 (en) | Arithmetic processing device, method for controlling arithmetic processing device, and program for controlling arithmetic processing device | |
JP7371499B2 (ja) | 演算処理装置、演算処理装置の制御方法及び演算処理プログラム | |
JP2021140493A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2023069780A (ja) | 演算プログラム、演算方法及び計算機 | |
JP2023174473A (ja) | 深層学習ネットワーク用の最適化方法及びコンピュータ装置、及びコンピュータ可読記憶媒体 | |
CN112508165A (zh) | 用于信息处理的设备、方法及非暂态计算机可读存储介质 | |
JP2021124849A (ja) | 演算処理装置、演算処理装置の制御方法及び演算処理プログラム | |
JP2022141513A (ja) | 演算装置、共通演算設定装置、演算方法、共通演算設定方法およびプログラム | |
CN111831251A (zh) | 信息处理设备、信息处理方法及记录介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7294017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |