JP6886747B2 - ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム - Google Patents
ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム Download PDFInfo
- Publication number
- JP6886747B2 JP6886747B2 JP2020504046A JP2020504046A JP6886747B2 JP 6886747 B2 JP6886747 B2 JP 6886747B2 JP 2020504046 A JP2020504046 A JP 2020504046A JP 2020504046 A JP2020504046 A JP 2020504046A JP 6886747 B2 JP6886747 B2 JP 6886747B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- output
- neural network
- quantization process
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 157
- 238000013528 artificial neural network Methods 0.000 title claims description 65
- 238000003672 processing method Methods 0.000 title claims description 20
- 238000004364 calculation method Methods 0.000 claims description 112
- 238000000034 method Methods 0.000 claims description 112
- 230000008569 process Effects 0.000 claims description 112
- 238000013139 quantization Methods 0.000 claims description 103
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 230000007423 decrease Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 86
- 239000000872 buffer Substances 0.000 description 62
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 6
- 238000011002 quantification Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Description
[CNN処理装置の概要]
本発明に係るニューラルネットワーク処理装置は、ニューラルネットワークとしてCNNを用いたCNN処理装置1である。
上述したCNN処理装置1は、入力バッファ(第1メモリ)10、重みバッファ(第2メモリ)11、畳み込み演算部(演算部)12、演算結果バッファ13、処理部14、出力バッファ15、および記憶部(第3メモリ)16を備える。
次に、上述した機能を有するCNN処理装置1のハードウェア構成の例について図2のブロック図を用いて説明する。
次に、上述した構成を有するCNN処理装置1の動作の概要について図3を参照して説明する。まず、入力バッファ10および重みバッファ11は、CNN処理装置1の外部に設置されたサーバなどから与えられた入力信号Aおよび重みUをそれぞれ一時的に記憶する(ステップS1、ステップS2)。
次に、上述した構成を有するCNN処理装置1の具体的な例として、本発明の第1の実施の形態に係るCNN処理装置1について説明する。図4は、CNN処理装置1の処理部14の機能構成を示すブロック図である。CNN処理装置1のその他の構成は、図1で説明した構成と同様である。また、図5は、テーブル160のデータ構造を説明する図である。図6は、処理部14による変換−量子化処理を説明する図である。
処理部14は、入力判定部140および出力取得部141を備える。
入力判定部140は、畳み込み演算の演算結果を演算結果バッファ13から読み出して、予め設定されている変換−量子化処理の各入力区間との比較を行い、畳み込み演算の演算結果、すなわち変換−量子化処理の入力の値が含まれる入力区間を判定する。
次に、上述した入力判定部140を有する本実施の形態に係るCNN処理装置1の動作について図3を参照して説明する。なお、本実施の形態に係るCNN処理方法において、ステップS1からステップS4まではCNN処理方法の概要で説明した処理と同様である。
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
処理部14は、出力取得部141および閾値処理部142を備える。
閾値処理部142は、畳み込み演算の演算結果を演算結果バッファ13から読み出して、変換−量子化処理の入力に対して予め設定されている閾値との比較を行う。
次に、上述した閾値処理部142を有する本実施の形態に係るCNN処理装置1の動作について図9を参照して説明する。なお、本実施の形態に係るCNN処理方法において、ステップS1からステップS4までは図3のCNN処理方法の概要で説明した処理と同様である。
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
処理部14は、入力判定部140、出力取得部141、および閾値処理部(第2閾値処理部)142を備える。
入力判定部140は、変換−量子化処理の出力が単調増加する入力の区間と、単調減少する入力の区間とを識別する分割情報に基づいて、前記演算部による畳み込み演算の演算結果Xの属する前記変換−量子化処理の入力の区間を判定する。
次に、上述した構成を有する本実施の形態に係るCNN処理装置1の動作について図12を参照して説明する。なお、本実施の形態に係るCNN処理方法において、ステップS1からステップS4までは、図3のCNN処理方法の概要で説明した処理と同様である。
Claims (9)
- ニューラルネットワークに与えられる入力信号を記憶する第1メモリと、
前記ニューラルネットワークの重みを記憶する第2メモリと、
前記入力信号と前記重みとの積和演算を含む前記ニューラルネットワークの畳み込み演算を行う演算部と、
入力された値に対して予め規定されている条件に基づいて正規化を含む変換をし、変換したデータのビット精度を前記入力された値よりも削減して量子化する変換−量子化処理の結果を出力としたとき、前記変換−量子化処理の入力と出力とを互いに関連付けたテーブルを記憶する第3メモリと、
前記演算部による畳み込み演算の演算結果を入力として、前記テーブルを参照して、前記演算結果に対応する前記変換−量子化処理の出力を取得する処理部と
を備えることを特徴とするニューラルネットワーク処理装置。 - 請求項1に記載のニューラルネットワーク処理装置において、
前記テーブルは、前記変換−量子化処理の入力を連続する複数の区間に分割した複数の入力区間と、前記変換−量子化処理の出力とを互いに関連付け、
前記処理部は、
前記演算部による畳み込み演算の演算結果と前記複数の入力区間とをそれぞれ比較して、前記演算結果が含まれる入力区間を判定する入力判定部と、
前記テーブルを参照して、前記入力判定部による判定結果に応じた入力区間に対応する前記変換−量子化処理の出力を取得する出力取得部と、
を有する
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1に記載のニューラルネットワーク処理装置において、
前記テーブルは、前記変換−量子化処理の入力に対して予め設定されている複数の閾値と、前記変換−量子化処理の出力とを互いに関連付け、
前記処理部は、
前記演算部による畳み込み演算の演算結果と、前記複数の閾値とを比較して、前記演算結果に対応する閾値を出力する第1閾値処理部と、
前記テーブルを参照して、前記第1閾値処理部によって出力された前記閾値に対応する前記変換−量子化処理の出力を取得する出力取得部と、
を有する
ことを特徴とするニューラルネットワーク処理装置。 - 請求項2に記載のニューラルネットワーク処理装置において、
前記テーブルは、前記変換−量子化処理の出力が単調増加する入力の区間と、単調減少する入力の区間とを識別する分割情報と、前記変換−量子化処理の入力に対して予め設定されている複数の閾値と、前記複数の閾値のそれぞれに対応する前記変換−量子化処理の出力とを互いに関連付け、
前記入力判定部は、前記分割情報に基づいて、前記演算部による畳み込み演算の演算結果の属する前記変換−量子化処理の入力の区間を判定し、
前記処理部は、
前記演算部による畳み込み演算の前記演算結果と、前記複数の閾値とを前記入力判定部により判定された前記入力の区間内で比較して、前記演算結果に対応する閾値を出力する第2閾値処理部と、
前記テーブルを参照し、前記第2閾値処理部により出力された前記閾値に対応する前記変換−量子化処理の出力を取得する出力取得部と、
を有する
ことを特徴とするニューラルネットワーク処理装置。 - 請求項2に記載のニューラルネットワーク処理装置において、
前記テーブルは、入力に対して前記変換−量子化処理の出力が単調増加するか、または単調減少するかを識別する分割情報と、前記変換−量子化処理の入力に対して予め設定されている複数の閾値と、前記複数の閾値のそれぞれに対応する前記変換−量子化処理の出力とを互いに関連付け、
前記処理部は、
前記分割情報に基づいて、前記演算部による畳み込み演算の演算結果に対応する閾値を出力する閾値処理部と、
前記テーブルを参照して、前記閾値処理部により出力された前記閾値に対応する前記変換−量子化処理の出力を取得する出力取得部と、
を有する
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1から5のいずれか1項に記載のニューラルネットワーク処理装置において、
前記ニューラルネットワークは、少なくとも1層の中間層を有する多層ニューラルネットワークであることを特徴とするニューラルネットワーク処理装置。 - 請求項1から6のいずれか1項に記載のニューラルネットワーク処理装置において、
前記変換−量子化処理に含まれる、前記演算部による畳み込み演算の前記演算結果を予め規定されている条件に基づいて変換する処理は、活性化関数による前記演算結果の決定を含むことを特徴とするニューラルネットワーク処理装置。 - ニューラルネットワークに与えられる入力信号を第1メモリに記憶する第1ステップと、
前記ニューラルネットワークの重みを第2メモリに記憶する第2ステップと、
前記入力信号と前記重みとの積和演算を含む前記ニューラルネットワークの畳み込み演算を行う第3ステップと、
前記第3ステップでの畳み込み演算の演算結果を入力として、第3メモリに記憶されたテーブルであって、入力された値に対して予め規定されている条件に基づいて正規化を含む変換をし、変換したデータのビット精度を前記入力された値よりも削減して量子化する変換−量子化処理の結果を出力としたとき、前記変換−量子化処理の入力と出力とを互いに関連付けた前記テーブルを参照して、前記演算結果に対応する前記変換−量子化処理の出力を取得する第4ステップと
を備えることを特徴とするニューラルネットワーク処理方法。 - コンピュータに、
ニューラルネットワークに与えられる入力信号を第1メモリに記憶する第1ステップと、
前記ニューラルネットワークの重みを第2メモリに記憶する第2ステップと、
前記入力信号と前記重みとの積和演算を含む前記ニューラルネットワークの畳み込み演算を行う第3ステップと、
前記第3ステップでの畳み込み演算の演算結果を入力として、第3メモリに記憶されたテーブルであって、入力された値に対して予め規定されている条件に基づいて正規化を含む変換をし、変換したデータのビット精度を前記入力された値よりも削減して量子化する変換−量子化処理の結果を出力としたとき、前記変換−量子化処理の入力と出力とを互いに関連付けた前記テーブルを参照して、前記演算結果に対応する前記変換−量子化処理の出力を取得する第4ステップと
を実行させるニューラルネットワーク処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079516A JP2021108230A (ja) | 2018-10-10 | 2021-05-10 | ニューラルネットワーク処理装置およびニューラルネットワーク処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192021 | 2018-10-10 | ||
JP2018192021 | 2018-10-10 | ||
PCT/JP2019/035492 WO2020075433A1 (ja) | 2018-10-10 | 2019-09-10 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079516A Division JP2021108230A (ja) | 2018-10-10 | 2021-05-10 | ニューラルネットワーク処理装置およびニューラルネットワーク処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020075433A1 JPWO2020075433A1 (ja) | 2021-02-15 |
JP6886747B2 true JP6886747B2 (ja) | 2021-06-16 |
Family
ID=70163789
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020504046A Active JP6886747B2 (ja) | 2018-10-10 | 2019-09-10 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム |
JP2021079516A Pending JP2021108230A (ja) | 2018-10-10 | 2021-05-10 | ニューラルネットワーク処理装置およびニューラルネットワーク処理方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079516A Pending JP2021108230A (ja) | 2018-10-10 | 2021-05-10 | ニューラルネットワーク処理装置およびニューラルネットワーク処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210232894A1 (ja) |
JP (2) | JP6886747B2 (ja) |
CN (1) | CN112930543A (ja) |
WO (1) | WO2020075433A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200139909A (ko) | 2019-06-05 | 2020-12-15 | 삼성전자주식회사 | 전자 장치 및 그의 연산 수행 방법 |
US11360822B2 (en) * | 2019-09-12 | 2022-06-14 | Bank Of America Corporation | Intelligent resource allocation agent for cluster computing |
US11562235B2 (en) * | 2020-02-21 | 2023-01-24 | International Business Machines Corporation | Activation function computation for neural networks |
JPWO2022004815A1 (ja) * | 2020-06-30 | 2022-01-06 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06259585A (ja) * | 1993-03-10 | 1994-09-16 | Toyota Central Res & Dev Lab Inc | ニューラルネットワーク装置 |
JPH07248841A (ja) * | 1994-03-09 | 1995-09-26 | Mitsubishi Electric Corp | 非線形関数発生装置およびフォーマット変換装置 |
JP3438537B2 (ja) * | 1997-07-18 | 2003-08-18 | 株式会社デンソー | ニューラルネットワークの演算装置 |
JP2002342308A (ja) * | 2001-05-21 | 2002-11-29 | Ricoh Co Ltd | 演算装置、プログラム及び関数値算出方法 |
JP2006154992A (ja) * | 2004-11-26 | 2006-06-15 | Akita Prefecture | ニューロプロセッサ |
JP2006301894A (ja) * | 2005-04-20 | 2006-11-02 | Nec Electronics Corp | マルチプロセッサシステム、及びマルチプロセッサシステムのメッセージ伝達方法 |
JP4880316B2 (ja) * | 2006-02-08 | 2012-02-22 | 株式会社エヌ・ティ・ティ・ドコモ | 無線通信装置及び無線通信方法 |
JP5146186B2 (ja) * | 2008-08-06 | 2013-02-20 | 三菱電機株式会社 | 超高感度撮像装置 |
JP5376920B2 (ja) * | 2008-12-04 | 2013-12-25 | キヤノン株式会社 | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
EP3035204B1 (en) * | 2014-12-19 | 2018-08-15 | Intel Corporation | Storage device and method for performing convolution operations |
US10262259B2 (en) * | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US10373050B2 (en) * | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
JP6525912B2 (ja) * | 2016-03-23 | 2019-06-05 | 富士フイルム株式会社 | 画像分類装置、方法およびプログラム |
US11222263B2 (en) * | 2016-07-28 | 2022-01-11 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US20180046903A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
JP6183980B1 (ja) * | 2016-12-02 | 2017-08-23 | 国立大学法人東京工業大学 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
US10997492B2 (en) * | 2017-01-20 | 2021-05-04 | Nvidia Corporation | Automated methods for conversions to a lower precision data format |
CN108345939B (zh) * | 2017-01-25 | 2022-05-24 | 微软技术许可有限责任公司 | 基于定点运算的神经网络 |
JP2018135069A (ja) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法及びプログラム |
CN108230277B (zh) * | 2018-02-09 | 2020-09-11 | 中国人民解放军战略支援部队信息工程大学 | 一种基于卷积神经网络的双能ct图像分解方法 |
CN108364061B (zh) * | 2018-02-13 | 2020-05-05 | 北京旷视科技有限公司 | 运算装置、运算执行设备及运算执行方法 |
US10740432B1 (en) * | 2018-12-13 | 2020-08-11 | Amazon Technologies, Inc. | Hardware implementation of mathematical functions |
US11475285B2 (en) * | 2019-01-28 | 2022-10-18 | Samsung Electronics Co., Ltd. | Neural network accelerator and operating method thereof |
CN113570033B (zh) * | 2021-06-18 | 2023-04-07 | 北京百度网讯科技有限公司 | 神经网络处理单元、神经网络的处理方法及其装置 |
JP2023076026A (ja) * | 2021-11-22 | 2023-06-01 | ルネサスエレクトロニクス株式会社 | 半導体装置 |
-
2019
- 2019-09-10 WO PCT/JP2019/035492 patent/WO2020075433A1/ja active Application Filing
- 2019-09-10 JP JP2020504046A patent/JP6886747B2/ja active Active
- 2019-09-10 US US17/283,922 patent/US20210232894A1/en active Pending
- 2019-09-10 CN CN201980066531.1A patent/CN112930543A/zh active Pending
-
2021
- 2021-05-10 JP JP2021079516A patent/JP2021108230A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210232894A1 (en) | 2021-07-29 |
JP2021108230A (ja) | 2021-07-29 |
JPWO2020075433A1 (ja) | 2021-02-15 |
CN112930543A (zh) | 2021-06-08 |
WO2020075433A1 (ja) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6886747B2 (ja) | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム | |
US11003736B2 (en) | Reduced dot product computation circuit | |
US9916531B1 (en) | Accumulator constrained quantization of convolutional neural networks | |
US20190164043A1 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
CN110610237A (zh) | 模型的量化训练方法、装置及存储介质 | |
US10491239B1 (en) | Large-scale computations using an adaptive numerical format | |
CN110717585B (zh) | 神经网络模型的训练方法、数据处理方法和相关产品 | |
US11093168B2 (en) | Processing of neural networks on electronic devices | |
WO2021185125A1 (zh) | 一种神经网络的定点化方法、装置 | |
WO2022078002A1 (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
CN110738235B (zh) | 肺结核判定方法、装置、计算机设备及存储介质 | |
JP2021072103A (ja) | 人工ニューラルネットワークの量子化方法とそのためのシステム及び人工ニューラルネットワーク装置 | |
CN111240746B (zh) | 一种浮点数据反量化及量化的方法和设备 | |
CN108875519B (zh) | 对象检测方法、装置和系统及存储介质 | |
CN110647974A (zh) | 深度神经网络中的网络层运算方法及装置 | |
CN112085175B (zh) | 基于神经网络计算的数据处理方法和装置 | |
CN110796624B (zh) | 一种图像生成方法、装置及电子设备 | |
CN113642710A (zh) | 一种网络模型的量化方法、装置、设备和存储介质 | |
JP7040771B2 (ja) | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム | |
US20230058500A1 (en) | Method and machine learning system to perform quantization of neural network | |
US20220391676A1 (en) | Quantization evaluator | |
US20230244921A1 (en) | Reduced power consumption analog or hybrid mac neural network | |
TWI837298B (zh) | 類神經網路處理裝置、類神經網路處理方法及類神經網路處理程式 | |
US11861452B1 (en) | Quantized softmax layer for neural networks | |
TW202131239A (zh) | 類神經網路處理裝置、類神經網路處理方法及類神經網路處理程式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200124 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20200414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6886747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |