JP2021522565A - 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ - Google Patents
並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ Download PDFInfo
- Publication number
- JP2021522565A JP2021522565A JP2020557303A JP2020557303A JP2021522565A JP 2021522565 A JP2021522565 A JP 2021522565A JP 2020557303 A JP2020557303 A JP 2020557303A JP 2020557303 A JP2020557303 A JP 2020557303A JP 2021522565 A JP2021522565 A JP 2021522565A
- Authority
- JP
- Japan
- Prior art keywords
- tensor
- neural
- weight tensor
- cores
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001537 neural effect Effects 0.000 title claims abstract description 91
- 238000004364 calculation method Methods 0.000 title claims description 13
- 230000015654 memory Effects 0.000 claims abstract description 50
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 description 28
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003376 axonal effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Abstract
Description
Claims (36)
- ニューラル・ネットワークを管理するためのシステムであって、
複数のニューラル・コアであって、前記複数のニューラル・コアのそれぞれが少なくとも1つのメモリを備える、前記複数のニューラル・コアと、
前記複数のニューラル・コアを相互に結合するネットワークと
を含み、前記複数のニューラル・コアのそれぞれの前記少なくとも1つのメモリが、複数のフィルタを含む重みテンソルの少なくとも一部を含み、各ニューラル・コアが、
入力データ・テンソルの一部を、ローカルで読み出すか、または受け取り、
それに前記重みテンソルの前記一部を適用し、
その結果を、ローカルに記憶するか、または前記ネットワークを介して前記複数のニューラル・コアのうちの他のものに送るように適合される、システム。 - 前記重みテンソルの前記一部を前記入力データ・テンソルの前記一部に適用することが、ベクトル行列の乗算とそれに続く活性化関数を計算することを含む、請求項1に記載のシステム。
- 前記複数のニューラル・コアが2次元配列に配置される、請求項1または2のいずれかに記載のシステム。
- 前記ネットワークが前記複数のニューラル・コア間の局所結合性を提供する、請求項1ないし3のいずれかに記載のシステム。
- 前記ネットワークが前記配列内で隣接するニューラル・コア間の結合性を提供する、請求項3に記載のシステム。
- 前記複数のニューラル・コアのそれぞれにおける前記重みテンソルの前記一部が、前記重みテンソルのブロックを含む、請求項1ないし5のいずれかに記載のシステム。
- 前記重みテンソルが、前記配列の物理次元に従って前記複数のニューラル・コア間で分散される、請求項3に記載のシステム。
- 前記重みテンソルの次元、形状、および分割が設定変更可能である、請求項7に記載のシステム。
- 前記重みテンソルが、局所性を示す1つまたは複数の次元に沿って分割される、請求項7に記載のシステム。
- 前記1つまたは複数の次元が空間次元を含む、請求項9に記載のシステム。
- 前記1つまたは複数の次元が少なくとも1つの特徴次元を含む、請求項9に記載のシステム。
- 前記重みテンソルがスパースである、請求項1ないし11のいずれかに記載のシステム。
- 前記重みテンソルの前記一部を前記入力データ・テンソルの前記一部に前記適用する間、前記重みテンソルの非ゼロ値だけが計算に使用される、請求項12に記載のシステム。
- 前記メモリが、前記重みテンソルの非ゼロ値だけを記憶する、請求項12または13のいずれかに記載のシステム。
- 前記重みテンソルが畳み込みフィルタに対応する、請求項1ないし14のいずれかに記載のシステム。
- 前記重みテンソルが1つまたは複数の空間次元に沿って分割される、請求項15に記載のシステム。
- 前記結果が中間結果であり、
各ニューラル・コアが、前記中間結果をローカルに記憶するか、または前記ネットワークを介して前記複数のニューラル・コアのうちの別のものに送るようにさらに適合され、
各ニューラル・コアが、前記中間結果を、ローカルで読み出すか、または受け取り、そこから最終結果を計算するようにさらに適合される
請求項1ないし16のいずれかに記載のシステム。 - 前記複数のニューラル・コアのそれぞれにおける前記重みテンソルの前記一部が、前記重みテンソルのブロックを含み、前記複数のニューラル・コアのサブセットが、同じ複製されたブロックを含む、請求項1ないし17のいずれかに記載のシステム。
- 前記複数のニューラル・コアのうちの1つが、重みテンソル全体を含む、請求項1ないし18のいずれかに記載のシステム。
- 前記1つのニューラル・コアが、前記重みテンソルの前記一部を前記複数のニューラル・コアのうちの他のものにそれぞれ分散するように適合される、請求項19に記載のシステム。
- 前記重みテンソル全体を含む中央メモリをさらに含み、前記中央メモリから、前記重みテンソルの前記一部を、前記複数のニューラル・コアのうちの他のものにそれぞれ分散するように適合される、請求項1ないし20のいずれかに記載のシステム。
- 前記重みテンソルの前記一部が前記複数のフィルタのサブセットに対応する、請求項1ないし21のいずれかに記載のシステム。
- 前記重みテンソルが圧縮される、請求項1ないし22のいずれかに記載のシステム。
- 前記重みテンソルが、ゼロ値を除外するように符号化される、請求項1ないし23のいずれかに記載のシステム。
- 前記重みテンソルの各値が、−1、0、または1である、請求項1ないし24のいずれかに記載のシステム。
- 重みテンソル・ブロックが、複数のニューラル・コアのために複製される、請求項18に記載のシステム。
- 前記重みテンソル・ブロックが、単一のニューラル・コア・メモリにのみ記憶され、ネットワークオンチップを介して複数のニューラル・コアに分散される、請求項26に記載のシステム。
- 前記重みテンソル・ブロックが、前記コア配列の外部にある単一のメモリのみに記憶される、請求項27に記載のシステム。
- ニューラル・ネットワークを管理するための方法であって、
メモリを備えるニューラル・コアにおいて、入力データ・テンソルの一部を、ローカルで読み出すか、または受け取ることと、
複数のフィルタを含む重みテンソルの少なくとも一部を前記メモリから読み取ることと、
前記重みテンソルの前記一部を前記入力データ・テンソルの前記一部に適用して結果を得ることと、
前記結果を、ローカルに記憶するか、またはネットワーク介して少なくとも1つの他のニューラル・コアに送ることと
を含む、方法。 - 前記重みテンソルがスパースである、請求項29に記載の方法。
- 前記重みテンソルの前記一部が前記複数のフィルタのサブセットに対応する、請求項29または30のいずれかに記載の方法。
- 前記重みテンソルが圧縮される、請求項29ないし31のいずれかに記載の方法。
- 前記重みテンソルが、ゼロ値を除外するように符号化される、請求項29ないし32のいずれかに記載の方法。
- 前記重みテンソルの各値が、−1、0、または1である、請求項29ないし33のいずれかに記載の方法。
- ニューラル・ネットワークを管理するためのコンピュータ・プログラム製品であって、
処理回路によって読み取り可能であり、請求項29ないし34のいずれかに記載の方法を実行するために前記処理回路によって実行される命令を記憶するコンピュータ可読記憶媒体を備える、コンピュータ・プログラム製品。 - コンピュータ可読媒体に記憶され、デジタル・コンピュータの内部メモリにロード可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行されるとき、請求項29ないし34のいずれかの方法を実行するためのソフトウェア・コード部分を含む、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/967,482 | 2018-04-30 | ||
US15/967,482 US20190332925A1 (en) | 2018-04-30 | 2018-04-30 | Neural hardware accelerator for parallel and distributed tensor computations |
PCT/EP2019/060888 WO2019211226A1 (en) | 2018-04-30 | 2019-04-29 | Neural hardware accelerator for parallel and distributed tensor computations |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021522565A true JP2021522565A (ja) | 2021-08-30 |
JP7372009B2 JP7372009B2 (ja) | 2023-10-31 |
Family
ID=66334482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557303A Active JP7372009B2 (ja) | 2018-04-30 | 2019-04-29 | 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190332925A1 (ja) |
EP (1) | EP3788556A1 (ja) |
JP (1) | JP7372009B2 (ja) |
CN (1) | CN111989697A (ja) |
WO (1) | WO2019211226A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230034655A (ko) * | 2021-09-03 | 2023-03-10 | 연세대학교 산학협력단 | n차원 텐서 곱 연산을 이용한 합성곱 신경망 압축 방법 및 장치 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11586910B1 (en) | 2018-04-20 | 2023-02-21 | Perceive Corporation | Write cache for neural network inference circuit |
US11481612B1 (en) | 2018-04-20 | 2022-10-25 | Perceive Corporation | Storage of input values across multiple cores of neural network inference circuit |
US11568227B1 (en) | 2018-04-20 | 2023-01-31 | Perceive Corporation | Neural network inference circuit read controller with multiple operational modes |
US11783167B1 (en) | 2018-04-20 | 2023-10-10 | Perceive Corporation | Data transfer for non-dot product computations on neural network inference circuit |
US11501138B1 (en) | 2018-04-20 | 2022-11-15 | Perceive Corporation | Control circuits for neural network inference circuit |
US10977338B1 (en) | 2018-04-20 | 2021-04-13 | Perceive Corporation | Reduced-area circuit for dot product computation |
US11604973B1 (en) | 2018-12-05 | 2023-03-14 | Perceive Corporation | Replication of neural network layers |
US11676003B2 (en) * | 2018-12-18 | 2023-06-13 | Microsoft Technology Licensing, Llc | Training neural network accelerators using mixed precision data formats |
US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
US11625585B1 (en) | 2019-05-21 | 2023-04-11 | Perceive Corporation | Compiler for optimizing filter sparsity for neural network implementation configuration |
US11562205B2 (en) * | 2019-09-19 | 2023-01-24 | Qualcomm Incorporated | Parallel processing of a convolutional layer of a neural network with compute-in-memory array |
US11681922B2 (en) * | 2019-11-26 | 2023-06-20 | Numenta, Inc. | Performing inference and training using sparse neural network |
CN113449859A (zh) * | 2020-03-27 | 2021-09-28 | 华为技术有限公司 | 一种数据处理方法及其装置 |
CN113537485A (zh) * | 2020-04-15 | 2021-10-22 | 北京金山数字娱乐科技有限公司 | 一种神经网络模型的压缩方法及装置 |
US11113601B1 (en) * | 2020-06-30 | 2021-09-07 | Moffett Technologies Co., Limited | Method and system for balanced-weight sparse convolution processing |
US20220156575A1 (en) * | 2020-11-19 | 2022-05-19 | Apple Inc. | Multi-dimensional tensor support extension in neural network processor |
CN112669861B (zh) * | 2020-12-09 | 2023-04-07 | 北京百度网讯科技有限公司 | 音频数据处理方法、装置、设备和存储介质 |
CN113065647B (zh) * | 2021-03-30 | 2023-04-25 | 西安电子科技大学 | 加速神经网络的计算-存储通信系统及通信方法 |
CN113159285B (zh) * | 2021-04-14 | 2023-09-05 | 广州放芯科技有限公司 | 神经网络加速器 |
EP4100835A1 (en) * | 2021-04-26 | 2022-12-14 | Google LLC | Efficiently allocating memory on neural network compute tiles |
US11669331B2 (en) * | 2021-06-17 | 2023-06-06 | International Business Machines Corporation | Neural network processing assist instruction |
WO2023070324A1 (en) * | 2021-10-26 | 2023-05-04 | Intel Corporation | Method and apparatus for optimizing inference of deep neural networks |
WO2023249762A1 (en) * | 2022-06-21 | 2023-12-28 | Ceremorphic, Inc. | Max-pool prediction for efficient convolutional nuerual network for resource-constrained devices |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05242065A (ja) * | 1992-02-28 | 1993-09-21 | Hitachi Ltd | 情報処理装置及びシステム |
JP2000163384A (ja) * | 1998-11-25 | 2000-06-16 | Hitachi Ltd | 半導体装置 |
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
US20180046895A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Device and method for implementing a sparse neural network |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9959498B1 (en) * | 2016-10-27 | 2018-05-01 | Google Llc | Neural network instruction set architecture |
US10175980B2 (en) * | 2016-10-27 | 2019-01-08 | Google Llc | Neural network compute tile |
US10733505B2 (en) * | 2016-11-10 | 2020-08-04 | Google Llc | Performing kernel striding in hardware |
WO2018189728A1 (en) * | 2017-04-14 | 2018-10-18 | Cerebras Systems Inc. | Floating-point unit stochastic rounding for accelerated deep learning |
-
2018
- 2018-04-30 US US15/967,482 patent/US20190332925A1/en active Pending
-
2019
- 2019-04-29 WO PCT/EP2019/060888 patent/WO2019211226A1/en unknown
- 2019-04-29 CN CN201980026541.2A patent/CN111989697A/zh active Pending
- 2019-04-29 EP EP19720569.3A patent/EP3788556A1/en not_active Withdrawn
- 2019-04-29 JP JP2020557303A patent/JP7372009B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05242065A (ja) * | 1992-02-28 | 1993-09-21 | Hitachi Ltd | 情報処理装置及びシステム |
JP2000163384A (ja) * | 1998-11-25 | 2000-06-16 | Hitachi Ltd | 半導体装置 |
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
US20180046895A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Device and method for implementing a sparse neural network |
Non-Patent Citations (1)
Title |
---|
安藤 洸太 ほか: ""BRein Memory:バイナリ・インメモリ再構成型深層ニューラルネットワークアクセラレータ", 映像情報メディア学会技術報告, vol. 41, no. 25, JPN6022030494, 24 July 2017 (2017-07-24), pages 101 - 106, ISSN: 0004834920 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230034655A (ko) * | 2021-09-03 | 2023-03-10 | 연세대학교 산학협력단 | n차원 텐서 곱 연산을 이용한 합성곱 신경망 압축 방법 및 장치 |
KR102597079B1 (ko) | 2021-09-03 | 2023-10-31 | 연세대학교 산학협력단 | n차원 텐서 곱 연산을 이용한 합성곱 신경망 압축 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP3788556A1 (en) | 2021-03-10 |
CN111989697A (zh) | 2020-11-24 |
US20190332925A1 (en) | 2019-10-31 |
WO2019211226A1 (en) | 2019-11-07 |
JP7372009B2 (ja) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021522565A (ja) | 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ | |
JP7325158B2 (ja) | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 | |
JP6857286B2 (ja) | ニューラルネットワークアレイの性能の改善 | |
JP7394104B2 (ja) | ハードウェアにおけるカーネルストライドの実行 | |
JP7132824B2 (ja) | ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 | |
EP3373210B1 (en) | Transposing neural network matrices in hardware | |
KR102545128B1 (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
CN107622302B (zh) | 用于卷积神经网络的超像素方法 | |
CN107358293B (zh) | 一种神经网络训练方法及装置 | |
JP7227272B2 (ja) | 再構成可能なコアレベルおよびベクトルレベルの並列性を有する並列計算アーキテクチャ | |
JP2021527864A (ja) | 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア | |
EP3855367A1 (en) | Operation accelerator, processing method, and related device | |
US11210584B2 (en) | Memory efficient convolution operations in deep learning neural networks | |
US20230236891A1 (en) | Neural network accelerator, acceleration method, and apparatus | |
KR20190066473A (ko) | 뉴럴 네트워크에서 컨볼루션 연산을 처리하는 방법 및 장치 | |
JP7403638B2 (ja) | 高速なスパースニューラルネットワーク | |
US11836971B2 (en) | Method and device with convolution neural network processing | |
CN108629405B (zh) | 提高卷积神经网络计算效率的方法和装置 | |
JP7426980B2 (ja) | 分散型ニューラル・ネットワークのコアのネットワークにおける階層的並列処理 | |
WO2023122896A1 (zh) | 一种数据处理方法和装置 | |
KR20200023154A (ko) | 컨볼루션 뉴럴 네트워크를 처리하는 방법 및 장치 | |
US11681915B2 (en) | Neural network method and apparatus | |
US20220283778A1 (en) | Method and device for encoding | |
CN115511070A (zh) | 模型训练方法、装置及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
RD12 | Notification of acceptance of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7432 Effective date: 20201020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210830 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |