JP2020521195A - ニューラルネットワーク処理のスケジューリング - Google Patents
ニューラルネットワーク処理のスケジューリング Download PDFInfo
- Publication number
- JP2020521195A JP2020521195A JP2019552217A JP2019552217A JP2020521195A JP 2020521195 A JP2020521195 A JP 2020521195A JP 2019552217 A JP2019552217 A JP 2019552217A JP 2019552217 A JP2019552217 A JP 2019552217A JP 2020521195 A JP2020521195 A JP 2020521195A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- superlayer
- batch
- layer
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 261
- 230000015654 memory Effects 0.000 claims abstract description 152
- 238000000034 method Methods 0.000 claims abstract description 93
- 238000000638 solvent extraction Methods 0.000 claims abstract description 29
- 238000005192 partition Methods 0.000 claims abstract description 14
- 238000003860 storage Methods 0.000 claims description 83
- 230000008569 process Effects 0.000 claims description 56
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 239000010410 layer Substances 0.000 description 216
- 230000004913 activation Effects 0.000 description 38
- 238000001994 activation Methods 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000005265 energy consumption Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004751 neurological system process Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Neurology (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
- Image Analysis (AREA)
- Semiconductor Memories (AREA)
- Memory System (AREA)
Abstract
Description
本明細書は、ニューラルネットワーク計算を実行するためのメモリ管理プロセスに関する。
本明細書に記載されている主題は、ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するためのシステムおよび方法を含む。上記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを含んでもよく、各レイヤは、それぞれのパラメータセットを有してもよい。記載されている技術に係る方法は、上記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを含む。各スーパーレイヤは、1つ以上のレイヤを含む上記有向グラフのパーティションであってもよい。
詳細な説明
複数のレイヤを有するニューラルネットワークを使用して、推論を計算することができる。たとえば、入力が与えられると、ニューラルネットワークはその入力に対する推論を計算することができる。ニューラルネットワークは、ニューラルネットワークの各レイヤを介して入力を処理することによってこの推論を計算する。特に、ニューラルネットワークのレイヤは、有向グラフの状態で配置され得て、レイヤの一部または全ては、それぞれのパラメータセットを有する。各レイヤは、入力を受信し、そのレイヤのためのパラメータセットに従って入力を処理して、出力を生成する。出力は、次のニューラルネットワークレイヤにおいて入力として使用することができる。
Claims (20)
- 方法であって、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記方法はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記方法はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、方法。 - 前記シーケンスにおける第1のスーパーレイヤでは、前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力が前記ニューラルネットワーク入力である、請求項1に記載の方法。
- 前記第1のスーパーレイヤ出力の後の各スーパーレイヤへの前記スーパーレイヤ入力は、前記シーケンスにおける先行するスーパーレイヤによって生成されたスーパーレイヤ出力である、請求項2に記載の方法。
- 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項1〜3のいずれか1項に記載の方法。 - スーパーレイヤのそれぞれのレイヤは、ワーキングセットに関連付けられ、各ワーキングセットは、少なくとも
i)前記ハードウェア回路上の前記ニューラルネットワークを使用して処理される前記ニューラルネットワーク入力のバッチの1つ以上の入力または前記スーパーレイヤの先行するレイヤの1つ以上の出力、および
ii)前記スーパーレイヤの各レイヤを介して前記1つ以上の入力を処理するのに必要なメモリの量を示すサイズパラメータ
によって定義される、請求項1〜4のいずれか1項に記載の方法。 - 前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
i)少なくとも1つのワーキングセットのための特定のサイズパラメータを決定するステップと、
ii)前記ハードウェア回路の前記メモリの特定の集約パラメータ容量を決定するステップと、
iii)前記少なくとも1つのワーキングセットのための前記特定のサイズパラメータまたは前記ハードウェア回路の前記メモリの特定の集約パラメータ容量のうちの少なくとも1つに基づいて、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップとを備える、請求項5に記載の方法。 - 前記ハードウェア回路の前記メモリは、閾値記憶容量を有し、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
前記ハードウェア回路の前記メモリの前記閾値記憶容量に基づいて、前記ニューラルネットワークのレイヤをスーパーレイヤのシーケンスにパーティショニングするステップを備える、請求項1〜6のいずれか1項に記載の方法。 - 前記ニューラルネットワークのレイヤは、前記ハードウェア回路が前記ニューラルネットワーク入力のバッチを処理する際に前記メモリの前記閾値記憶容量を超えないようにスーパーレイヤのシーケンスにパーティショニングされる、請求項7に記載の方法。
- 前記ニューラルネットワーク入力のバッチおよび前記それぞれのパラメータセットは、前記ハードウェア回路の外部のソースから受信され、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力を処理するステップは、前記外部のソースから追加のパラメータを受信することなく前記スーパーレイヤ入力を処理するステップを備える、請求項1〜8のいずれか1項に記載の方法。
- コンピューティングシステムであって、
前記コンピューティングシステムに配設されたハードウェア回路を備え、前記ハードウェア回路は、1つ以上の処理装置を含み、前記コンピューティングシステムはさらに、
動作を実行するように前記1つ以上の処理装置によって実行可能な命令を格納するための1つ以上の機械読取可能記憶装置を備え、前記動作は、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記動作はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記動作はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、コンピューティングシステム。 - 前記シーケンスにおける第1のスーパーレイヤでは、前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力が前記ニューラルネットワーク入力である、請求項10に記載のコンピューティングシステム。
- 前記第1のスーパーレイヤ出力の後の各スーパーレイヤへの前記スーパーレイヤ入力は、前記シーケンスにおける先行するスーパーレイヤによって生成されたスーパーレイヤ出力である、請求項11に記載のコンピューティングシステム。
- 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項10〜12のいずれか1項に記載のコンピューティングシステム。 - スーパーレイヤのそれぞれのレイヤは、ワーキングセットに関連付けられ、各ワーキングセットは、少なくとも
i)前記ハードウェア回路上の前記ニューラルネットワークを使用して処理される前記ニューラルネットワーク入力のバッチの1つ以上の入力または前記スーパーレイヤの先行するレイヤの1つ以上の出力、および
ii)前記スーパーレイヤの各レイヤを介して前記1つ以上の入力を処理するのに必要なメモリの量を示すサイズパラメータ
によって定義される、請求項10〜13のいずれか1項に記載のコンピューティングシステム。 - 前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
i)少なくとも1つのワーキングセットのための特定のサイズパラメータを決定するステップと、
ii)前記ハードウェア回路の前記メモリの特定の集約パラメータ容量を決定するステップと、
iii)前記少なくとも1つのワーキングセットのための前記特定のサイズパラメータまたは前記ハードウェア回路の前記メモリの特定の集約パラメータ容量のうちの少なくとも1つに基づいて、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップとを備える、請求項14に記載のコンピューティングシステム。 - 前記ハードウェア回路の前記メモリは、閾値記憶容量を有し、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
前記ハードウェア回路の前記メモリの前記閾値記憶容量に基づいて、前記ニューラルネットワークのレイヤをスーパーレイヤのシーケンスにパーティショニングするステップを備える、請求項10〜15のいずれか1項に記載のコンピューティングシステム。 - 前記ニューラルネットワークのレイヤは、前記ハードウェア回路が前記ニューラルネットワーク入力のバッチを処理する際に前記メモリの前記閾値記憶容量を超えないようにスーパーレイヤのシーケンスにパーティショニングされる、請求項16に記載のコンピューティングシステム。
- 前記ニューラルネットワーク入力のバッチおよび前記それぞれのパラメータセットは、前記ハードウェア回路の外部のソースから受信され、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力を処理するステップは、前記外部のソースから追加のパラメータを受信することなく前記スーパーレイヤ入力を処理するステップを備える、請求項10〜17のいずれか1項に記載のコンピューティングシステム。
- 動作を実行するように1つ以上の処理装置によって実行可能な命令を格納する1つ以上の機械読取可能記憶装置であって、前記動作は、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記動作はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記動作はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、機械読取可能記憶装置。 - 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項19に記載の機械読取可能記憶装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022019764A JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/599,559 US10019668B1 (en) | 2017-05-19 | 2017-05-19 | Scheduling neural network processing |
US15/599,559 | 2017-05-19 | ||
PCT/US2018/013939 WO2018212799A1 (en) | 2017-05-19 | 2018-01-17 | Scheduling neural network processing |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022019764A Division JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020521195A true JP2020521195A (ja) | 2020-07-16 |
JP2020521195A5 JP2020521195A5 (ja) | 2020-08-27 |
JP7025441B2 JP7025441B2 (ja) | 2022-02-24 |
Family
ID=61157323
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019552217A Active JP7025441B2 (ja) | 2017-05-19 | 2018-01-17 | ニューラルネットワーク処理のスケジューリング |
JP2022019764A Active JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022019764A Active JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Country Status (7)
Country | Link |
---|---|
US (3) | US10019668B1 (ja) |
EP (1) | EP3577605A1 (ja) |
JP (2) | JP7025441B2 (ja) |
KR (1) | KR102346636B1 (ja) |
CN (2) | CN117291239A (ja) |
TW (2) | TWI664587B (ja) |
WO (1) | WO2018212799A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102299084B1 (ko) * | 2020-08-24 | 2021-09-07 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 메모리에 저장하는 방법, 하드웨어 가속기의 입력 데이터를 메모리로부터 읽는 방법, 및 이를 위한 하드웨어 가속기 |
US11176449B1 (en) | 2020-05-15 | 2021-11-16 | Edgecortix Pte. Ltd. | Neural network accelerator hardware-specific division of inference into groups of layers |
WO2022045448A1 (ko) * | 2020-08-25 | 2022-03-03 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11164074B2 (en) | 2018-02-08 | 2021-11-02 | Western Digital Technologies, Inc. | Multi-core systolic processor system for neural network processing |
US11461579B2 (en) | 2018-02-08 | 2022-10-04 | Western Digital Technologies, Inc. | Configurable neural network engine for convolutional filter sizes |
EP3651077B1 (en) | 2018-02-13 | 2021-10-27 | Shanghai Cambricon Information Technology Co., Ltd | Computation device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
CN116991226A (zh) | 2018-02-14 | 2023-11-03 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
US11475306B2 (en) | 2018-03-22 | 2022-10-18 | Amazon Technologies, Inc. | Processing for multiple input data sets |
US11461631B2 (en) * | 2018-03-22 | 2022-10-04 | Amazon Technologies, Inc. | Scheduling neural network computations based on memory capacity |
US11562213B2 (en) * | 2018-04-17 | 2023-01-24 | Intel Corporation | Methods and arrangements to manage memory in cascaded neural networks |
CN109313673A (zh) * | 2018-04-17 | 2019-02-05 | 深圳鲲云信息科技有限公司 | 网络模型的运行方法及相关产品 |
EP3624020A4 (en) | 2018-05-18 | 2021-05-05 | Shanghai Cambricon Information Technology Co., Ltd | CALCULATION PROCEDURES AND RELATED PRODUCTS |
US10970120B2 (en) * | 2018-06-26 | 2021-04-06 | Advanced Micro Devices, Inc. | Method and system for opportunistic load balancing in neural networks using metadata |
KR102470893B1 (ko) | 2018-06-27 | 2022-11-25 | 상하이 캠브리콘 인포메이션 테크놀로지 컴퍼니 리미티드 | 온 칩 코드의 브레이크 포인트에 의한 디버그 방법, 온 칩 프로세서 및 브레이크 포인트에 의한 칩 디버그 시스템 |
CN109117949A (zh) * | 2018-08-01 | 2019-01-01 | 南京天数智芯科技有限公司 | 用于人工智能设备的灵活数据流处理器和处理方法 |
US11966583B2 (en) * | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
EP3844620A1 (en) | 2018-08-29 | 2021-07-07 | Qualcomm Incorporated | Method, apparatus, and system for an architecture for machine learning acceleration |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
US11263529B2 (en) | 2018-10-10 | 2022-03-01 | Google Llc | Modifying machine learning models to improve locality |
CN111383638A (zh) | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 信号处理装置、信号处理方法及相关产品 |
JP7379821B2 (ja) * | 2019-01-09 | 2023-11-15 | 日本電信電話株式会社 | 推論処理装置および推論処理方法 |
US11586929B2 (en) | 2019-02-15 | 2023-02-21 | Wipro Limited | Method and system for optimizing memory requirement for training an artificial neural network model |
CN111667046A (zh) * | 2019-03-08 | 2020-09-15 | 富泰华工业(深圳)有限公司 | 深度学习加速方法及用户终端 |
US11783176B2 (en) | 2019-03-25 | 2023-10-10 | Western Digital Technologies, Inc. | Enhanced storage device memory architecture for machine learning |
US10929058B2 (en) | 2019-03-25 | 2021-02-23 | Western Digital Technologies, Inc. | Enhanced memory device architecture for machine learning |
CN111832738B (zh) | 2019-04-18 | 2024-01-09 | 中科寒武纪科技股份有限公司 | 一种数据处理方法及相关产品 |
US20200334522A1 (en) | 2019-04-18 | 2020-10-22 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11175898B2 (en) * | 2019-05-31 | 2021-11-16 | Apple Inc. | Compiling code for a machine learning model for execution on a specialized processor |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
CN112085191B (zh) | 2019-06-12 | 2024-04-02 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN114008636A (zh) * | 2019-06-18 | 2022-02-01 | 高通股份有限公司 | 优化机器学习模型性能 |
CN114341888A (zh) * | 2019-07-03 | 2022-04-12 | 华夏芯(北京)通用处理器技术有限公司 | 用于操作加速器电路的指令 |
US11354579B2 (en) * | 2019-07-15 | 2022-06-07 | Microsoft Technology Licensing, Llc | Dynamic multi-layer execution for artificial intelligence modeling |
US11436019B2 (en) | 2019-07-15 | 2022-09-06 | Microsoft Technology Licensing, Llc | Data parallelism in distributed training of artificial intelligence models |
US11520592B2 (en) * | 2019-07-15 | 2022-12-06 | Microsoft Technology Licensing, Llc | Executing large artificial intelligence models on memory-constrained devices |
TWI764236B (zh) * | 2019-08-16 | 2022-05-11 | 美商谷歌有限責任公司 | 晶片上操作的顯式排程 |
US12001955B2 (en) | 2019-08-23 | 2024-06-04 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
WO2021036905A1 (zh) | 2019-08-27 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
US11573828B2 (en) * | 2019-09-16 | 2023-02-07 | Nec Corporation | Efficient and scalable enclave protection for machine learning programs |
DE102019127795A1 (de) * | 2019-10-15 | 2021-04-15 | Infineon Technologies Ag | Schaltung und ein Verfahren zum Bestimmen einer Lage eines Magneten und Joystick |
CN110515739B (zh) * | 2019-10-23 | 2020-01-31 | 上海燧原智能科技有限公司 | 深度学习神经网络模型负载计算方法、装置、设备及介质 |
CN112862085B (zh) * | 2019-11-27 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 存储空间优化方法及装置 |
EP4010848A1 (en) * | 2019-12-18 | 2022-06-15 | Google LLC | Parameter caching for neural network accelerators |
CN111338816B (zh) * | 2020-02-18 | 2023-05-12 | 深圳鲲云信息科技有限公司 | 基于神经网络的指令交互方法、系统、设备及存储介质 |
WO2021237755A1 (zh) * | 2020-05-29 | 2021-12-02 | 华为技术有限公司 | 神经网络调度方法及装置 |
US11288097B2 (en) * | 2020-06-12 | 2022-03-29 | Disney Enterprises, Inc. | Automated hardware resource optimization |
KR20240042266A (ko) * | 2020-08-21 | 2024-04-01 | 주식회사 딥엑스 | 추론 연산을 수행하는 전자 장치 |
KR20220027500A (ko) * | 2020-08-27 | 2022-03-08 | 에스케이하이닉스 주식회사 | 가속 장치, 데이터 저장 장치, 데이터 처리 시스템 및 가속 장치의 동작방법 |
KR20220033314A (ko) * | 2020-09-09 | 2022-03-16 | 삼성전자주식회사 | 호스트 프로세서 및 가속기의 동작 방법 및 이들을 포함한 전자 장치 |
KR20220078290A (ko) * | 2020-12-03 | 2022-06-10 | 삼성전자주식회사 | 뉴럴 네트워크 연산 스케줄링 방법 및 장치 |
US11734072B2 (en) * | 2020-12-31 | 2023-08-22 | Nuvolo Technologies Corporation | Stream-based job processing |
KR102506613B1 (ko) * | 2021-04-30 | 2023-03-06 | 주식회사 딥엑스 | 이종의 센서로 제공되는 이종의 데이터를 처리하기 위한 퓨전-인공신경망을 위해 구현되는 npu |
US11511772B2 (en) | 2021-04-30 | 2022-11-29 | Deepx Co., Ltd. | NPU implemented for artificial neural networks to process fusion of heterogeneous data received from heterogeneous sensors |
EP4099609A1 (en) * | 2021-06-04 | 2022-12-07 | Zama SAS | Computational network conversion for fully homomorphic evaluation |
KR102651559B1 (ko) * | 2021-12-08 | 2024-03-26 | 주식회사 딥엑스 | 영상 융합을 위한 신경 프로세싱 유닛 및 인공신경망 시스템 |
WO2023106723A1 (ko) * | 2021-12-08 | 2023-06-15 | 주식회사 딥엑스 | 영상 융합을 위한 신경 프로세싱 유닛 및 인공신경망 시스템 |
US11657260B2 (en) * | 2021-10-26 | 2023-05-23 | Edgecortix Pte. Ltd. | Neural network hardware accelerator data parallelism |
TWI802070B (zh) * | 2021-11-03 | 2023-05-11 | 大陸商星宸科技股份有限公司 | 積體電路及其配置方法 |
US11442775B1 (en) * | 2021-12-03 | 2022-09-13 | FriendliAI Inc. | Dynamic batching for inference system for transformer-based generation tasks |
US11514370B1 (en) | 2021-12-03 | 2022-11-29 | FriendliAI Inc. | Selective batching for inference system for transformer-based generation tasks |
KR102548582B1 (ko) * | 2022-12-26 | 2023-06-29 | 리벨리온 주식회사 | 뉴럴 프로세서 및 이의 명령어 페치 방법 |
KR20240102798A (ko) | 2022-12-26 | 2024-07-03 | 리벨리온 주식회사 | 뉴럴 프로세서 및 이의 명령어 페치 방법 |
US20240256285A1 (en) * | 2023-01-31 | 2024-08-01 | Microsoft Technology Licensing, Llc | Parallelizing multi-phase kernels with cross-phase dependency on heterogenous hardware |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017501514A (ja) * | 2013-11-04 | 2017-01-12 | フェイスブック,インク. | 顔表現のためのシステムおよび方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7089185B2 (en) | 2002-06-27 | 2006-08-08 | Intel Corporation | Embedded multi-layer coupled hidden Markov model |
US7171043B2 (en) | 2002-10-11 | 2007-01-30 | Intel Corporation | Image recognition using hidden markov models and coupled hidden markov models |
US7203368B2 (en) | 2003-01-06 | 2007-04-10 | Intel Corporation | Embedded bayesian network for pattern recognition |
KR100486735B1 (ko) | 2003-02-28 | 2005-05-03 | 삼성전자주식회사 | 최적구획 분류신경망 구성방법과 최적구획 분류신경망을이용한 자동 레이블링방법 및 장치 |
US7639727B1 (en) * | 2004-10-05 | 2009-12-29 | Cingular Wireless Ii, L.L.C. | System and method for selecting wireless signal bandwidth based on signal strength measurements provided by wireless receivers |
TWI525558B (zh) * | 2011-01-17 | 2016-03-11 | Univ Nat Taipei Technology | Resilient high - speed hardware reverse transfer and feedback type neural network system |
US8462018B1 (en) * | 2011-05-26 | 2013-06-11 | Rockwell Collins, Inc. | Systems and method for controlling the simultaneous display of multi-level classified information on the same surface of an aircraft display unit |
US8725658B2 (en) * | 2011-09-21 | 2014-05-13 | Brain Corporation | Elementary network description for efficient memory management in neuromorphic systems |
US8914315B2 (en) * | 2012-01-27 | 2014-12-16 | International Business Machines Corporation | Multi-compartment neuron suitable for implementation in a distributed hardware model by reducing communication bandwidth |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US10331823B2 (en) * | 2013-10-24 | 2019-06-25 | Mentor Graphics Corporation | Method and system of fast nested-loop circuit verification for process and environmental variation and hierarchical circuits |
US20160026912A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
EP3035204B1 (en) * | 2014-12-19 | 2018-08-15 | Intel Corporation | Storage device and method for performing convolution operations |
US20160335119A1 (en) | 2015-05-12 | 2016-11-17 | minds.ai inc | Batch-based neural network system |
US10438117B1 (en) * | 2015-05-21 | 2019-10-08 | Google Llc | Computing convolutions using a neural network processor |
US9747546B2 (en) * | 2015-05-21 | 2017-08-29 | Google Inc. | Neural network processor |
US10083395B2 (en) * | 2015-05-21 | 2018-09-25 | Google Llc | Batch processing in a neural network processor |
US10049322B2 (en) * | 2015-05-21 | 2018-08-14 | Google Llc | Prefetching weights for use in a neural network processor |
CN107690663B (zh) * | 2015-06-05 | 2022-04-12 | 渊慧科技有限公司 | 白化神经网络层 |
US10387770B2 (en) | 2015-06-10 | 2019-08-20 | Samsung Electronics Co., Ltd. | Spiking neural network with reduced memory access and reduced in-network bandwidth consumption |
EP3104309B1 (en) * | 2015-06-10 | 2020-04-01 | Samsung Electronics Co., Ltd. | Spiking neural network with reduced memory access and reduced in-network bandwidth consumption |
US9582726B2 (en) * | 2015-06-24 | 2017-02-28 | Qualcomm Incorporated | Systems and methods for image processing in a deep convolution network |
US10452971B2 (en) | 2015-06-29 | 2019-10-22 | Microsoft Technology Licensing, Llc | Deep neural network partitioning on servers |
CN106599990B (zh) * | 2015-10-08 | 2019-04-09 | 上海兆芯集成电路有限公司 | 具有神经存储器的神经网络单元和集体将来自神经存储器的数据列移位的神经处理单元阵列 |
CN108351983A (zh) | 2015-10-28 | 2018-07-31 | 谷歌有限责任公司 | 修改计算图 |
US20170154262A1 (en) * | 2015-11-30 | 2017-06-01 | Google Inc. | Resizing neural networks |
US10482380B2 (en) * | 2015-12-30 | 2019-11-19 | Amazon Technologies, Inc. | Conditional parallel processing in fully-connected neural networks |
KR102120396B1 (ko) * | 2016-05-26 | 2020-06-08 | 더 가버닝 카운슬 오브 더 유니버시티 오브 토론토 | 심층 신경망용 가속기 |
AU2016203619A1 (en) * | 2016-05-31 | 2017-12-14 | Canon Kabushiki Kaisha | Layer-based operations scheduling to optimise memory for CNN applications |
US10922610B2 (en) * | 2017-09-14 | 2021-02-16 | Intel Corporation | Synchronization scheduler of distributed neural network training |
-
2017
- 2017-05-19 US US15/599,559 patent/US10019668B1/en active Active
-
2018
- 2018-01-17 CN CN202311182467.8A patent/CN117291239A/zh active Pending
- 2018-01-17 JP JP2019552217A patent/JP7025441B2/ja active Active
- 2018-01-17 WO PCT/US2018/013939 patent/WO2018212799A1/en unknown
- 2018-01-17 CN CN201880019345.8A patent/CN110447044B/zh active Active
- 2018-01-17 KR KR1020197027653A patent/KR102346636B1/ko active IP Right Grant
- 2018-01-17 EP EP18703134.9A patent/EP3577605A1/en active Pending
- 2018-02-09 TW TW107104603A patent/TWI664587B/zh active
- 2018-02-09 TW TW108119004A patent/TWI699712B/zh active
- 2018-06-25 US US16/017,052 patent/US11157794B2/en active Active
-
2021
- 2021-10-25 US US17/509,522 patent/US20220156557A1/en active Pending
-
2022
- 2022-02-10 JP JP2022019764A patent/JP7439149B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017501514A (ja) * | 2013-11-04 | 2017-01-12 | フェイスブック,インク. | 顔表現のためのシステムおよび方法 |
Non-Patent Citations (1)
Title |
---|
MANOJ ALWANI ET AL.: "Fused-Layer CNN Accelarators", PROCEEDINGS OF THE 49TH IEEE/ACM INTERNATIONAL SYNPOSIUM ON MICROARCHITECTURE, JPN6021028237, October 2016 (2016-10-01), ISSN: 0004554897 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11176449B1 (en) | 2020-05-15 | 2021-11-16 | Edgecortix Pte. Ltd. | Neural network accelerator hardware-specific division of inference into groups of layers |
KR102299084B1 (ko) * | 2020-08-24 | 2021-09-07 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 메모리에 저장하는 방법, 하드웨어 가속기의 입력 데이터를 메모리로부터 읽는 방법, 및 이를 위한 하드웨어 가속기 |
WO2022045449A1 (ko) * | 2020-08-24 | 2022-03-03 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 메모리에 저장하는 방법, 하드웨어 가속기의 입력 데이터를 메모리로부터 읽는 방법, 및 이를 위한 하드웨어 가속기 |
WO2022045448A1 (ko) * | 2020-08-25 | 2022-03-03 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
KR20220026251A (ko) * | 2020-08-25 | 2022-03-04 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
KR102384587B1 (ko) * | 2020-08-25 | 2022-04-08 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
Also Published As
Publication number | Publication date |
---|---|
WO2018212799A1 (en) | 2018-11-22 |
CN110447044B (zh) | 2023-10-10 |
JP7025441B2 (ja) | 2022-02-24 |
TW201937416A (zh) | 2019-09-16 |
JP7439149B2 (ja) | 2024-02-27 |
CN110447044A (zh) | 2019-11-12 |
TW201901534A (zh) | 2019-01-01 |
KR20190118635A (ko) | 2019-10-18 |
TWI699712B (zh) | 2020-07-21 |
US10019668B1 (en) | 2018-07-10 |
JP2022070955A (ja) | 2022-05-13 |
US20220156557A1 (en) | 2022-05-19 |
KR102346636B1 (ko) | 2022-01-03 |
US20180373976A1 (en) | 2018-12-27 |
US11157794B2 (en) | 2021-10-26 |
CN117291239A (zh) | 2023-12-26 |
EP3577605A1 (en) | 2019-12-11 |
TWI664587B (zh) | 2019-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7439149B2 (ja) | ニューラルネットワーク処理のスケジューリング | |
US11157592B2 (en) | Hardware implementation of convolutional layer of deep neural network | |
US11816045B2 (en) | Exploiting input data sparsity in neural network compute units | |
US11907830B2 (en) | Neural network architecture using control logic determining convolution operation sequence | |
CN109102065B (zh) | 一种基于PSoC的卷积神经网络加速器 | |
AU2017279610A1 (en) | Memory access optimisation using per-layer computational mapping and memory allocation for CNN application | |
GB2568102A (en) | Exploiting sparsity in a neural network | |
CN113760531A (zh) | 调度器、操作调度器的方法以及包括调度器的加速器设备 | |
Wang et al. | Rerec: In-reram acceleration with access-aware mapping for personalized recommendation | |
CN114118348A (zh) | 加速器、操作加速器的方法以及包括加速器的电子装置 | |
US12039360B2 (en) | Operation method of host processor and accelerator, and electronic device including the same | |
US12099869B2 (en) | Layer-wise scheduling on models based on idle times | |
GB2582868A (en) | Hardware implementation of convolution layer of deep neural network | |
TW202414279A (zh) | 用於整個激發向量之性質之快速估計之學習行權重 | |
WO2023224614A1 (en) | Exploiting data sparsity at a machine-learning hardware accelerator | |
CN116648694A (zh) | 芯片内的数据处理方法及芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200623 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7025441 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |