JP2022523666A - ニューラルネットワークのための複合モデルスケーリング - Google Patents
ニューラルネットワークのための複合モデルスケーリング Download PDFInfo
- Publication number
- JP2022523666A JP2022523666A JP2021542494A JP2021542494A JP2022523666A JP 2022523666 A JP2022523666 A JP 2022523666A JP 2021542494 A JP2021542494 A JP 2021542494A JP 2021542494 A JP2021542494 A JP 2021542494A JP 2022523666 A JP2022523666 A JP 2022523666A
- Authority
- JP
- Japan
- Prior art keywords
- baseline
- factor
- architecture
- resolution
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 77
- 239000002131 composite material Substances 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000010801 machine learning Methods 0.000 claims abstract description 29
- 238000003860 storage Methods 0.000 claims description 16
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 10
- 230000001537 neural effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2019年1月23日に出願した米国仮出願第62/796,034号の優先権を主張するものである。先行出願の開示は、本出願の開示の一部と見なされ、参照により本出願の開示に組み込まれている。
深さ:d=αφ
幅:w=βφ
解像度:r=γφ (3)
s.t. α・β2・γ2≒2
α≧1、β≧1、γ≧1
上式で、α、β、γはそれぞれ、ベースライン深さ係数、ベースライン幅係数、およびベースライン解像度係数である。α、β、γは、上記の式2および式3に基づいて、探索によって、例えばグリッドサーチによって決定することができる。直感的には、φは、モデルスケーリングにあとどれだけのリソースが利用可能であるかを制御し、一方、α、β、γはそれぞれ、これらの追加のリソースをネットワーク深さ次元、ネットワーク幅次元、および解像度次元にどのように割り当てるかを指定するものである。通常の畳み込み演算の演算回数(すなわちFLOPS)は、d、w2、r2に比例し、すなわち、ネットワーク深さ次元を2倍にすると、FLOPSは2倍になるが、ネットワーク幅次元または解像度次元を2倍にすると、FLOPSは4倍に増加することに留意されよう。ベースラインアーキテクチャが畳み込みニューラルネットワークであるとき、畳み込み演算がベースラインアーキテクチャにおける計算コストを支配しており、したがって、ベースラインアーキテクチャを式3を用いてスケーリングすると、合計FLOPSがおよそ(α・β2・γ2)φだけ増加する。α・β2・γ2≒2という制約により、任意の複合係数φについて、合計演算(すなわちFLOPS())がおよそ2φだけ増加することが確実になる。
式4:
ネットワーク深さ係数:d=1+α・φ
ネットワーク幅係数:w=1+β・φ
ネットワーク解像度係数:r=1+γ・φ
(a)ベースライン幅係数の探索値、ベースライン深さ係数の探索値、およびベースライン解像度係数の探索値を選択するステップと、
(b)(i)複合係数の所与の値、ならびに(ii)ベースライン幅係数の探索値、ベースライン深さ係数の探索値、およびベースライン解像度係数の探索値に基づいて、(例えば式3または式4を使用することによって)探索幅係数w'、探索深さ係数d'、および探索解像度係数r'を生成するステップと、
(c)ベースラインアーキテクチャ、ならびに探索幅係数、探索深さ係数、および探索解像度係数を使用して(例えばベースラインアーキテクチャのネットワーク幅次元を、探索幅係数によってスケーリングし、ベースラインアーキテクチャのネットワーク深さ次元を、探索深さ係数によってスケーリングし、ベースラインアーキテクチャの解像度を、探索解像度係数によってスケーリングすることによって)、探索候補アーキテクチャを生成するステップと、
(d)その探索候補アーキテクチャについて、探索候補アーキテクチャの、特定の機械学習タスクに対する性能を表す性能スコアを特定するステップとを繰り返し実施する。例えば、性能スコアは、探索候補アーキテクチャの、特定の機械学習タスクに対する精度を表す精度スコアとすることができる。具体的には、システムは、探索候補アーキテクチャを有するニューラルネットワークインスタンスを、特定の機械学習タスクに対してトレーニングして、探索候補アーキテクチャを有するこのニューラルネットワークインスタンスのパラメータの値を決定することができる。次いで、システムは、トレーニング済みのニューラルネットワークインスタンスの、特定のニューラルネットワークタスクに対する性能に基づいて、トレーニング済みのニューラルネットワークインスタンスの精度スコアを特定することができる。例えば、精度スコアは、トレーニング済みのインスタンスの、検証セットに対する精度を、適切な精度指標によって測定したものを表すことができる。例として、精度スコアは、出力が系列であるときはパープレキシティ指標(perplexity measure)とすることができ、または特定のニューラルネットワークタスクが分類タスクであるときは誤分類率とすることができる。別の例として、精度スコアは、インスタンスのトレーニングの最終の2回、5回、または10回のエポックのそれぞれについての、インスタンスの精度の平均値または最大値とすることができる。
102 ベースラインアーキテクチャ
103 複合係数
104 入力データ、ターゲットリソース使用量データ
108 ベースライン幅係数β、ベースライン幅係数
110 ベースライン深さ係数α、ベースライン深さ係数
112 ベースライン解像度係数γ、ベースライン解像度係数
114 幅係数
116 深さ係数
118 解像度係数
126 最終アーキテクチャ
150 アーキテクチャデータ
200 プロセス
300 ベースラインアーキテクチャ
302 畳み込みニューラルネットワーク層
304 FusedConvニューラルネットワーク層
306 MBConvニューラルネットワーク層
Claims (17)
- 特定の機械学習タスクを実施するニューラルネットワークの最終アーキテクチャを決定するコンピュータ実装方法であって、
前記ニューラルネットワークのベースラインアーキテクチャを受信するステップであって前記ベースラインアーキテクチャが、前記特定の機械学習タスクを実施するようにトレーニングされたものであり、前記ベースラインアーキテクチャが、ネットワーク幅次元、ネットワーク深さ次元、および解像度次元を有する、ステップと、
前記ベースラインアーキテクチャをスケーリングするのに使用される追加の計算リソースを制御する複合係数を定義したデータを受信するステップと、
ベースライン幅係数、ベースライン深さ係数、およびベースライン解像度係数を決定するように探索を実施するステップであって、前記ベースライン幅係数、前記ベースライン深さ係数、および前記ベースライン解像度係数がそれぞれ、前記追加の計算リソースを前記ベースラインアーキテクチャの前記ネットワーク幅次元、前記ネットワーク深さ次元、および前記解像度次元にどのように割り当てるかを指定するものである、ステップと、
前記ベースライン幅係数、前記ベースライン深さ係数、前記ベースライン解像度係数、および前記複合係数に基づいて、幅係数、深さ係数、および解像度係数を決定するステップと、
前記ベースラインアーキテクチャの前記ネットワーク幅次元、前記ネットワーク深さ次元、および前記解像度次元を、対応する前記幅係数、前記深さ係数、および前記解像度係数に基づいてスケーリングした前記最終アーキテクチャを生成するステップと
を含む、コンピュータ実装方法。 - 前記ベースラインアーキテクチャが、複数のネットワークステージを有し、前記複数のネットワークステージがそれぞれ、複数のニューラルネットワーク層を有する、請求項1に記載の方法。
- 前記ベースラインアーキテクチャの各ネットワークステージ内の前記複数のニューラルネットワーク層が、同一アーキテクチャを共有する、請求項2に記載の方法。
- 前記ベースラインアーキテクチャの前記ネットワーク深さ次元が、前記ベースラインアーキテクチャの前記複数のネットワークステージ内の層の数のセットである、請求項2または3に記載の方法。
- 前記ベースラインアーキテクチャ内の各ニューラルネットワーク層が、前層から入力テンソルを受信するように、また前記入力テンソルについて、次ニューラルネットワーク層に入力として供給される出力テンソルを生成するように構成され、前記入力テンソルが、高さ次元、幅次元、および前記入力テンソル内のチャネルの数を指定するチャネル次元を有する、請求項2から4のいずれか一項に記載の方法。
- 前記ベースラインアーキテクチャの前記ネットワーク幅次元が、前記ベースラインアーキテクチャの前記複数のニューラルネットワーク層への入力テンソルに関連する入力チャネルの数のセットである、請求項5に記載の方法。
- 前記ベースラインアーキテクチャの前記解像度次元が、前記ベースラインアーキテクチャの前記複数のニューラルネットワーク層への入力テンソルの高さ次元と幅次元のセットである、請求項5または6に記載の方法。
- 前記ベースライン幅係数、前記ベースライン深さ係数、前記ベースライン解像度係数、および前記複合係数に基づいて、前記幅係数、前記深さ係数、および前記解像度係数を決定するステップが、
前記複合係数および前記ベースライン幅係数に基づいて、前記幅係数を生成するステップと、
前記複合係数および前記ベースライン深さ係数に基づいて、前記深さ係数を生成するステップと、
前記複合係数および前記ベースライン解像度係数に基づいて、前記解像度係数を生成するステップと
を含む、請求項1から7のいずれか一項に記載の方法。 - 前記複合係数および前記ベースライン幅係数に基づいて、前記幅係数を生成するステップが、定数と、前記ベースライン幅係数と前記複合係数の積とを加算するステップを含む、請求項8に記載の方法。
- 前記複合係数および前記ベースライン深さ係数に基づいて、前記深さ係数を生成するステップが、前記定数と、前記ベースライン深さ係数と前記複合係数の積とを加算するステップを含む、請求項8または9に記載の方法。
- 前記複合係数および前記ベースライン解像度係数に基づいて、前記解像度係数を生成するステップが、前記定数と、前記ベースライン解像度係数と前記複合係数の積とを加算するステップを含む、請求項8から10のいずれか一項に記載の方法。
- 前記最終アーキテクチャを生成するステップが、
前記ベースラインアーキテクチャの前記ネットワーク幅次元を、前記幅係数によってスケーリングするステップと、
前記ベースラインアーキテクチャの前記ネットワーク深さ次元を、前記深さ係数によってスケーリングするステップと、
前記ベースラインアーキテクチャの解像度を、前記解像度係数によってスケーリングするステップと
を含む、請求項11に記載の方法。 - 前記ベースライン幅係数、前記ベースライン深さ係数、および前記ベースライン解像度係数を決定するように前記探索を実施するステップが、
各係数のさまざまな値に対してグリッドサーチを実施するとともに、前記複合係数を使用して、前記ベースライン幅係数、前記ベースライン深さ係数、および前記ベースライン解像度係数を決定するステップ
を含む、請求項1から12のいずれか一項に記載の方法。 - 前記最終アーキテクチャの、前記特定の機械学習タスクに対する性能を表す性能スコアを特定するステップであって、前記最終アーキテクチャを、前記特定の機械学習タスクに対してトレーニングして、前記最終アーキテクチャのパラメータの値を更新するステップと、トレーニング済みの前記最終アーキテクチャの、前記特定の機械学習タスクに対する性能を特定するステップとを含む、ステップ
をさらに含む、請求項1から13のいずれか一項に記載の方法。 - 前記受信したデータがさらに、(i)前記最終アーキテクチャを作成するために許容される最大メモリサイズを示すターゲットメモリサイズ、および(ii)前記特定の機械学習タスクを実施するために前記最終アーキテクチャが実行することのできる最大演算回数を示すターゲット演算回数を指定する、ターゲットリソース使用量データを含む、請求項1から14のいずれか一項に記載の方法。
- 1つまたは複数のコンピュータと、命令を格納した1つまたは複数の記憶デバイスとを備えるシステムであって、前記命令が、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1から14のいずれか一項に記載の方法を実行させる、システム。
- 命令を格納した1つまたは複数のコンピュータ記憶媒体であって、前記命令が、1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1から14のいずれか一項に記載の方法を実行させる、1つまたは複数のコンピュータ記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023085645A JP2023120204A (ja) | 2019-01-23 | 2023-05-24 | ニューラルネットワークのための複合モデルスケーリング |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962796034P | 2019-01-23 | 2019-01-23 | |
US62/796,034 | 2019-01-23 | ||
PCT/US2020/014839 WO2020154536A1 (en) | 2019-01-23 | 2020-01-23 | Compound model scaling for neural networks |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023085645A Division JP2023120204A (ja) | 2019-01-23 | 2023-05-24 | ニューラルネットワークのための複合モデルスケーリング |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022523666A true JP2022523666A (ja) | 2022-04-26 |
JP7286774B2 JP7286774B2 (ja) | 2023-06-05 |
Family
ID=69726764
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542494A Active JP7286774B2 (ja) | 2019-01-23 | 2020-01-23 | ニューラルネットワークのための複合モデルスケーリング |
JP2023085645A Pending JP2023120204A (ja) | 2019-01-23 | 2023-05-24 | ニューラルネットワークのための複合モデルスケーリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023085645A Pending JP2023120204A (ja) | 2019-01-23 | 2023-05-24 | ニューラルネットワークのための複合モデルスケーリング |
Country Status (6)
Country | Link |
---|---|
US (3) | US10909457B2 (ja) |
EP (1) | EP3912099A1 (ja) |
JP (2) | JP7286774B2 (ja) |
KR (1) | KR20210105976A (ja) |
CN (1) | CN113424199A (ja) |
WO (1) | WO2020154536A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12044667B2 (en) * | 2018-07-31 | 2024-07-23 | Nec Corporation | Information processing apparatus, control method, and non-transitory storage medium |
US12026619B1 (en) * | 2019-12-11 | 2024-07-02 | Amazon Technologies, Inc. | Slimmable neural network architecture search optimization |
CN112116090B (zh) * | 2020-09-28 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 神经网络结构搜索方法、装置、计算机设备及存储介质 |
KR102508106B1 (ko) * | 2020-11-24 | 2023-03-08 | 한남대학교 산학협력단 | 뉴로모픽 하드웨어 지원 IoT 응용 생성 자동화 방법 |
CN112836801A (zh) * | 2021-02-03 | 2021-05-25 | 上海商汤智能科技有限公司 | 深度学习网络确定方法、装置、电子设备及存储介质 |
US11720784B2 (en) * | 2021-04-01 | 2023-08-08 | Mythic, Inc. | Systems and methods for enhancing inferential accuracy of an artificial neural network during training on a mixed-signal integrated circuit |
CN114399018B (zh) * | 2021-12-17 | 2023-10-10 | 西北大学 | 一种基于轮转操控策略麻雀优化的EfficientNet陶瓷碎片分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108593A (ja) * | 1991-10-14 | 1993-04-30 | Sanyo Electric Co Ltd | ニユーロ開発支援装置 |
JPH0991263A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JP2017037392A (ja) * | 2015-08-07 | 2017-02-16 | トヨタ自動車株式会社 | ニューラルネットワーク学習装置 |
JP2019533257A (ja) * | 2016-10-28 | 2019-11-14 | グーグル エルエルシー | ニューラルアーキテクチャ検索 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11094029B2 (en) * | 2017-04-10 | 2021-08-17 | Intel Corporation | Abstraction layers for scalable distributed machine learning |
US11023803B2 (en) * | 2017-04-10 | 2021-06-01 | Intel Corporation | Abstraction library to enable scalable distributed machine learning |
-
2020
- 2020-01-23 US US16/751,081 patent/US10909457B2/en active Active
- 2020-01-23 JP JP2021542494A patent/JP7286774B2/ja active Active
- 2020-01-23 KR KR1020217023377A patent/KR20210105976A/ko not_active Application Discontinuation
- 2020-01-23 EP EP20708313.0A patent/EP3912099A1/en active Pending
- 2020-01-23 CN CN202080010508.3A patent/CN113424199A/zh active Pending
- 2020-01-23 WO PCT/US2020/014839 patent/WO2020154536A1/en unknown
-
2021
- 2021-01-08 US US17/144,450 patent/US11893491B2/en active Active
-
2023
- 2023-05-24 JP JP2023085645A patent/JP2023120204A/ja active Pending
- 2023-12-29 US US18/400,767 patent/US20240211764A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108593A (ja) * | 1991-10-14 | 1993-04-30 | Sanyo Electric Co Ltd | ニユーロ開発支援装置 |
JPH0991263A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JP2017037392A (ja) * | 2015-08-07 | 2017-02-16 | トヨタ自動車株式会社 | ニューラルネットワーク学習装置 |
JP2019533257A (ja) * | 2016-10-28 | 2019-11-14 | グーグル エルエルシー | ニューラルアーキテクチャ検索 |
Also Published As
Publication number | Publication date |
---|---|
WO2020154536A1 (en) | 2020-07-30 |
JP2023120204A (ja) | 2023-08-29 |
EP3912099A1 (en) | 2021-11-24 |
US20200234132A1 (en) | 2020-07-23 |
US10909457B2 (en) | 2021-02-02 |
KR20210105976A (ko) | 2021-08-27 |
US11893491B2 (en) | 2024-02-06 |
JP7286774B2 (ja) | 2023-06-05 |
CN113424199A (zh) | 2021-09-21 |
US20210133578A1 (en) | 2021-05-06 |
US20240211764A1 (en) | 2024-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3718057B1 (en) | Neural architecture search using a performance prediction neural network | |
JP7286774B2 (ja) | ニューラルネットワークのための複合モデルスケーリング | |
JP6790286B2 (ja) | 強化学習を用いたデバイス配置最適化 | |
US11869530B2 (en) | Generating audio using neural networks | |
KR102469261B1 (ko) | 적응적 인공 신경 네트워크 선택 기법들 | |
US20220121906A1 (en) | Task-aware neural network architecture search | |
JP2020201971A (ja) | 畳み込みニューラルネットワークを使用したシーケンスの処理 | |
KR20190117713A (ko) | 신경망 아키텍처 최적화 | |
US11488067B2 (en) | Training machine learning models using teacher annealing | |
WO2019084558A1 (en) | SELECTING RESPONSE INTERVALS FROM ELECTRONIC DOCUMENTS USING AUTOMATIC APPRENTICESHIP |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286774 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |