JP7389575B2 - データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム - Google Patents
データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム Download PDFInfo
- Publication number
- JP7389575B2 JP7389575B2 JP2019123945A JP2019123945A JP7389575B2 JP 7389575 B2 JP7389575 B2 JP 7389575B2 JP 2019123945 A JP2019123945 A JP 2019123945A JP 2019123945 A JP2019123945 A JP 2019123945A JP 7389575 B2 JP7389575 B2 JP 7389575B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- layer
- learning
- feature
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 131
- 238000013528 artificial neural network Methods 0.000 title claims description 130
- 238000000034 method Methods 0.000 title claims description 57
- 238000003672 processing method Methods 0.000 title claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 197
- 238000004364 calculation method Methods 0.000 claims description 85
- 230000008878 coupling Effects 0.000 claims description 27
- 238000010168 coupling process Methods 0.000 claims description 27
- 238000005859 coupling reaction Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/067—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Description
ニューラルネットワークの第1の層と接続される第2の層の第3の部分の特徴量データを算出するために参照される前記第1の層の第1の部分と、前記第2の層の第4の部分の特徴量データを算出するために参照される前記第1の層の第2の部分と、をそれぞれ規定する結合パラメータを取得する取得手段と、
前記取得手段によって取得された前記結合パラメータに規定される前記第1の部分の特徴量データから前記第3の部分の特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第2の部分の特徴量データから前記第4の部分の特徴量データを算出する第2の算出処理とを並列に行う演算手段と、
を備える。
まず、図1を参照して、本実施形態に係る処理の概要を説明する。本実施形態に係るニューラルネットワークは、階層型のニューラルネットワークであり、第1の層111と、第2の層112と、を有している。また、第1の層111及び第2の層112のそれぞれは、第1のニューロングループ101と第2のニューロングループ102とを有している。第1のニューロングループ101は、ニューロン演算106aの対象となるニューロンのグループである。また、第2のニューロングループ102は、ニューロン演算106bの対象となるニューロンのグループである。ここで、第1の層111と第2の層112との間のニューロン演算106a,106bは、同じニューロングループ内のニューロンの間のみを結合する。図1の例において、ニューロングループ101,102は、第1の層111と第2の層112の両方にまたがって存在している。以下で説明するように、ニューロン演算106a,106bは、それぞれ別の演算ユニット(17a又は17b)が行うことができる。
FOUT j(x,y) =
bj +
ΣiΣΔxΣΔy Wij(Δx,Δy)FIN LUT(i)(x+Δx,y+Δy) ……(1)
この式において、FIN及びFOUTは入力特徴及び出力特徴を表し、この例では、ともに縦×横×チャンネル方向を有する3次元特徴データである。FIN kは、入力特徴FINのk番目のチャンネルを表し、FOUT jは出力特徴FOUTのj番目のチャンネルを表す。LUT(i)は、畳み込み演算の対象となるi番目の参照入力特徴のチャンネルの番号に対応する、入力特徴のチャンネルの番号を示す。例えば、図5の例では、ニューロン演算506aでは、参照入力特徴512aの[1ch,2ch,3ch]が用いられ、これらは入力特徴511a.511bの[1ch,2ch,4ch]の3つのチャンネルに対応する。すなわち、i=[1,2,3]の時に、LUT(i)は[1,2,4]を表す。bjはバイアス項である。Wijは重み係数であり、前階層のニューロンiと後階層のニューロンjとの間の結合重みを示す。Δx,Δy(Δx,Δy∈[-1,0,1])は、畳み込み範囲を示す変数である。
FOUT’j(x,y)=θ(FOUT j(x,y)) ……(2)
θ(x)=Max(0,x)
この式において、θは活性化関数と呼ばれる非線形関数である。なお、演算部17aは、最大値プールと呼ばれる演算処理、及び全結合層の演算のような、CNNにおいて用いられるその他の演算を行うこともできる。
以下では、実施形態1で説明したニューラルネットワークの結合パラメータの決定方法について説明する。実施形態2に係る学習装置は、ニューラルネットワークの学習を行うことができる。実施形態2に係る学習装置は、通常の機械学習の手法を用いて、ニューラルネットワークの重み係数の学習を行うことができる。さらに、実施形態2に係る学習装置は、結合パラメータの決定も行うことができる。
Loss2 < Loss1 + τ ……(3)
この式が真である場合、処理はステップS810に進み、偽である場合、処理はステップS812に進む。上式において、τは摂動の許容度を決めるパラメータであり、ユーザが指定することができる。より大きい値のτは、結合関係をより頻繁に変更することを許容する。
-τLog(Loss1/Loss2) < Log(|W1|/|W2|) ……(4)
この式において、|W1|及び|W2|は、それぞれ結合パラメータの変更前及び変更後におけるニューラルネットワークの結合数(又は重み係数の数)を示す。このように重み係数の総数の変化を許容する場合、最終的な重み係数の上限を指示するユーザ入力に従って結合パラメータの学習を行ってもよい。
実施形態1,2では、ニューロングループごとに並列処理が行われた。一方でCNNにおいては、後段の階層が多くの特徴チャンネルを持つことが多い。したがって、1つのニューロングループにおけるニューロン演算の出力チャンネルの数も、後段の階層においては膨大になることがある。実施形態3では、1つのニューロングループについても並列処理が行われる。
ニューロングループの設定方法は、上記の例には限定されない。例えば、図6(A)では、複数のニューロンが、出力特徴の前半部分(1chから4ch)に対応するニューロングループと、出力特徴の後半部分(5chから8ch)に対応するニューロングループとに、ブロック状に分割されていた。しかしながら、例えば、複数のニューロンが、奇数番号のチャンネルに対応するニューロングループと、偶数番号のチャンネルに対応するニューロングループと、に分割されてもよい。このように、チャンネル番号についての巡回的な規則に従って、ニューロングループが構成されていてもよい。ハードウェア又はメモリ等の構成に合わせて、様々なニューロングループを設定することができる。
Claims (18)
- ニューラルネットワークの第1の層と接続される第2の層の第3の部分の特徴量データを算出するために参照される前記第1の層の第1の部分と、前記第2の層の第4の部分の特徴量データを算出するために参照される前記第1の層の第2の部分と、をそれぞれ規定する結合パラメータを取得する取得手段と、
前記取得手段によって取得された前記結合パラメータに規定される前記第1の部分の特徴量データから前記第3の部分の特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第2の部分の特徴量データから前記第4の部分の特徴量データを算出する第2の算出処理とを並列に行う演算手段と、を備える
ことを特徴とするデータ処理装置。 - 前記第1の層の前記第1の部分と前記第2の部分とは重複しない
ことを特徴とする、請求項1に記載のデータ処理装置。 - 前記第1の層の前記第1の部分と前記第2の部分とが部分的に重複する
ことを特徴とする、請求項1に記載のデータ処理装置。 - 前記第2の層の前記第3の部分の大きさと前記第4の部分の大きさとが異なる
ことを特徴とする、請求項1から3のいずれか1項に記載のデータ処理装置。 - 前記結合パラメータは、チャンネル単位で前記第1の層の前記第1の部分及び前記第2の部分を規定する
ことを特徴とする、請求項1から4のいずれか1項に記載のデータ処理装置。 - 前記結合パラメータは、複数のチャンネルを含むブロック単位で前記第1の層の前記第1の部分及び前記第2の部分を規定する
ことを特徴とする、請求項5に記載のデータ処理装置。 - 前記演算手段は、前記第1の層の前記第1の部分に含まれる全てのチャンネルの特徴量データを用いて、かつ前記第1の層の前記第2の部分に含まれるチャンネルの特徴量データを用いずに、前記第2の層の第3の部分に含まれるそれぞれのチャンネルの特徴量データを算出する
ことを特徴とする、請求項5又は6に記載のデータ処理装置。 - 前記ニューラルネットワークは、畳み込みニューラルネットワーク又は再帰的ニューラルネットワークである
ことを特徴とする、請求項1から7のいずれか1項に記載のデータ処理装置。 - 前記取得手段は、前記ニューラルネットワークに入力される学習データに基づいて学習された結合パラメータを取得する
ことを特徴とする、請求項1から8のいずれか1項に記載のデータ処理装置。 - 学習データと、前記学習データに対する処理結果を示す教師データと、を取得する取得手段と、
ニューラルネットワークに前記学習データを入力することにより、前記学習データに対する処理結果を得るデータ処理手段であって、前記ニューラルネットワークの第1の層と接続される第2の層の第3の部分の特徴量データを算出するために参照される前記第1の層の第1の部分と、前記第2の層の第4の部分の特徴量データを算出するために参照される前記第1の層の第2の部分と、をそれぞれ規定する結合パラメータに規定される前記第1の部分の特徴量データから前記第3の部分の特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第2の部分の特徴量データから前記第4の部分の特徴量データを算出する第2の算出処理とを並列に行うデータ処理手段と、
前記学習データに対する処理結果と、前記教師データと、に基づいて、前記結合パラメータ及び前記ニューラルネットワークの階層間の重み係数の学習を行う学習手段と、を備える
ことを特徴とする学習装置。 - 前記学習手段は、第1の結合パラメータに従って前記データ処理手段が得た前記学習データに対する処理結果と、第2の結合パラメータに従って前記データ処理手段が得た前記学習データに対する処理結果と、に基づいて前記結合パラメータの学習を行う
ことを特徴とする、請求項10に記載の学習装置。 - 前記学習手段は、前記第2の層の前記第1の部分及び前記第2の部分の大きさを学習により決定する
ことを特徴とする、請求項10又は11に記載の学習装置。 - 前記取得手段は、さらに、学習により得られる前記結合パラメータに対する制約条件を指示するユーザ入力を取得し、
前記学習手段は、前記制約条件に従って前記結合パラメータの学習を行う
ことを特徴とする、請求項10から12のいずれか1項に記載の学習装置。 - 順に接続された前階層、第1の層、及び第2の層を有するニューラルネットワークであって、
前記第1の層は、前記前階層の一部のニューロンセットと結合した第1のニューロンセットと、前記前階層の一部とは異なる前記前階層の他の一部のニューロンセットと結合した第2のニューロンセットと、を有し、
前記第2の層は、結合パラメータにより規定される前記第1のニューロンセットの一部及び前記第2のニューロンセットの一部と結合した第3のニューロンセットと、前記結合パラメータにより規定され前記第1のニューロンセットの一部とは異なる前記第1のニューロンセットの他の一部及び前記第2のニューロンセットの一部とは異なる前記第2のニューロンセットの他の一部と結合した第4のニューロンセットと、を有し、
前記ニューラルネットワークは、前記結合パラメータを取得し、前記結合パラメータに規定される前記第1のニューロンセットの前記一部及び前記第2のニューロンセットの前記一部における特徴量データから前記第3のニューロンセットにおける特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第1のニューロンセットの前記他の一部及び前記第2のニューロンセットの前記他の一部における特徴量データから前記第4のニューロンセットにおける特徴量データを算出する第2の算出処理とを並列に行うよう、コンピュータを機能させることを特徴とするニューラルネットワーク。 - ニューラルネットワークの第1の層と接続される第2の層の第3の部分の特徴量データを算出するために参照される前記第1の層の第1の部分と、前記第2の層の第4の部分の特徴量データを算出するために参照される前記第1の層の第2の部分と、をそれぞれ規定する結合パラメータを取得する取得工程と、
前記結合パラメータに規定される前記第1の部分の特徴量データから前記第3の部分の特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第2の部分の特徴量データから前記第4の部分の特徴量データを算出する第2の算出処理とを並列に行う演算工程と、
を含むことを特徴とするデータ処理方法。 - 学習データと、前記学習データに対する処理結果を示す教師データと、を取得する取得工程と、
ニューラルネットワークに前記学習データを入力することにより、前記学習データに対する処理結果を得るデータ処理工程であって、前記ニューラルネットワークの第1の層と接続される第2の層の第3の部分の特徴量データを算出するために参照される前記第1の層の第1の部分と、前記第2の層の第4の部分の特徴量データを算出するために参照される前記第1の層の第2の部分と、をそれぞれ規定する結合パラメータに規定される前記第1の部分の特徴量データから前記第2の層の前記第3の部分の特徴量データを算出する第1の算出処理と、前記結合パラメータに規定される前記第2の部分の特徴量データから前記第4の部分の特徴量データを算出する第2の算出処理とを並列に行うデータ処理工程と、
前記学習データに対する処理結果と、前記教師データと、に基づいて、前記結合パラメータ及び前記ニューラルネットワークの階層間の重み係数の学習を行う学習工程と、
を備えることを特徴とする学習方法。 - コンピュータを、請求項1から9のいずれか1項に記載のデータ処理装置として機能させるためのプログラム。
- コンピュータを、請求項10から13のいずれか1項に記載の学習装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019123945A JP7389575B2 (ja) | 2019-07-02 | 2019-07-02 | データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム |
US16/918,206 US12079717B2 (en) | 2019-07-02 | 2020-07-01 | Data processing apparatus, training apparatus, method of detecting an object, method of training, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019123945A JP7389575B2 (ja) | 2019-07-02 | 2019-07-02 | データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021009622A JP2021009622A (ja) | 2021-01-28 |
JP2021009622A5 JP2021009622A5 (ja) | 2022-07-11 |
JP7389575B2 true JP7389575B2 (ja) | 2023-11-30 |
Family
ID=74065752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019123945A Active JP7389575B2 (ja) | 2019-07-02 | 2019-07-02 | データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US12079717B2 (ja) |
JP (1) | JP7389575B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007305072A (ja) | 2006-05-15 | 2007-11-22 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2015210747A (ja) | 2014-04-30 | 2015-11-24 | 国立研究開発法人情報通信研究機構 | 階層型ニューラルネットワークの学習システム及び方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811775B2 (en) | 2012-12-24 | 2017-11-07 | Google Inc. | Parallelizing neural networks during training |
-
2019
- 2019-07-02 JP JP2019123945A patent/JP7389575B2/ja active Active
-
2020
- 2020-07-01 US US16/918,206 patent/US12079717B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007305072A (ja) | 2006-05-15 | 2007-11-22 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2015210747A (ja) | 2014-04-30 | 2015-11-24 | 国立研究開発法人情報通信研究機構 | 階層型ニューラルネットワークの学習システム及び方法 |
Non-Patent Citations (1)
Title |
---|
Pablo Barros, 外3名,"A multichannel convolutional neural network for hand posture recognition",Proceedings of the 24th International Conference on Artificial Neural Networks(ICANN 2014),2014年09月30日 |
Also Published As
Publication number | Publication date |
---|---|
US20210004681A1 (en) | 2021-01-07 |
US12079717B2 (en) | 2024-09-03 |
JP2021009622A (ja) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pei et al. | Towards artificial general intelligence with hybrid Tianjic chip architecture | |
WO2018058426A1 (zh) | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统 | |
WO2021218517A1 (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
Ioannou et al. | Decision forests, convolutional networks and the models in-between | |
CN107688855B (zh) | 针对于复杂神经网络的分层量化方法与装置 | |
Zhang et al. | Sta-gcn: two-stream graph convolutional network with spatial–temporal attention for hand gesture recognition | |
WO2017187516A1 (ja) | 情報処理システムおよびその運用方法 | |
US20220092408A1 (en) | Neural network weight distribution using a tree direct-memory access (dma) bus | |
CN110108292B (zh) | 车辆导航路径规划方法、系统、设备及介质 | |
EP0465489A1 (en) | GENETIC SYNTHESIS OF NEURONAL NETWORKS. | |
JP7042210B2 (ja) | 学習モデル生成装置、学習モデル生成方法、及びプログラム | |
CN111738276A (zh) | 基于多核卷积神经网络的图像处理方法、装置及设备 | |
US20220207327A1 (en) | Method for dividing processing capabilities of artificial intelligence between devices and servers in network environment | |
Milutinovic et al. | End-to-end training of differentiable pipelines across machine learning frameworks | |
CN113449612A (zh) | 一种基于子流型稀疏卷积的三维目标点云识别的方法 | |
CN116797850A (zh) | 基于知识蒸馏和一致性正则化的类增量图像分类方法 | |
DE112020003105T5 (de) | Schicht für schicht-debugging von neuronalen netzwerken | |
Siu | Residual networks behave like boosting algorithms | |
JP7389575B2 (ja) | データ処理装置、データ処理方法、学習装置、学習方法、ニューラルネットワーク、及びプログラム | |
JPH04213750A (ja) | 層化されたニューラル・ネットワークでの分類方法 | |
Malpure et al. | Investigating transfer learning capabilities of vision transformers and CNNs by fine-tuning a single trainable block | |
US20240143525A1 (en) | Transferring non-contiguous blocks of data using instruction-based direct-memory access (dma) | |
JP2021005242A (ja) | 情報処理装置、情報処理プログラム、及び情報処理方法 | |
WO2022127603A1 (zh) | 一种模型处理方法及相关装置 | |
Wang et al. | Diy your easynas for vision: Convolution operation merging, map channel reducing, and search space to supernet conversion tooling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220701 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7389575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |