JP2023525740A - 重み付き実数値論理の容量及び学習の最適化 - Google Patents
重み付き実数値論理の容量及び学習の最適化 Download PDFInfo
- Publication number
- JP2023525740A JP2023525740A JP2022567784A JP2022567784A JP2023525740A JP 2023525740 A JP2023525740 A JP 2023525740A JP 2022567784 A JP2022567784 A JP 2022567784A JP 2022567784 A JP2022567784 A JP 2022567784A JP 2023525740 A JP2023525740 A JP 2023525740A
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- activation
- threshold
- input
- true
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 43
- 210000002569 neuron Anatomy 0.000 claims abstract description 228
- 230000004913 activation Effects 0.000 claims abstract description 150
- 238000013528 artificial neural network Methods 0.000 claims abstract description 54
- 238000009826 distribution Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 132
- 238000000034 method Methods 0.000 claims description 74
- 238000003860 storage Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 238000012886 linear function Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 15
- 241000282326 Felis catus Species 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- OFHCOWSQAMBJIW-AVJTYSNKSA-N alfacalcidol Chemical compound C1(/[C@@H]2CC[C@@H]([C@]2(CCC1)C)[C@H](C)CCCC(C)C)=C\C=C1\C[C@@H](O)C[C@H](O)C1=C OFHCOWSQAMBJIW-AVJTYSNKSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008555 neuronal activation Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Fuzzy Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
- Feedback Control In General (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
ANDに対応するニューロンの活性化関数に対して、重み付きLukasiewiczのt-ノルムは以下のように定義される。
Claims (20)
- 論理ニューロンのニューラルネットワークに実装された重み付き実数値論理を学習する方法であって、
重み付き実数値論理ゲートを実装するニューラルネットワークのニューロンへの最大入力重みと最小入力重みと間の比を表す最大表現力を受け取ることと、
前記ニューロンに関連付けられた演算子アリティを受け取ることと、
前記ニューロンへの入力に関連付けられた重み、真の閾値、及び活性化についてのニューロン閾値に関して、前記重み付き実数値論理ゲートに関連付けられた論理制約を定義することと、
前記論理制約に基づいて定式化された活性化最適化を解くことに基づいて、前記ニューロンの活性化関数に用いられるパラメータとして前記真の閾値を決定することであって、前記活性化最適化は、所与の前記演算子アリティ及び前記最大表現力について、前記ニューロンへの入力重みの分布幅を表す表現力と、前記ニューロンに対する勾配クオリティとの積を最大化する、決定することと、
前記ニューロンにおける前記活性化関数を使用して前記論理ニューロンのニューラルネットワークを訓練することであって、前記活性化関数は、決定された前記真の閾値を使用する、訓練することと、
を含む方法。 - 前記活性化関数は、シグモイド関数を含む、請求項1に記載の方法。
- 前記活性化関数は、3区分leaky正規化線形ユニット(ReLU)を含む、請求項1に記載の方法。
- 定義された前記論理制約に基づいて、
前記ニューロン閾値の下界を定義することと、
前記ニューロン閾値の上界を定義することと、
前記ニューロンの動作範囲の最小点を表す、前記ニューロンの入力の下界を定義することと、
前記表現力、前記演算子アリティ、及び前記真の閾値に関して、最小入力重みの下界を定義することと、
前記ニューロンの前記活性化関数の前記動作範囲の幅を表す論理帯域幅を定義することと、
前記表現力の上界を定義することと、
をさらに含み、
前記活性化最適化は、前記ニューロン閾値の前記下界、前記ニューロン閾値の前記上界、前記ニューロンの入力の前記下界、前記最小入力重みの前記下界、前記論理帯域幅、及び前記表現力の前記上界に基づいて定式化される、請求項1に記載の方法。 - 前記活性化最適化は、前記表現力、前記真の閾値、前記ニューロンの入力の前記下界、及びニューロン活性化に期待される最大入力の上界に関して導出される、請求項4に記載の方法。
- 動作範囲最小において偽であり、偽の閾値入力に対して偽の閾値にあり、真の閾値入力に対して真の閾値にあり、動作範囲最大において真である区分的線形関数を形成することによって、論理動作範囲にわたって前記活性化関数の勾配を最適化するために、前記真の閾値について前記活性化関数を継続的に更新することをさらに含む、請求項1に記載の方法。
- より高い表現力を必要とすることなく前記ニューロンの入力を除去することを可能にするために、前記ニューロンの入力に関連付けられたスラック変数を導入することをさらに含む、請求項1に記載の方法。
- 前記ニューロンへの前記入力重みの和は、最小重み及び前記表現力のみが与えられると決定される、請求項1に記載の方法。
- 前記真の閾値は、現在の表現力に基づいて更新される、請求項1に記載の方法。
- 前記重み付き実数値論理ゲートの特性を可視化することをさらに含む、請求項1に記載の方法。
- 具体化されたプログラム命令をその中に有するコンピュータ可読ストレージ媒体を含むコンピュータ・プログラム製品であって、前記プログラム命令は、デバイスによって実行可能であって、前記デバイスに、
重み付き実数値論理ゲートを実装するニューラルネットワークのニューロンへの最大入力重みと最小入力重みと間の比を表す最大表現力を受け取ることと、
前記ニューロンに関連付けられた演算子アリティを受け取ることと、
前記ニューロンへの入力に関連付けられた重み、真の閾値、及び活性化についてのニューロン閾値に関して、前記重み付き実数値論理ゲートに関連付けられた論理制約を定義することと、
前記論理制約に基づいて定式化された活性化最適化を解くことに基づいて、前記ニューロンの活性化関数に用いられるパラメータとして前記真の閾値を決定することであって、前記活性化最適化は、所与の前記演算子アリティ及び前記最大表現力について、前記ニューロンへの入力重みの分布幅を表す表現力と、前記ニューロンに対する勾配クオリティとの積を最大化する、決定することと、
前記ニューロンにおける前記活性化関数を使用して前記論理ニューロンのニューラルネットワークを訓練することであって、前記活性化関数は、決定された前記真の閾値を使用する、訓練することと、
を行わせる、コンピュータ・プログラム製品。 - 前記活性化関数は、シグモイド関数を含む、請求項11に記載のコンピュータ・プログラム製品。
- 前記活性化関数は、3区分leaky正規化線形ユニット(ReLU)を含む、請求項11に記載のコンピュータ・プログラム製品。
- 前記デバイスに、定義された前記論理制約に基づいて、
前記ニューロン閾値の下界を定義することと、
前記ニューロン閾値の上界を定義することと、
前記ニューロンの動作範囲の最小点を表す、前記ニューロンの入力の下界を定義することと、
前記表現力、前記演算子アリティ、及び前記真の閾値に関して、最小入力重みの下界を定義することと、
前記ニューロンの前記活性化関数の前記動作範囲の幅を表す論理帯域幅を定義することと、
前記表現力の上界を定義することと、
を行わせ、
前記活性化最適化は、前記ニューロン閾値の前記下界、前記ニューロン閾値の前記上界、前記ニューロンの入力の前記下界、前記最小入力重みの前記下界、前記論理帯域幅、及び前記表現力の前記上界に基づいて定式化される、請求項11に記載のコンピュータ・プログラム製品。 - 前記活性化最適化は、前記表現力、前記真の閾値、前記ニューロンの入力の前記下界、及びニューロン活性化に期待される最大入力の上界に関して導出される、請求項14に記載のコンピュータ・プログラム製品。
- 前記デバイスに、動作範囲最小において偽であり、偽の閾値入力に対して偽の閾値にあり、真の閾値入力に対して真の閾値にあり、動作範囲最大において真である区分的線形関数を形成することによって、論理動作範囲にわたって前記活性化関数の勾配を最適化するために、前記真の閾値について前記活性化関数を継続的に更新することをさらに行わせる、請求項11に記載のコンピュータ・プログラム製品。
- 前記デバイスに、より高い表現力を必要とすることなく前記ニューロンの入力を除去することを可能にするために、前記ニューロンの入力に関連付けられたスラック変数を導入することをさらに行わせる、請求項11に記載のコンピュータ・プログラム製品。
- 前記ニューロンへの前記入力重みの和は、最小重み及び前記表現力のみが与えられると決定される、請求項11に記載のコンピュータ・プログラム製品。
- 前記真の閾値は、現在の表現力に基づいて更新される、請求項11に記載のコンピュータ・プログラム製品。
- ハードウェアプロセッサと、
前記ハードウェアプロセッサに結合されたメモリデバイスと
を含むシステムであって、
前記ハードウェアプロセッサは、少なくとも
重み付き実数値論理ゲートを実装するニューラルネットワークのニューロンへの最大入力重みと最小入力重みと間の比を表す最大表現力を受け取ることと、
前記ニューロンに関連付けられた演算子アリティを受け取ることと、
前記ニューロンへの入力に関連付けられた重み、真の閾値、及び活性化についてのニューロン閾値に関して、前記重み付き実数値論理ゲートに関連付けられた論理制約を定義することと、
前記論理制約に基づいて定式化された活性化最適化を解くことに基づいて、前記ニューロンの活性化関数に用いられるパラメータとして前記真の閾値を決定することであって、前記活性化最適化は、所与の前記演算子アリティ及び前記最大表現力について、前記ニューロンへの入力重みの分布幅を表す表現力と、前記ニューロンに対する勾配クオリティとの積を最大化する、決定することと、
前記ニューロンにおける前記活性化関数を使用して前記論理ニューロンのニューラルネットワークを訓練することであって、前記活性化関数は、決定された前記真の閾値を使用する、訓練することと、
を行うように構成される、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/931,223 US11494634B2 (en) | 2020-05-13 | 2020-05-13 | Optimizing capacity and learning of weighted real-valued logic |
US15/931,223 | 2020-05-13 | ||
PCT/IB2021/052265 WO2021229312A1 (en) | 2020-05-13 | 2021-03-18 | Optimizing capacity and learning of weighted real-valued logic |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023525740A true JP2023525740A (ja) | 2023-06-19 |
JP7553203B2 JP7553203B2 (ja) | 2024-09-18 |
Family
ID=78512517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022567784A Active JP7553203B2 (ja) | 2020-05-13 | 2021-03-18 | 重み付き実数値論理の容量及び学習の最適化 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11494634B2 (ja) |
JP (1) | JP7553203B2 (ja) |
KR (1) | KR20220159407A (ja) |
CN (1) | CN115552419A (ja) |
AU (1) | AU2021271230B2 (ja) |
CA (1) | CA3174744A1 (ja) |
GB (1) | GB2610531A (ja) |
WO (1) | WO2021229312A1 (ja) |
ZA (1) | ZA202103206B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115996173B (zh) * | 2022-11-14 | 2023-06-20 | 中国科学技术大学 | 面向分布式深度学习算子并行训练的通信优化方法与系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5226092A (en) * | 1991-06-28 | 1993-07-06 | Digital Equipment Corporation | Method and apparatus for learning in a neural network |
US6061673A (en) | 1996-11-06 | 2000-05-09 | Sowa Institute Of Technology Co., Ltd. | Learning methods in binary systems |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US10248675B2 (en) * | 2013-10-16 | 2019-04-02 | University Of Tennessee Research Foundation | Method and apparatus for providing real-time monitoring of an artifical neural network |
CN104463330B (zh) | 2014-12-02 | 2017-11-10 | 刘泊荣 | 一种知识地图的建立和学科知识导航方法 |
US10949736B2 (en) | 2016-11-03 | 2021-03-16 | Intel Corporation | Flexible neural network accelerator and methods therefor |
US10867238B2 (en) * | 2016-12-20 | 2020-12-15 | Intel Corporation | Population-based connectivity architecture for spiking neural networks |
EP3622406A4 (en) | 2017-05-09 | 2021-01-20 | SRI International Inc. | DEEP ADAPTIVE SEMANTIC LOGICAL NETWORK |
WO2019075267A1 (en) | 2017-10-11 | 2019-04-18 | Google Llc | ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS |
US11816552B2 (en) | 2017-10-26 | 2023-11-14 | International Business Machines Corporation | Dynamically reconfigurable networked virtual neurons for neural network processing |
CA3032188A1 (en) | 2018-01-31 | 2019-07-31 | Pin-Han Ho | Deep convolutional neural network architecture and system and method for building the deep convolutional neural network architecture |
CN109871940B (zh) | 2019-01-31 | 2021-07-27 | 清华大学 | 一种脉冲神经网络的多层训练算法 |
US11640539B2 (en) * | 2019-07-08 | 2023-05-02 | Vianai Systems, Inc. | Techniques for visualizing the operation of neural networks using samples of training data |
CN110610235B (zh) | 2019-08-22 | 2022-05-13 | 北京时代民芯科技有限公司 | 一种神经网络激活函数计算电路 |
US11551054B2 (en) * | 2019-08-27 | 2023-01-10 | International Business Machines Corporation | System-aware selective quantization for performance optimized distributed deep learning |
US20210103804A1 (en) * | 2019-10-02 | 2021-04-08 | General Radar Corporation | Neuron-Based Computational Machine |
US11507843B2 (en) * | 2020-03-30 | 2022-11-22 | Western Digital Technologies, Inc. | Separate storage and control of static and dynamic neural network data within a non-volatile memory array |
US12045319B2 (en) * | 2020-05-13 | 2024-07-23 | International Business Machines Corporation | First-order logical neural networks with bidirectional inference |
-
2020
- 2020-05-13 US US15/931,223 patent/US11494634B2/en active Active
-
2021
- 2021-03-18 GB GB2218366.9A patent/GB2610531A/en active Pending
- 2021-03-18 JP JP2022567784A patent/JP7553203B2/ja active Active
- 2021-03-18 CN CN202180034536.3A patent/CN115552419A/zh active Pending
- 2021-03-18 WO PCT/IB2021/052265 patent/WO2021229312A1/en active Application Filing
- 2021-03-18 KR KR1020227036291A patent/KR20220159407A/ko active Search and Examination
- 2021-03-18 CA CA3174744A patent/CA3174744A1/en active Pending
- 2021-03-18 AU AU2021271230A patent/AU2021271230B2/en active Active
- 2021-05-12 ZA ZA2021/03206A patent/ZA202103206B/en unknown
Also Published As
Publication number | Publication date |
---|---|
ZA202103206B (en) | 2022-08-31 |
CN115552419A (zh) | 2022-12-30 |
US20210357738A1 (en) | 2021-11-18 |
WO2021229312A1 (en) | 2021-11-18 |
GB2610531A (en) | 2023-03-08 |
US11494634B2 (en) | 2022-11-08 |
GB202218366D0 (en) | 2023-01-18 |
CA3174744A1 (en) | 2021-11-18 |
KR20220159407A (ko) | 2022-12-02 |
JP7553203B2 (ja) | 2024-09-18 |
AU2021271230B2 (en) | 2023-05-18 |
AU2021271230A1 (en) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7219035B2 (en) | Exponential priors for maximum entropy models | |
US12045319B2 (en) | First-order logical neural networks with bidirectional inference | |
US11775721B2 (en) | Quantum circuit decomposition by integer programming | |
US11531886B2 (en) | Bayesian graph convolutional neural networks | |
AlDahoul et al. | A comparison of machine learning models for suspended sediment load classification | |
Alweshah et al. | Improved water cycle algorithm with probabilistic neural network to solve classification problems | |
CN110837892A (zh) | 基于带类型关系路径嵌入的事实溯因推理方法 | |
JP7553203B2 (ja) | 重み付き実数値論理の容量及び学習の最適化 | |
Sadiq et al. | Normal parameter reduction algorithm in soft set based on hybrid binary particle swarm and biogeography optimizer | |
Stocking et al. | From robot learning to robot understanding: Leveraging causal graphical models for robotics | |
Chen et al. | Fuzzified deep neural network ensemble approach for estimating cycle time range | |
Cherdo et al. | Time series prediction and anomaly detection with recurrent spiking neural networks | |
Gallo et al. | Sk-moefs: A library in python for designing accurate and explainable fuzzy models | |
Baugh et al. | Neuro-symbolic Rule Learning in Real-world Classification Tasks | |
Yedjour et al. | Extraction of the association rules from artificial neural networks based on the multiobjective optimization | |
Interian et al. | Learning interpretable heuristics for WalkSAT | |
Yan et al. | Robust deep semi-supervised learning with label propagation and differential privacy | |
CN116188220B (zh) | 基于云学习的财务培训方法、系统、设备及存储介质 | |
US20210342732A1 (en) | Free-form integration of machine learning model primitives | |
Al Helal et al. | A probabilistic model for automobile diagnosis system: Combining Bayesian estimator and expert knowledge | |
Dam | A scalable evolutionary learning classifier system for knowledge discovery in stream data mining | |
Zainuddin et al. | Predictive Analytics For Machine Failure Using optimized Recurrent Neural Network-Gated Recurrent Unit (GRU) | |
Nguyen et al. | Fuzzy Generative Adversarial Networks | |
Pebesma | Towards transfer learning in e-discovery: finding the optimal classifier and evaluating domain adaptation methods | |
Xiang | Generalized non-impeding noisy-AND trees |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230810 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240805 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240813 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20240813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7553203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |