JP2023513613A - 適応共蒸留モデル - Google Patents
適応共蒸留モデル Download PDFInfo
- Publication number
- JP2023513613A JP2023513613A JP2022549165A JP2022549165A JP2023513613A JP 2023513613 A JP2023513613 A JP 2023513613A JP 2022549165 A JP2022549165 A JP 2022549165A JP 2022549165 A JP2022549165 A JP 2022549165A JP 2023513613 A JP2023513613 A JP 2023513613A
- Authority
- JP
- Japan
- Prior art keywords
- private
- model
- data set
- artificial intelligence
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 141
- 238000004821 distillation Methods 0.000 title claims abstract description 139
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 192
- 238000012549 training Methods 0.000 claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000006870 function Effects 0.000 claims description 74
- 238000010801 machine learning Methods 0.000 claims description 63
- 238000004422 calculation algorithm Methods 0.000 claims description 49
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 238000013479 data entry Methods 0.000 claims description 25
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000007637 random forest analysis Methods 0.000 claims description 8
- 238000013145 classification model Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012706 support-vector machine Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000003990 capacitor Substances 0.000 description 4
- 235000013601 eggs Nutrition 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- VAOCPAMSLUNLGC-UHFFFAOYSA-N metronidazole Chemical compound CC1=NC=C([N+]([O-])=O)N1CCO VAOCPAMSLUNLGC-UHFFFAOYSA-N 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Operations Research (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Vaporization, Distillation, Condensation, Sublimation, And Cold Traps (AREA)
- Feedback Control In General (AREA)
Abstract
Description
ここで、以下の語は以下を意味する
WeightedLoss:訓練中に最小化されるMserverのコスト関数
Mserver:共有モデルまたはパブリックモデル(例:適応共蒸留モデル60)
Mi:プライベートモデル(例:第1と第2のプライベート人工知能モデル30、40)
損失:平均二乗誤差、平均平均誤差(mean average error)、平均バイアス誤差、サポートベクターマシン損失、クロスエントロピー損失などの適切な損失関数
xn:共有またはパブリックデータセットDdistの係数n(例:入力データセット50)
w:重み係数
Claims (20)
- コンピューティングデバイスで利用される方法であって、
第1のプライベートデータセットを用いて生成された第1のプライベート人工知能モデルと、第2のプライベートデータセットを用いて生成された第2のプライベート人工知能モデルとに、入力データセットを入力し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のプライベート人工知能モデルから、第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第2のプライベート人工知能モデルから、第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを目標出力として、適応共蒸留モデルを訓練し、
第2の訓練フェーズにおいて、前記入力データセットを入力とし、前記第2の結果データセットを目標出力として、適応共蒸留モデルを訓練する
方法であって、
前記適応共蒸留モデルは、前記第1のプライベートデータセットまたは前記第2のプライベートデータセットで訓練されていない
方法。
- 前記第1のプライベート人工知能モデルは、第1のモデルアーキテクチャを有し、
前記第2のプライベート人工知能モデルは、前記第1のモデルアーキテクチャとは異なる第2のモデルアーキテクチャを有する
請求項1に記載の方法。
- 前記第1のプライベート人工知能モデルおよび前記第2のプライベート人工知能モデルのそれぞれは、深層ニューラルネットワーク、カーネルマシンまたはランダムフォレストである
請求項2に記載の方法。
- 前記適応共蒸留モデルは、分類モデルであって、
前記第1の結果データセットおよび第2の結果データセットのそれぞれは、それぞれの複数の分類ラベルを含む
請求項1に記載の方法。
- 前記入力データセットは、それぞれの入力分類ラベルを含む入力データエントリの第1のサブセットおよびそれぞれの入力分類ラベルを含む入力データエントリの第2のサブセットを含む複数のラベル付きデータセットである
請求項4に記載の方法。
- 前記適応共蒸留モデルは、回帰モデルであって、
前記第1の結果データセットおよび前記第2の結果データセットは、それぞれ、それぞれの複数の数値を含む
請求項1に記載の方法。
- 前記適応共蒸留モデルは、回帰型ニューラルネットワークであって、
前記入力データセットは、複数の順序付けされた数値を有する複数の入力系列を含む
請求項1に記載の方法。
- 少なくとも前記第1の訓練フェーズにおいて、前記適応共蒸留モデルは、重み付き損失関数を利用する訓練アルゴリズムを用いて訓練される
請求項1に記載の方法。
- 前記重み付き損失関数は、前記適応型蒸留モデルの予測出力と前記第1の結果データセットの目標データ出力との間の損失を、第1の類似度アルゴリズムによって決定される前記入力データセット内の係数と前記第1のプライベートデータセットとの間のデータ距離、前記第1の結果データセットにおける信頼値、および人が指定した入力のうちの1つ以上に基づく重み係数によって重み付けする、
請求項8に記載の方法。
- 前記第1の結果データセットまたは前記第2の結果データセットは、準同型に暗号化される
請求項1に記載の方法。
- 前記適応共蒸留モデルは、少なくとも、教師あり学習によって一部が訓練される
請求項1に記載の方法。
- コンピューティングシステムであって、
プロセッサを有するサーバコンピューティングデバイスを含み、
前記プロセッサは、
第1のプライベートデータセットによって生成された第1のプライベート人工知能モデルを実行する第1のクライアントコンピューティングデバイスと、第2のプライベートデータセットによって生成された第2のプライベート人工知能モデルを実行する第2のクライアントコンピューティングデバイスとに、入力データセットを送信し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のクライアントコンピューティングデバイスにおいて実行された前記第1のプライベート人工知能モデルから、第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させて結果として、前記第2のクライアントコンピューティングデバイスにおいて実行された前記第2のプライベート人工知能モデルから、第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを第1の目標出力として、適応共蒸留モデルを訓練し、
第2の訓練フェーズにおいて、さらに、前記入力データセットを前記入力とし、前記第2の結果データセットを第2の目標出力として、前記適応共蒸留モデルを訓練する、
ように構成され、
前記適応共蒸留モデルは、前記第1のプライベートデータセットおよび第2のプライベートデータセットによって訓練されていない
コンピューティングシステム。
- 前記第1のプライベート人工知能モデルは、第1のモデルアーキテクチャを有し、
前記第2のプライベート人工知能モデルは、前記第1のモデルアーキテクチャとは異なる第2のモデルアーキテクチャを有する
請求項12に記載のコンピューティングシステム。
- 前記第1のプライベート人工知能モデルおよび前記第2のプライベート人工知能モデルのそれぞれは、深層ニューラルネットワーク、カーネルマシンまたはランダムフォレストである
請求項13に記載のコンピューティングシステム。
- 前記適応共蒸留モデルは、分類モデルであって、
前記第1の結果データセットおよび第2の結果データセットのそれぞれは、それぞれの分類ラベルを含む
請求項12に記載のコンピューティングシステム。
- 前記適応共蒸留モデルは、回帰モデルであって、
前記第1の結果データセットおよび前記第2の結果データセットは、それぞれ、それぞれの複数の数値を含む
請求項12に記載のコンピューティングシステム。
- 前記適応共蒸留モデルは、回帰型ニューラルネットワークであって、
前記入力データセットは、複数の順序付けされた数値を有する複数の入力系列を含む
請求項12に記載のコンピューティングシステム。
- 前記プロセッサはさらに、
テンプレートデータセットによりテンプレート機械学習モデルを訓練し、
前記テンプレート機械学習モデルを前記第1のクライアントコンピューティングデバイスおよび前記第2のクライアントコンピューティングデバイスに送信する
ように構成され、
前記第1のプライベート人工知能モデルは、さらに、前記第1のプライベートデータセットによって訓練された、前記テンプレート機械学習モデルの第1のコピーであって、
前記第2のプライベート人工知能モデルは、さらに、前記第2のプライベートデータセットによって訓練された、前記テンプレート機械学習モデルの第2のコピーである
請求項12に記載のコンピューティングシステム。
- 前記適応共蒸留モデルは、重み付き損失関数を利用する訓練アルゴリズムを用いて訓練される
請求項12に記載のコンピューティングシステム。
- コンピューティングデバイスを用いる方法であって、
前記方法は、
第1のプライベートデータセットを用いて生成された第1のプライベート人工知能モデルと、第2のプライベートデータセットを用いて生成された第2のプライベート人工知能モデルとに、入力データセットを入力し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のプライベート人工知能モデルから、複数の第1の分類ラベルを含む第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させて結果として、前記第2のプライベート人工知能モデルから、複数の第2の分類ラベルを含む第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを第1の目標出力として、適応共蒸留モデルを訓練し、
第2の訓練フェーズにおいて、さらに、前記入力データセットを前記入力とし、前記第2の結果データセットを第2の目標出力として、前記適応共蒸留モデルを訓練し、
複数の実行時入力データエントリを含む実行時データセットを受信し、
各複数の実行時入力データエントリに対し、複数の第1の分類ラベルおよび複数の第2の分類ラベルセットを含む合わせられた分類ラベルセットから選択された実行時分類ラベルを出力する
方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/802,882 US11580453B2 (en) | 2020-02-27 | 2020-02-27 | Adaptive co-distillation model |
US16/802,882 | 2020-02-27 | ||
PCT/JP2021/005327 WO2021172058A1 (en) | 2020-02-27 | 2021-02-12 | Adaptive co-distillation model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513613A true JP2023513613A (ja) | 2023-03-31 |
JP7468675B2 JP7468675B2 (ja) | 2024-04-16 |
Family
ID=77463634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022549165A Active JP7468675B2 (ja) | 2020-02-27 | 2021-02-12 | 機械学習モデル |
Country Status (5)
Country | Link |
---|---|
US (1) | US11580453B2 (ja) |
EP (1) | EP4111386A4 (ja) |
JP (1) | JP7468675B2 (ja) |
CN (1) | CN115053238A (ja) |
WO (1) | WO2021172058A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220108225A1 (en) * | 2020-10-05 | 2022-04-07 | Docusign, Inc. | Distributed model generation via indirect private data access |
CN114003949B (zh) * | 2021-09-30 | 2022-08-30 | 清华大学 | 基于隐私数据集的模型训练方法和装置 |
US20230326107A1 (en) * | 2022-04-07 | 2023-10-12 | Know Labs, Inc. | Multipurpose artificial intelligence machine learning engine |
WO2024026147A1 (en) * | 2022-07-29 | 2024-02-01 | Crowley Government Services, Inc. | System and method for machine learning using multiple models |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190258936A1 (en) | 2018-02-16 | 2019-08-22 | Google Llc | Systems and Methods for Improved Generalization, Reproducibility, and Stabilization of Neural Networks via Error Control Code Constraints |
WO2019222401A2 (en) * | 2018-05-17 | 2019-11-21 | Magic Leap, Inc. | Gradient adversarial training of neural networks |
US20190385711A1 (en) * | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
-
2020
- 2020-02-27 US US16/802,882 patent/US11580453B2/en active Active
-
2021
- 2021-02-12 JP JP2022549165A patent/JP7468675B2/ja active Active
- 2021-02-12 CN CN202180012989.6A patent/CN115053238A/zh active Pending
- 2021-02-12 EP EP21760976.7A patent/EP4111386A4/en active Pending
- 2021-02-12 WO PCT/JP2021/005327 patent/WO2021172058A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP7468675B2 (ja) | 2024-04-16 |
WO2021172058A1 (en) | 2021-09-02 |
CN115053238A (zh) | 2022-09-13 |
EP4111386A1 (en) | 2023-01-04 |
EP4111386A4 (en) | 2024-03-13 |
US11580453B2 (en) | 2023-02-14 |
US20210272011A1 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11853894B2 (en) | Meta-learning for multi-task learning for neural networks | |
US11379287B2 (en) | System and method for error detection and correction in virtual reality and augmented reality environments | |
JP7468675B2 (ja) | 機械学習モデル | |
US12020167B2 (en) | Gradient adversarial training of neural networks | |
US20210142491A1 (en) | Scene embedding for visual navigation | |
US11577388B2 (en) | Automatic robot perception programming by imitation learning | |
Moon et al. | Multiple kinect sensor fusion for human skeleton tracking using Kalman filtering | |
EP3555815B1 (en) | Unsupervised learning techniques for temporal difference models | |
KR102526700B1 (ko) | 전자 장치 및 그의 3d 이미지 표시 방법 | |
KR102548732B1 (ko) | 신경망 학습 방법 및 이를 적용한 장치 | |
KR20190126857A (ko) | 이미지에서 오브젝트 검출 및 표현 | |
CN113039555A (zh) | 通过使用基于注意力的神经网络在视频剪辑中进行动作分类 | |
JPWO2019208793A1 (ja) | 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム | |
US11727686B2 (en) | Framework for few-shot temporal action localization | |
WO2022159200A1 (en) | Action recognition using pose data and machine learning | |
Tobin | Real-world robotic perception and control using synthetic data | |
KR102334666B1 (ko) | 얼굴 이미지 생성 방법 | |
WO2021171768A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置 | |
WO2022128638A1 (en) | Training and using a learning algorithm using a transcript of audio data for identification of a medical device visible in image data | |
KR102684414B1 (ko) | 신경망 모델의 암호화 방법 및 장치 | |
US11854224B2 (en) | Three-dimensional skeleton mapping | |
US20230334697A1 (en) | 3d environment reconstruction for persistent object tracking | |
US20220237467A1 (en) | Model suitability coefficients based on generative adversarial networks and activation maps | |
KR20230170215A (ko) | 비디오-텍스트 질의 응답을 위한 학습 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7468675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |