JP7468675B2 - 機械学習モデル - Google Patents
機械学習モデル Download PDFInfo
- Publication number
- JP7468675B2 JP7468675B2 JP2022549165A JP2022549165A JP7468675B2 JP 7468675 B2 JP7468675 B2 JP 7468675B2 JP 2022549165 A JP2022549165 A JP 2022549165A JP 2022549165 A JP2022549165 A JP 2022549165A JP 7468675 B2 JP7468675 B2 JP 7468675B2
- Authority
- JP
- Japan
- Prior art keywords
- private
- model
- artificial intelligence
- data set
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 82
- 238000013473 artificial intelligence Methods 0.000 claims description 188
- 238000012549 training Methods 0.000 claims description 113
- 230000006870 function Effects 0.000 claims description 73
- 238000000034 method Methods 0.000 claims description 73
- 238000004422 calculation algorithm Methods 0.000 claims description 49
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 238000013479 data entry Methods 0.000 claims description 25
- 230000000306 recurrent effect Effects 0.000 claims description 15
- 238000007637 random forest analysis Methods 0.000 claims description 8
- 238000013145 classification model Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 description 119
- 238000004821 distillation Methods 0.000 description 119
- 230000015654 memory Effects 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012706 support-vector machine Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000003990 capacitor Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 235000013601 eggs Nutrition 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 230000002860 competitive effect Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Operations Research (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Vaporization, Distillation, Condensation, Sublimation, And Cold Traps (AREA)
- Feedback Control In General (AREA)
Description
ここで、以下の語は以下を意味する
WeightedLoss:訓練中に最小化されるMserverのコスト関数
Mserver:共有モデルまたはパブリックモデル(例:適応共蒸留モデル60)
Mi:プライベートモデル(例:第1と第2のプライベート人工知能モデル30、40)
損失:平均二乗誤差、平均平均誤差(mean average error)、平均バイアス誤差、サポートベクターマシン損失、クロスエントロピー損失などの適切な損失関数
xn:共有またはパブリックデータセットDdistの係数n(例:入力データセット50)
w:重み係数
Claims (20)
- コンピューティングデバイスで利用される方法であって、
第1のプライベートデータセットを用いて生成された第1のプライベート人工知能モデルと、第2のプライベートデータセットを用いて生成された第2のプライベート人工知能モデルとに、入力データセットを入力し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のプライベート人工知能モデルから、第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第2のプライベート人工知能モデルから、第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを目標出力として、機械学習モデルを訓練し、
第2の訓練フェーズにおいて、前記入力データセットを入力とし、前記第2の結果データセットを目標出力として、機械学習モデルを訓練する
方法であって、
前記機械学習モデルは、前記第1のプライベートデータセットまたは前記第2のプライベートデータセットで訓練されていない
方法。 - 前記第1のプライベート人工知能モデルは、第1のモデルアーキテクチャを有し、
前記第2のプライベート人工知能モデルは、前記第1のモデルアーキテクチャとは異なる第2のモデルアーキテクチャを有する
請求項1に記載の方法。 - 前記第1のプライベート人工知能モデルおよび前記第2のプライベート人工知能モデルのそれぞれは、深層ニューラルネットワーク、カーネルマシンまたはランダムフォレストである
請求項2に記載の方法。 - 前記機械学習モデルは、分類モデルであって、
前記第1の結果データセットおよび第2の結果データセットのそれぞれは、それぞれの複数の分類ラベルを含む
請求項1に記載の方法。 - 前記入力データセットは、それぞれの入力分類ラベルを含む入力データエントリの第1のサブセットおよびそれぞれの入力分類ラベルを含む入力データエントリの第2のサブセットを含む複数のラベル付きデータセットである
請求項4に記載の方法。 - 前記機械学習モデルは、回帰モデルであって、
前記第1の結果データセットおよび前記第2の結果データセットは、それぞれ、それぞれの複数の数値を含む
請求項1に記載の方法。 - 前記機械学習モデルは、回帰型ニューラルネットワークであって、
前記入力データセットは、複数の順序付けされた数値を有する複数の入力系列を含む
請求項1に記載の方法。 - 少なくとも前記第1の訓練フェーズにおいて、前記機械学習モデルは、重み付き損失関数を利用する訓練アルゴリズムを用いて訓練される
請求項1に記載の方法。 - 前記重み付き損失関数は、前記機械学習モデルの予測出力と前記第1の結果データセットの目標データ出力との間の損失を、第1の類似度アルゴリズムによって決定される前記入力データセット内の係数と前記第1のプライベートデータセットとの間のデータ距離、前記第1の結果データセットにおける信頼値、および人が指定した入力のうちの1つ以上に基づく重み係数によって重み付けする、
請求項8に記載の方法。 - 前記第1の結果データセットまたは前記第2の結果データセットは、準同型に暗号化される
請求項1に記載の方法。 - 前記機械学習モデルは、少なくとも、教師あり学習によって一部が訓練される
請求項1に記載の方法。 - コンピューティングシステムであって、
プロセッサを有するサーバコンピューティングデバイスを含み、
前記プロセッサは、
第1のプライベートデータセットによって生成された第1のプライベート人工知能モデルを実行する第1のクライアントコンピューティングデバイスと、第2のプライベートデータセットによって生成された第2のプライベート人工知能モデルを実行する第2のクライアントコンピューティングデバイスとに、入力データセットを送信し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のクライアントコンピューティングデバイスにおいて実行された前記第1のプライベート人工知能モデルから、第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させて結果として、前記第2のクライアントコンピューティングデバイスにおいて実行された前記第2のプライベート人工知能モデルから、第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを第1の目標出力として、機械学習モデルを訓練し、
第2の訓練フェーズにおいて、さらに、前記入力データセットを前記入力とし、前記第2の結果データセットを第2の目標出力として、前記機械学習モデルを訓練する、
ように構成され、
前記機械学習モデルは、前記第1のプライベートデータセットおよび第2のプライベートデータセットによって訓練されていない
コンピューティングシステム。 - 前記第1のプライベート人工知能モデルは、第1のモデルアーキテクチャを有し、
前記第2のプライベート人工知能モデルは、前記第1のモデルアーキテクチャとは異なる第2のモデルアーキテクチャを有する
請求項12に記載のコンピューティングシステム。 - 前記第1のプライベート人工知能モデルおよび前記第2のプライベート人工知能モデルのそれぞれは、深層ニューラルネットワーク、カーネルマシンまたはランダムフォレストである
請求項13に記載のコンピューティングシステム。 - 前記機械学習モデルは、分類モデルであって、
前記第1の結果データセットおよび第2の結果データセットのそれぞれは、それぞれの分類ラベルを含む
請求項12に記載のコンピューティングシステム。 - 前記機械学習モデルは、回帰モデルであって、
前記第1の結果データセットおよび前記第2の結果データセットは、それぞれ、それぞれの複数の数値を含む
請求項12に記載のコンピューティングシステム。 - 前記機械学習モデルは、回帰型ニューラルネットワークであって、
前記入力データセットは、複数の順序付けされた数値を有する複数の入力系列を含む
請求項12に記載のコンピューティングシステム。 - 前記プロセッサはさらに、
テンプレートデータセットによりテンプレート機械学習モデルを訓練し、
前記テンプレート機械学習モデルを前記第1のクライアントコンピューティングデバイスおよび前記第2のクライアントコンピューティングデバイスに送信する
ように構成され、
前記第1のプライベート人工知能モデルは、さらに、前記第1のプライベートデータセットによって訓練された、前記テンプレート機械学習モデルの第1のコピーであって、
前記第2のプライベート人工知能モデルは、さらに、前記第2のプライベートデータセットによって訓練された、前記テンプレート機械学習モデルの第2のコピーである
請求項12に記載のコンピューティングシステム。 - 前記機械学習モデルは、重み付き損失関数を利用する訓練アルゴリズムを用いて訓練される
請求項12に記載のコンピューティングシステム。 - コンピューティングデバイスを用いる方法であって、
前記方法は、
第1のプライベートデータセットを用いて生成された第1のプライベート人工知能モデルと、第2のプライベートデータセットを用いて生成された第2のプライベート人工知能モデルとに、入力データセットを入力し、
前記第1のプライベート人工知能モデルに前記入力データセットを適用させた結果として、前記第1のプライベート人工知能モデルから、複数の第1の分類ラベルを含む第1の結果データセットを受信し、
前記第2のプライベート人工知能モデルに前記入力データセットを適用させて結果として、前記第2のプライベート人工知能モデルから、複数の第2の分類ラベルを含む第2の結果データセットを受信し、
第1の訓練フェーズにおいて、前記入力データセットを入力とし、前記第1の結果データセットを第1の目標出力として、機械学習モデルを訓練し、
第2の訓練フェーズにおいて、さらに、前記入力データセットを前記入力とし、前記第2の結果データセットを第2の目標出力として、前記機械学習モデルを訓練し、
複数の実行時入力データエントリを含む実行時データセットを受信し、
各複数の実行時入力データエントリに対し、複数の第1の分類ラベルおよび複数の第2の分類ラベルセットを含む合わせられた分類ラベルセットから選択された実行時分類ラベルを出力する
方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/802,882 US11580453B2 (en) | 2020-02-27 | 2020-02-27 | Adaptive co-distillation model |
US16/802,882 | 2020-02-27 | ||
PCT/JP2021/005327 WO2021172058A1 (en) | 2020-02-27 | 2021-02-12 | Adaptive co-distillation model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513613A JP2023513613A (ja) | 2023-03-31 |
JP7468675B2 true JP7468675B2 (ja) | 2024-04-16 |
Family
ID=77463634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022549165A Active JP7468675B2 (ja) | 2020-02-27 | 2021-02-12 | 機械学習モデル |
Country Status (5)
Country | Link |
---|---|
US (1) | US11580453B2 (ja) |
EP (1) | EP4111386A4 (ja) |
JP (1) | JP7468675B2 (ja) |
CN (1) | CN115053238A (ja) |
WO (1) | WO2021172058A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114003949B (zh) * | 2021-09-30 | 2022-08-30 | 清华大学 | 基于隐私数据集的模型训练方法和装置 |
WO2023194954A1 (en) * | 2022-04-07 | 2023-10-12 | Know Labs, Inc. | Multipurpose artificial intelligence machine learning engine |
WO2024026147A1 (en) * | 2022-07-29 | 2024-02-01 | Crowley Government Services, Inc. | System and method for machine learning using multiple models |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190258936A1 (en) | 2018-02-16 | 2019-08-22 | Google Llc | Systems and Methods for Improved Generalization, Reproducibility, and Stabilization of Neural Networks via Error Control Code Constraints |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210192357A1 (en) * | 2018-05-17 | 2021-06-24 | Magic Leap, Inc. | Gradient adversarial training of neural networks |
US20190385711A1 (en) * | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
-
2020
- 2020-02-27 US US16/802,882 patent/US11580453B2/en active Active
-
2021
- 2021-02-12 EP EP21760976.7A patent/EP4111386A4/en active Pending
- 2021-02-12 WO PCT/JP2021/005327 patent/WO2021172058A1/en unknown
- 2021-02-12 CN CN202180012989.6A patent/CN115053238A/zh active Pending
- 2021-02-12 JP JP2022549165A patent/JP7468675B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190258936A1 (en) | 2018-02-16 | 2019-08-22 | Google Llc | Systems and Methods for Improved Generalization, Reproducibility, and Stabilization of Neural Networks via Error Control Code Constraints |
Non-Patent Citations (1)
Title |
---|
SHIN, S et al.,"Generative Knowledge Transfer for Neural Language Models",arXiv.org [online],2017年,pp. 1-10,[retrieved on 2023.09.29], Retrieved from the Internet: <URL: https://arxiv.org/abs/1608.04077v3>,<DOI: 10.48550/arXiv.1608.04077> |
Also Published As
Publication number | Publication date |
---|---|
EP4111386A4 (en) | 2024-03-13 |
US20210272011A1 (en) | 2021-09-02 |
EP4111386A1 (en) | 2023-01-04 |
US11580453B2 (en) | 2023-02-14 |
CN115053238A (zh) | 2022-09-13 |
JP2023513613A (ja) | 2023-03-31 |
WO2021172058A1 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7468675B2 (ja) | 機械学習モデル | |
US11853894B2 (en) | Meta-learning for multi-task learning for neural networks | |
US11941719B2 (en) | Learning robotic tasks using one or more neural networks | |
US11710034B2 (en) | Misuse index for explainable artificial intelligence in computing environments | |
US10902302B2 (en) | Stacked neural network framework in the internet of things | |
Bhatia et al. | Application of extreme learning machine in plant disease prediction for highly imbalanced dataset | |
WO2022116933A1 (zh) | 一种训练模型的方法、数据处理的方法以及装置 | |
EP3794516A2 (en) | Gradient adversarial training of neural networks | |
KR20200071990A (ko) | 전자 장치 및 그의 3d 이미지 표시 방법 | |
US20220198266A1 (en) | Using disentangled learning to train an interpretable deep learning model | |
KR20190126857A (ko) | 이미지에서 오브젝트 검출 및 표현 | |
US20210279528A1 (en) | Systems and methods for fine tuning image classification neural networks | |
US20220327835A1 (en) | Video processing method and apparatus | |
CN115048560A (zh) | 一种数据处理方法及相关装置 | |
JP7457436B2 (ja) | 少数ショット時間的行動局所化を容易化するシステム、方法、プログラム | |
JP7225731B2 (ja) | 多変数データシーケンスの画像化 | |
US20240013518A1 (en) | Training and using a learning algorithm using a transcript of audio data for identification of a medical device visible in image data | |
KR102334666B1 (ko) | 얼굴 이미지 생성 방법 | |
CN114863201A (zh) | 三维检测模型的训练方法、装置、计算机设备和存储介质 | |
Patel et al. | Adding Material Embedding to the image2mass Problem | |
US20220237467A1 (en) | Model suitability coefficients based on generative adversarial networks and activation maps | |
US20230267349A1 (en) | Smart training and smart deployment of machine learning models | |
US20240078792A1 (en) | Systems for multi-task joint training of neural networks using multi-label datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7468675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |