JP7544254B2 - 学習装置、学習方法、及びプログラム - Google Patents
学習装置、学習方法、及びプログラム Download PDFInfo
- Publication number
- JP7544254B2 JP7544254B2 JP2023504999A JP2023504999A JP7544254B2 JP 7544254 B2 JP7544254 B2 JP 7544254B2 JP 2023504999 A JP2023504999 A JP 2023504999A JP 2023504999 A JP2023504999 A JP 2023504999A JP 7544254 B2 JP7544254 B2 JP 7544254B2
- Authority
- JP
- Japan
- Prior art keywords
- target data
- statistical property
- data
- feature
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 239000013598 vector Substances 0.000 claims description 125
- 238000012937 correction Methods 0.000 claims description 111
- 238000004364 calculation method Methods 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 7
- 238000009826 distribution Methods 0.000 description 69
- 238000010586 diagram Methods 0.000 description 27
- 238000012549 training Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000000593 degrading effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
クラス分類問題の教師有り学習を行う学習装置であって、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力する入力部と、
パラメータを用いて、前記対象データから特徴量を抽出する特徴量抽出器と、
前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力するクラス分類器と、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出する損失算出部と、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正するパラメータ修正部と、
を含む。
クラス分類問題の教師有り学習を行う学習装置による学習方法であって、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力し、
特徴量抽出器によって、パラメータを用いて、前記対象データから特徴量を抽出し、
クラス分類器によって、前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力し、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出し、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正する。
クラス分類問題の教師有り学習を行うコンピュータに、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力する処理と、
特徴量抽出器によって、パラメータを用いて、前記対象データから特徴量を抽出する処理と、
クラス分類器によって、前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力する処理と、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出する処理と、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正する処理と、
を実行させるプログラムが格納される。
上述したように、特許文献1,2にかかる学習方法では、ある特定の2つの統計的性質を持つデータを用い、その2つのデータの特徴量分布を近づけるように、特徴量抽出器を学習する。よって、上記2つの統計的性質とはさらに異なる第3の統計的性質を持つデータに関しては、依然として認識性能は低いままであるという問題がある。
なお、以下の説明に用いる各図面は、この開示の実施形態を説明するためのものである。ただし、この開示は、各図面の記載に限られるわけではない。また、各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、以下の説明に用いる図面において、この開示の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
以下、この開示の実施形態1について図2を参照して説明する。
図2は、本実施形態1にかかる学習装置10の構成の一例を示すブロック図である。図2に示すように、学習装置10は、データ入力部100と、特徴量抽出器101と、クラス分類器102と、正解情報入力部103と、統計的性質情報入力部104と、損失算出部105と、パラメータ修正量算出部106と、パラメータ修正部107と、を備える。
図3は、本実施形態1にかかる学習装置10の動作の一例を示すフローチャートである。
まず、S10において、データ入力部100は、学習データベース(不図示)から大量の学習データを取得する。一例として、学習データは、学習対象の対象データとなる画像と、当該画像の被写体の分類を示す正解ラベルと、当該画像の統計的性質情報と、を含むデータセットであってよい。この場合、データ入力部100は、上述した画像を対象データとして入力し、正解情報入力部103は、上述した正解ラベルを表すクラスレベル情報を入力し、統計的性質情報入力部104は、上述した統計的性質情報を入力する。ここで、対象データの画像は、予め正規化処理が行われた正規化画像であってよい。なお、交差検定を行う場合は、学習データは訓練データとテストデータとに分類されていてよい。
以上で、学習装置10の動作が終了する。
上述したように、本実施形態1によれば、パラメータ修正部107は、損失算出部105で算出される損失が小さくなるように、特徴量抽出器101のパラメータ及びクラス分類器102の重みベクトルを修正する。このことは、特徴量空間上において、特徴量と同クラスの重みベクトルとの距離を小さくし、特徴量と他クラスの重みベクトルとの距離を大きくすることと同義である。
図4の上図は、統計的性質が異なるデータに対する特徴量の、特徴量空間上での分布に関する概念図である。ここでは、データには2つのクラスのみ存在するとし、第1のクラスに属するデータの特徴量を星で表し、第2のクラスに属するデータの特徴量を三角で表している。また、第1の統計的性質を持つデータの特徴量分布を実線で表し、第2の統計的性質を持つデータの特徴量分布を点線で表し、第3の統計的性質を持つデータの特徴量分布を1点鎖線で表している。特に、第1の統計的性質を学習データの統計的性質であることを想定し、学習データとは異なる統計的性質を第2及び第3の統計的性質とする。
例えば、顔照合において、データ入力部100は、学習データの中から、学習対象となる対象データとして顔画像を入力する。このとき、入力顔画像は、顔器官点に基づき予め正規化処理を行った画像であってもよい。以下の説明では、入力顔画像をIと記す。
次に、この開示の実施形態2について図5を参照して説明する。
図5は、本実施形態2にかかる学習装置11の構成の一例を示すブロック図である。なお、以下では、上述した実施形態1にかかる学習装置10と同様の構成及び機能の説明は省略し、相違点について説明する。
次に、この開示の実施形態3について図6を参照して説明する。
図6は、本実施形態3にかかる学習装置12の構成の一例を示すブロック図である。なお、以下では、上述した実施形態1にかかる学習装置10と同様の構成及び機能の説明は省略し、相違点について説明する。
次に、この開示の実施形態4について図7を参照して説明する。本実施形態4は、上述した実施形態1,2,3を上位概念化した実施形態に相当する。
図7は、本実施形態4にかかる学習装置13の構成の一例を示すブロック図である。図7に示すように、学習装置13は、入力部109と、特徴量抽出器110と、クラス分類器111と、損失算出部112と、パラメータ修正部113と、を備える。
上述した実施形態1,2,3,4にかかる学習装置10,11,12,13は、コンピュータで実現することができる。このコンピュータは、パーソナルコンピュータやワードプロセッサ等を含むコンピュータシステムで構成される。しかしこれに限らず、コンピュータは、LAN(ローカル・エリア・ネットワーク)のサーバ、コンピュータ(パソコン)通信のホスト、インターネット上に接続されたコンピュータシステム等によって構成されることも可能である。また、ネットワーク上の各機器に機能分散させ、ネットワーク全体でコンピュータを構成することも可能である。
100 データ入力部
101,110 特徴量抽出器
102,111 クラス分類器
103 正解情報入力部
104 統計的性質情報入力部
105,112 損失算出部
106 パラメータ修正量算出部
107,113 パラメータ修正部
108 統計的性質情報推定部
109 入力部
1000 制御部
1010 プロセッサ
1020 ROM
1030 RAM
1050 入力装置
1100 表示装置
1200 記憶装置
1210 データ格納部
1220 プログラム格納部
1300 記憶媒体駆動装置
1400 通信制御装置
1500 入出力I/F
1900 コンピュータ
Claims (6)
- クラス分類問題の教師有り学習を行う学習装置であって、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力する入力部と、
パラメータを用いて、前記対象データから特徴量を抽出する特徴量抽出器と、
前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力するクラス分類器と、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出する損失算出部と、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトルの修正量及び前記特徴量抽出器の前記パラメータの修正量を算出するパラメータ修正量算出部と、
前記パラメータ修正量算出部により算出された前記修正量を用いて、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正するパラメータ修正部と、
を含み、
前記入力部は、
前記対象データが特定の統計的性質を持つデータである場合には、前記対象データの正解ベクトルを入力し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記対象データの前記クラスラベル情報を入力し、
前記特徴量抽出器は、
前記対象データから、特徴量ベクトルを前記特徴量として抽出し、
前記損失算出部は、
前記対象データが前記特定の統計的性質を持つデータである場合には、前記正解ベクトルと前記特徴量ベクトルとを入力とする損失関数を用いて、前記損失を算出し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、前記損失を算出する、
学習装置。 - 前記損失算出部は、
前記クラス分類器のクラス数分の前記重みベクトルに対する前記損失関数の勾配をさらに算出し、
前記パラメータ修正量算出部は、
前記クラス分類器のクラス数分の前記重みベクトルに対する前記損失関数の勾配と、前記統計的性質情報と、を用いた統計処理により、前記クラス分類器の前記重みベクトルの修正量を算出する、
請求項1に記載の学習装置。 - 前記損失算出部は、
前記特徴量抽出器の前記パラメータに対する前記損失関数の勾配をさらに算出し、
前記パラメータ修正量算出部は、
前記特徴量抽出器の前記パラメータに対する前記損失関数の勾配を、前記特徴量抽出器の前記パラメータの修正量とするか、又は、前記特徴量抽出器の前記パラメータに対する前記損失関数の勾配と、前記統計的性質情報と、を用いた統計処理により、前記特徴量抽出器の前記パラメータの修正量を算出する、
請求項2に記載の学習装置。 - 前記対象データの前記統計的性質情報を推定する統計的性質情報推定部をさらに含み、
前記パラメータ修正量算出部は、
前記入力部に前記統計的性質情報が入力された場合は、入力された前記統計的性質情報を使用し、
前記入力部への前記統計的性質情報の入力がない場合は、前記統計的性質情報推定部により推定された前記統計的性質情報を使用する、
請求項1から3のいずれか1項に記載の学習装置。 - クラス分類問題の教師有り学習を行う学習装置による学習方法であって、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力し、
特徴量抽出器によって、パラメータを用いて、前記対象データから特徴量を抽出し、
クラス分類器によって、前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力し、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出し、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトルの修正量及び前記特徴量抽出器の前記パラメータの修正量を算出し、
前記修正量を用いて、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正する、
学習方法であって、
前記対象データが特定の統計的性質を持つデータである場合には、前記対象データの正解ベクトルを入力し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記対象データの前記クラスラベル情報を入力し、
前記特徴量抽出器によって、前記対象データから、特徴量ベクトルを前記特徴量として抽出し、
前記対象データが前記特定の統計的性質を持つデータである場合には、前記正解ベクトルと前記特徴量ベクトルとを入力とする損失関数を用いて、前記損失を算出し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、前記損失を算出する、
学習方法。 - クラス分類問題の教師有り学習を行うコンピュータに、
学習対象の対象データ、前記対象データのクラスラベル情報、及び前記対象データの統計的性質情報を入力する処理と、
特徴量抽出器によって、パラメータを用いて、前記対象データから特徴量を抽出する処理と、
クラス分類器によって、前記特徴量とクラス数分の重みベクトルとを用いた統計処理により、前記対象データのクラス分類推論結果を出力する処理と、
前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、損失を算出する処理と、
前記統計的性質情報に応じて、前記損失が小さくなるように、前記クラス分類器の前記重みベクトルの修正量及び前記特徴量抽出器の前記パラメータの修正量を算出する処理と、
前記修正量を用いて、前記クラス分類器の前記重みベクトル及び前記特徴量抽出器の前記パラメータを修正する処理と、
を実行させるプログラムであって、
前記対象データが特定の統計的性質を持つデータである場合には、前記対象データの正解ベクトルを入力し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記対象データの前記クラスラベル情報を入力し、
前記特徴量抽出器によって、前記対象データから、特徴量ベクトルを前記特徴量として抽出し、
前記対象データが前記特定の統計的性質を持つデータである場合には、前記正解ベクトルと前記特徴量ベクトルとを入力とする損失関数を用いて、前記損失を算出し、
前記対象データが前記特定の統計的性質以外の統計的性質を持つデータである場合には、前記クラス分類推論結果と前記クラスラベル情報とを入力とする損失関数を用いて、前記損失を算出する処理
を実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/009687 WO2022190301A1 (ja) | 2021-03-10 | 2021-03-10 | 学習装置、学習方法、及びコンピュータ可読媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022190301A1 JPWO2022190301A1 (ja) | 2022-09-15 |
JPWO2022190301A5 JPWO2022190301A5 (ja) | 2023-10-05 |
JP7544254B2 true JP7544254B2 (ja) | 2024-09-03 |
Family
ID=83226469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023504999A Active JP7544254B2 (ja) | 2021-03-10 | 2021-03-10 | 学習装置、学習方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230143070A1 (ja) |
JP (1) | JP7544254B2 (ja) |
WO (1) | WO2022190301A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107386A (ja) | 2015-12-09 | 2017-06-15 | 日本電信電話株式会社 | 事例選択装置、分類装置、方法、及びプログラム |
WO2019102962A1 (ja) | 2017-11-22 | 2019-05-31 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
WO2019215904A1 (ja) | 2018-05-11 | 2019-11-14 | 日本電気株式会社 | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体 |
WO2020235033A1 (ja) | 2019-05-22 | 2020-11-26 | 日本電気株式会社 | データ変換装置、パターン認識システム、データ変換方法及び非一時的なコンピュータ可読媒体 |
-
2021
- 2021-03-10 JP JP2023504999A patent/JP7544254B2/ja active Active
- 2021-03-10 US US17/619,723 patent/US20230143070A1/en active Pending
- 2021-03-10 WO PCT/JP2021/009687 patent/WO2022190301A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107386A (ja) | 2015-12-09 | 2017-06-15 | 日本電信電話株式会社 | 事例選択装置、分類装置、方法、及びプログラム |
WO2019102962A1 (ja) | 2017-11-22 | 2019-05-31 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
WO2019215904A1 (ja) | 2018-05-11 | 2019-11-14 | 日本電気株式会社 | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体 |
WO2020235033A1 (ja) | 2019-05-22 | 2020-11-26 | 日本電気株式会社 | データ変換装置、パターン認識システム、データ変換方法及び非一時的なコンピュータ可読媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022190301A1 (ja) | 2022-09-15 |
WO2022190301A1 (ja) | 2022-09-15 |
US20230143070A1 (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180157892A1 (en) | Eye detection method and apparatus | |
Wang et al. | Feature selection and multi-kernel learning for adaptive graph regularized nonnegative matrix factorization | |
US11637858B2 (en) | Detecting malware with deep generative models | |
CN113792526B (zh) | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 | |
JP2008287437A (ja) | 情報処理方法、情報処理装置 | |
WO2021012263A1 (en) | Systems and methods for end-to-end deep reinforcement learning based coreference resolution | |
JPWO2019102984A1 (ja) | 学習装置、識別装置及びプログラム | |
Fu et al. | Contextual online dictionary learning for hyperspectral image classification | |
CN115004252A (zh) | 使用解码神经网络的图像真实性验证 | |
US20230103737A1 (en) | Attention mechanism, image recognition system, and feature conversion method | |
CN113778256A (zh) | 具有触摸屏的电子设备及其触摸解锁方法 | |
KR101700030B1 (ko) | 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치 | |
JP2023044336A (ja) | 学習装置、学習方法およびプログラム | |
US20230080876A1 (en) | Image processing apparatus, image recognition system, and image processing method | |
JP7544254B2 (ja) | 学習装置、学習方法、及びプログラム | |
CN116361657A (zh) | 用于对灰样本标签进行消歧的方法、系统和存储介质 | |
Sarraf | Binary Image Segmentation Using Classification Methods: Support Vector Machines, Artificial Neural Networks and K th Nearest Neighbours | |
US11921821B2 (en) | System and method for labelling data for trigger identification | |
US20230342426A1 (en) | System and method for training a machine learning model to label data for trigger identification | |
CN115861625A (zh) | 一种处理噪声标签的自标签修改方法 | |
CN114565913A (zh) | 文本识别方法及其装置、设备、介质、产品 | |
JP7347750B2 (ja) | 照合装置、学習装置、方法、及びプログラム | |
US20200193329A1 (en) | Learning method and learning apparatus | |
WO2023148914A1 (ja) | 機械学習装置、機械学習システム、機械学習方法、及び機械学習プログラム | |
US12056231B2 (en) | Training an artificial intelligence engine for real-time monitoring to eliminate false positives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7544254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |