JP7447985B2 - 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム - Google Patents
学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム Download PDFInfo
- Publication number
- JP7447985B2 JP7447985B2 JP2022504953A JP2022504953A JP7447985B2 JP 7447985 B2 JP7447985 B2 JP 7447985B2 JP 2022504953 A JP2022504953 A JP 2022504953A JP 2022504953 A JP2022504953 A JP 2022504953A JP 7447985 B2 JP7447985 B2 JP 7447985B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- model
- estimation result
- increases
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 238000012545 processing Methods 0.000 claims description 43
- 230000007423 decrease Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 238000013145 classification model Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012946 outsourcing Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Description
第1の実施形態に係る学習装置は、入力された学習用データを用いて、高精度モデル及び軽量モデルの学習を行う。そして、学習装置は、学習済みの高精度モデルに関する情報、及び学習済みの軽量モデルに関する情報を出力する。例えば、学習装置は、各モデルを構築するために必要なパラメータを出力する。
図2は、第1の実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、学習用データの入力を受け付け、学習済み高精度モデル情報及び学習済み軽量モデル情報を出力する。また、学習装置10は、高精度モデル学習部11及び軽量モデル学習部12を有する。
図4は、高精度モデルの学習処理の流れを示すフローチャートである。図4に示すように、まず、推定部111は、高精度モデルを用いて学習用データのクラスを推定する(ステップS101)。
これまで説明してきたように、推定部121は、入力されたデータを基に推定結果を出力する軽量モデルに学習用データを入力し、第1の推定結果を取得する。また、更新部123は、第1の推定結果と、入力されたデータを基に推定結果を出力するモデルであって、軽量モデルよりも処理速度が遅く推定精度が高い高精度モデルに学習用データを入力して得られた第2の推定結果と、を基に、軽量モデルと高精度モデルを含むモデルカスケードが最適化されるように、軽量モデルのパラメータを更新する。このように、第1の実施形態では、軽量モデルと高精度モデルによって構成されるモデルカスケードにおいて、IDK分類器等のモデルを設けることなく、軽量モデルがモデルカスケードに適した推定を行えるようにすることで、モデルカスケードの性能を向上させることができる。その結果、第1の実施形態によれば、モデルカスケードの精度が向上するだけでなく、計算コスト及び計算リソースのオーバーヘッドを抑止することができる。さらに、第1の実施形態では、損失関数に変更を加えるものであるため、モデルアーキテクチャの変更が不要であり、適用するモデルや最適化手法に制限がない。
[第2の実施形態の構成]
第2の実施形態では、学習済みの高精度モデル及び軽量モデルを使って推定を行う推定システムについて説明する。第2の実施形態の推定システムによれば、IDK分類器等を設けることなく、モデルカスケードによる推定を精度良く行うことができる。また、以降の実施形態の説明においては、説明済みの実施形態と同様の機能を有する部には同じ符号を付し、適宜説明を省略する。
図7は、図7は、推定処理の流れを示すフローチャートである。図7に示すように、まず、推定部302は、軽量モデルを用いて推定用データのクラスを推定する(ステップS301)。
これまで説明してきたように、推定部302は、入力されたデータを基に推定結果を出力する軽量モデルに学習用データを入力して得られた推定結果と、入力されたデータを基に推定結果を出力するモデルであって、軽量モデルよりも推定精度が高い高精度モデルに学習用データを入力して得られた推定結果と、を基に、軽量モデルと高精度モデルを含むモデルカスケードが最適化されるように予め学習されたパラメータが設定された軽量モデルに、推定用のデータを入力して推定結果を取得する。また、判定部303は、軽量モデルによる推定結果が、推定精度に関する所定の条件を満たすか否かを判定する。この結果、第2の実施形態では、軽量モデルと高精度モデルによって構成されるモデルカスケードにおいて、オーバーヘッドの発生を抑止しつつ高精度な推定を行うことができる。
ここで、実施形態の効果を確認するために行った実験とその結果について説明する。図8から図9は、実験結果を示す図である。実験では、第2の実施形態における判定部303が、確信度が閾値を超えているか否かを判定するものとする。実験における各設定は下記の通りである。
データセット:CIFAR100
train:45000, validation:5000, test:10000
軽量モデル:MobileNetV2
高精度モデル:ResNet18
モデルの学習方法
Momentum SGD
lr=0.01, momentum=0.9, weight decay=5e-4
lrは60,120,160エポックで0.2倍
batch size:128
比較手法(各5回ずつ実験)
・Base:クラス確率の最大値を利用
・IDK Cascades(非特許文献1を参照)
・ConfNet(参考文献1を参照)
・Temperature Scaling(参考文献2を参照)
・第2の実施形態
精度:モデルカスケード構成で推論を行った際の精度
オフロード数:高精度モデルで推論を行った回数
(参考文献1)Wan, Sheng, et al. "Confnet: Predict with Confidence." 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2018.
(参考文献2)Guo, Chuan, et al. "On calibration of modern neural networks." Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017.
第2の実施形態では、軽量モデルによる推定を行う装置と、高精度モデルによる推定を行う装置が別々である場合の例について説明した。一方で、軽量モデルによる推定と高精度モデルによる推定は同じ装置で行われてもよい。
これまで、モデルが軽量モデル及び高精度モデルの2つである場合の実施形態について説明した。一方で、これまでに説明した実施形態は、モデルが3つ以上の場合に拡張することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
一実施形態として、学習装置10及び軽量推定装置30は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理又は推定処理を実行するプログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記のプログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10又は軽量推定装置30として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
2a 推定装置
10 学習装置
11 高精度モデル学習部
12 軽量モデル学習部
20 高精度推定装置
20a 高精度推定部
30 軽量推定装置
30a 軽量推定部
111、121、202、302 推定部
112、122 損失計算部
113、123 更新部
114、201 高精度モデル情報
124、301 軽量モデル情報
303 判定部
Claims (7)
- 入力されたデータを基に推定結果を出力する第1のモデルに学習用データを入力し、第1の推定結果を取得する推定部と、
前記第1の推定結果と、前記第1の推定結果における正解に対する確信度が小さいほど大きくなる第1の項と、前記第1の推定結果が不正解である場合に前記第1の推定結果の確信度が大きいほど大きくなる第2の項と、入力されたデータを基に推定結果を出力するモデルであって、前記第1のモデルよりも処理速度が遅い、又は前記第1のモデルよりも推定精度が高い第2のモデルに前記学習用データを入力して得られた第2の推定結果が不正解である場合に前記第1の推定結果の確信度が小さいほど大きくなる第3の項と、前記第1の推定結果の確信度が小さいほど大きくなる第4の項と、を含む損失関数を基に計算される損失が最適化されるように、前記第1のモデルのパラメータを更新する更新部と、
を有することを特徴とする学習装置。 - 学習装置によって実行される学習方法であって、
入力されたデータを基に推定結果を出力する第1のモデルに学習用データを入力し、第1の推定結果を取得する推定工程と、
前記第1の推定結果と、前記第1の推定結果における正解に対する確信度が小さいほど大きくなる第1の項と、前記第1の推定結果が不正解である場合に前記第1の推定結果の確信度が大きいほど大きくなる第2の項と、入力されたデータを基に推定結果を出力するモデルであって、前記第1のモデルよりも処理速度が遅い、又は前記第1のモデルよりも推定精度が高い第2のモデルに前記学習用データを入力して得られた第2の推定結果が不正解である場合に前記第1の推定結果の確信度が小さいほど大きくなる第3の項と、前記第1の推定結果の確信度が小さいほど大きくなる第4の項と、を含む損失関数を基に計算される損失が最適化されるように、前記第1のモデルのパラメータを更新する更新工程と、
を含むことを特徴とする学習方法。 - コンピュータを、請求項1に記載の学習装置として機能させるための学習プログラム。
- 入力されたデータを基に推定結果を出力する第1のモデルに学習用データを入力して得られた第1の推定結果と、前記第1の推定結果における正解に対する確信度が小さいほど大きくなる第1の項と、前記第1の推定結果が不正解である場合に前記第1の推定結果の確信度が大きいほど大きくなる第2の項と、入力されたデータを基に推定結果を出力するモデルであって、前記第1のモデルよりも処理速度が遅い、又は前記第1のモデルよりも推定精度が高い第2のモデルに前記学習用データを入力して得られた第2の推定結果が不正解である場合に前記第1の推定結果の確信度が小さいほど大きくなる第3の項と、前記第1の推定結果の確信度が小さいほど大きくなる第4の項と、を含む損失関数を基に計算される損失が最適化されるように予め学習されたパラメータが設定された前記第1のモデルに、推定用のデータを入力して第1の推定結果を取得する第1の推定部と、
前記第1の推定結果が、推定精度に関する所定の条件を満たすか否かを判定する判定部と、
を有することを特徴とする推定装置。 - 入力されたデータを基に推定結果を出力する第1のモデルに学習用データを入力して得られた第1の推定結果と、前記第1の推定結果における正解に対する確信度が小さいほど大きくなる第1の項と、前記第1の推定結果が不正解である場合に前記第1の推定結果の確信度が大きいほど大きくなる第2の項と、入力されたデータを基に推定結果を出力するモデルであって、前記第1のモデルよりも処理速度が遅い、又は前記第1のモデルよりも推定精度が高い第2のモデルに前記学習用データを入力して得られた第2の推定結果が不正解である場合に前記第1の推定結果の確信度が小さいほど大きくなる第3の項と、前記第1の推定結果の確信度が小さいほど大きくなる第4の項と、を含む損失関数を基に計算される損失が最適化されるように予め学習されたパラメータが設定された前記第1のモデルに、他の推定装置が推定用のデータを入力して取得する第1の推定結果に応じて、前記推定用のデータを前記第2のモデルに入力して第2の推定結果を取得する第2の推定部を有することを特徴とする推定装置。
- 推定装置によって実行される推定方法であって、
入力されたデータを基に推定結果を出力する第1のモデルに学習用データを入力して得られた第1の推定結果と、前記第1の推定結果における正解に対する確信度が小さいほど大きくなる第1の項と、前記第1の推定結果が不正解である場合に前記第1の推定結果の確信度が大きいほど大きくなる第2の項と、入力されたデータを基に推定結果を出力するモデルであって、前記第1のモデルよりも処理速度が遅い、又は前記第1のモデルよりも推定精度が高い第2のモデルに前記学習用データを入力して得られた第2の推定結果が不正解である場合に前記第1の推定結果の確信度が小さいほど大きくなる第3の項と、前記第1の推定結果の確信度が小さいほど大きくなる第4の項と、を含む損失関数を基に計算される損失が最適化されるように予め学習されたパラメータが設定された前記第1のモデルに、推定用のデータを入力して第1の推定結果を取得する第1の推定工程と、
前記第1の推定結果が、推定精度に関する所定の条件を満たすか否かを判定する判定工程と、
を含むことを特徴とする推定方法。 - コンピュータを、請求項4又は5に記載の推定装置として機能させるための推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024029580A JP2024051136A (ja) | 2020-03-06 | 2024-02-29 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/009878 WO2021176734A1 (ja) | 2020-03-06 | 2020-03-06 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024029580A Division JP2024051136A (ja) | 2020-03-06 | 2024-02-29 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021176734A1 JPWO2021176734A1 (ja) | 2021-09-10 |
JP7447985B2 true JP7447985B2 (ja) | 2024-03-12 |
Family
ID=77614024
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022504953A Active JP7447985B2 (ja) | 2020-03-06 | 2020-03-06 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
JP2024029580A Pending JP2024051136A (ja) | 2020-03-06 | 2024-02-29 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024029580A Pending JP2024051136A (ja) | 2020-03-06 | 2024-02-29 | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230112076A1 (ja) |
JP (2) | JP7447985B2 (ja) |
WO (1) | WO2021176734A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220156524A1 (en) * | 2020-11-16 | 2022-05-19 | Google Llc | Efficient Neural Networks via Ensembles and Cascades |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170175A1 (en) | 2017-03-15 | 2018-09-20 | Salesforce.Com, Inc. | Probability-based guider |
-
2020
- 2020-03-06 WO PCT/JP2020/009878 patent/WO2021176734A1/ja active Application Filing
- 2020-03-06 US US17/801,272 patent/US20230112076A1/en active Pending
- 2020-03-06 JP JP2022504953A patent/JP7447985B2/ja active Active
-
2024
- 2024-02-29 JP JP2024029580A patent/JP2024051136A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170175A1 (en) | 2017-03-15 | 2018-09-20 | Salesforce.Com, Inc. | Probability-based guider |
Non-Patent Citations (1)
Title |
---|
HANYA, Toshinori,Deep Learningにおける知識の蒸留,CODE CRAFT HOUSE[online],2018年01月12日,[retrieved on 2020.07.17], Retrieved from the Internet: <URL: http://codecrafthouse.jp/p/2018/01/knowledge-distillation/> |
Also Published As
Publication number | Publication date |
---|---|
WO2021176734A1 (ja) | 2021-09-10 |
JPWO2021176734A1 (ja) | 2021-09-10 |
US20230112076A1 (en) | 2023-04-13 |
JP2024051136A (ja) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11675940B2 (en) | Generating integrated circuit floorplans using neural networks | |
JP7293504B2 (ja) | 強化学習を用いたデータ評価 | |
WO2022110640A1 (zh) | 一种模型优化方法、装置、计算机设备及存储介质 | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
CN111406264A (zh) | 神经架构搜索 | |
JP2024051136A (ja) | 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム | |
US11914672B2 (en) | Method of neural architecture search using continuous action reinforcement learning | |
JP2020525872A (ja) | インフルエンザ予測モデルの生成方法、装置及びコンピュータ可読記憶媒体 | |
US10599976B2 (en) | Update of attenuation coefficient for a model corresponding to time-series input data | |
WO2022068934A1 (en) | Method of neural architecture search using continuous action reinforcement learning | |
WO2018102203A1 (en) | Language data prediction with neural networks and online learning | |
US20230068381A1 (en) | Method and electronic device for quantizing dnn model | |
WO2023245869A1 (zh) | 语音识别模型的训练方法、装置、电子设备及存储介质 | |
US20220391765A1 (en) | Systems and Methods for Semi-Supervised Active Learning | |
JP6928346B2 (ja) | 予測装置、予測方法および予測プログラム | |
CN116187416A (zh) | 一种基于层剪枝灵敏度的迭代式重训练方法及一种图像处理器 | |
CN116340574A (zh) | 用于管理知识图谱的方法、设备和程序产品 | |
JP7571878B2 (ja) | 学習装置、学習方法及び学習プログラム | |
CN113836438B (zh) | 用于帖子推荐的方法、电子设备和存储介质 | |
US20230106295A1 (en) | System and method for deriving a performance metric of an artificial intelligence (ai) model | |
WO2022070343A1 (ja) | 学習装置、学習方法及び学習プログラム | |
US20230214629A1 (en) | Transformer-based autoregressive language model selection | |
CN117273058A (zh) | 一种知识蒸馏的方法、装置、电子设备及存储介质 | |
CN116403001A (zh) | 目标检测模型训练及目标检测方法、装置、设备和介质 | |
EP4423676A1 (en) | Particle flow training of bayesian neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7447985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |