JP2022510223A - 機器の動作最適化のためのシステムおよび方法 - Google Patents
機器の動作最適化のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2022510223A JP2022510223A JP2021530219A JP2021530219A JP2022510223A JP 2022510223 A JP2022510223 A JP 2022510223A JP 2021530219 A JP2021530219 A JP 2021530219A JP 2021530219 A JP2021530219 A JP 2021530219A JP 2022510223 A JP2022510223 A JP 2022510223A
- Authority
- JP
- Japan
- Prior art keywords
- function
- neural network
- external input
- reward
- device instance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Feedback Control In General (AREA)
Abstract
Description
本出願は、2018年11月28日に出願されたインド仮特許出願第201821044941号の優先権を主張する。上記出願の内容全体が、参照によって本明細書に組み込まれる。
L=LR+λLD
制御入力パラメータ(it:3次元)について検討する:
a)エンジン速度:エンジンの回転速度-許容範囲:5000~10000rpm、
b)燃料空気比:燃焼前の燃料と混合された空気の比-許容範囲:0.05~0.20、
c)バイパス比:ファンに入る空気と、圧縮器に入る空気の比-許容範囲:0.25~0.45。
対応する出力変数(ot:2次元)について検討する:
a)平均航空機速度:900~1000kmph(理想的には950)、
b)消費される燃料:可能な限り低い。
対応する外部入力パラメータ変数(et:2次元)について検討する:
a)エンジンの吸気口における周囲温度、
b)エンジンの吸気口における周囲圧力。
たとえば、「t」回の反復の後、すなわち、「t」回の問合せを提案した後に、どのオプティマイザの性能も測定するために、ropt-maxi≦triによって与えられるリグレットが使われる。リグレットのより低い値が、優れたオプティマイザ性能を示す。
it=NN(it-1,rt-1,et)
ot=fj(it,et)
rt=Rj(ot)
ここでj=1,2,...,Nであり、Nは、トレーニングに利用可能な機器インスタンスの数である。
102 データ記憶デバイス、メモリ
104 プロセッサ、ハードウェアプロセッサ
106 通信インターフェースデバイス、入力/出力(I/O)インターフェース、I/Oインターフェースデバイス
108 データベース
200 動作最適化システム
202A シミュレーションモデルトレーナー
204A シーケンスジェネレータ
204B ニューラルネットワーク
206A マルチヘッド入力ハンドラ
206B ドメイン制約ハンドラ
208A ニューラルネットワーク
210A ドメイン制約ハンドラ
212A マルチヘッド出力ハンドラ
本出願は、2019年11月28日に出願された国際出願第PCT/IN2019/050871号の優先権を主張するものであり、その出願は、2018年11月28日に出願されたインド特許出願第201821044941号の優先権を主張する。
制御入力パラメータ(it:3次元)について検討する:
a)エンジン速度:エンジンの回転速度-許容範囲:5000~10000RPM、
b)燃料空気比:燃焼前の燃料と混合された空気の比-許容範囲:0.05~0.20、
c)バイパス比:ファンに入る空気と、圧縮器に入る空気の比-許容範囲:0.25~0.45。
対応する出力変数(ot:2次元)について検討する:
a)平均航空機速度:900~1000kmph(理想的には950)、
b)消費される燃料:可能な限り低い。
対応する外部入力パラメータ変数(et:2次元)について検討する:
a)エンジンの吸気口における周囲温度、
b)エンジンの吸気口における周囲圧力。
Claims (18)
- ニューラルネットワークベースオプティマイザによって機器の動作を最適化するプロセッサ実装方法であって、
少なくとも1つの機器インスタンス(j)に関連付けられた情報を、タイムスタンプのあらかじめ定義されたシーケンスにおける入力として受信するステップであって、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報は、(i)複数の制御パラメータ(it)、(ii)外部入力パラメータ(et)、(iii)出力パラメータ(ot)、および(iv)履歴運用データのうちの少なくとも1つに対応する、ステップと、
シミュレーションモデルトレーナー(202A)によって、関数(fj)を取得するように、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報を使って各機器インスタンス用の複数のシミュレーションモデルをトレーニングするステップであって、前記関数(fj)は、前記機器インスタンス(j)のシミュレーションモデルのセットに対応する、ステップと、
シーケンスジェネレータ(204A)によって、前記外部入力パラメータ(et)の少なくとも1つのシーケンスを生成するステップと、
マルチヘッド入力ハンドラ(206A)によって、ベクトル(it)を取得するためにニューラルネットワーク(208A)へ入力として渡される固定次元ベクトルを取得するように前記外部入力パラメータ(et)を処理するステップと、
ドメイン制約ハンドラ(210A)によって、ドメイン制約値に基づいて、出力ベクトル(it)から、修正された(it)を生成するステップと、
マルチヘッド出力ハンドラ(212A)によって、(i)前記関数(fj)、(ii)前記修正された(it)、(iii)前記外部入力パラメータ(et)、および(iv)報酬関数(Rj)に基づいて報酬(rt)を計算するステップと、
第1の機器インスタンスに関連付けられたタイムスタンプの前記あらかじめ定義されたシーケンスの満了の後、一連の後続機器インスタンスについて、報酬(rt)を処理し、生成し、計算する前記ステップを反復して実施するステップと
を含むプロセッサ実装方法。 - 前記マルチヘッド入力ハンドラ(206A)は各機器インスタンス用の処理ヘッドを備え、外部入力パラメータの数は、機器の異なるインスタンスによって異なる、請求項1に記載の方法。
- 前記関数fjは、(i)ガウス過程、または(ii)出力ベクトルitおよび外部入力パラメータetのベクトルの次元性が制約された混合ガウスモデルのうちの少なくとも1つ、ならびにそれらの組合せによって生成される、請求項1に記載の方法。
- 時間(t+1)における制御入力パラメータ、すなわちit+1、のセットを取得するように報酬を処理し、生成し、計算する前記ステップを反復して実施するために、出力ベクトル(it)および報酬(rt)を、時間(「t+1」)における外部入力パラメータ、すなわちet+1、のベクトルとともに前記ニューラルネットワーク(208A)に入力するステップをさらに含み、itおよびetの次元性は、目標ドメインによって決定される、請求項1に記載の方法。
- 前記ニューラルネットワーク(208A)を損失関数でトレーニングする前記ステップは、前記報酬関数(Rj)の最大到達可能値に基づいて実施される、請求項1に記載の方法。
- 前記ニューラルネットワーク(208A)は、ドメイン制約に違反したことに対する複数のペナルティ値を使う追加損失関数を含めることによってトレーニングされる、請求項1に記載の方法。
- ニューラルネットワークベースオプティマイザによる、機器の動作最適化のためのシステム(100)であって、
命令を記憶するメモリ(102)と、
1つまたは複数の通信インターフェース(106)と、
前記1つまたは複数の通信インターフェース(106)を介して前記メモリ(102)に結合された1つまたは複数のハードウェアプロセッサ(104)とを備え、前記1つまたは複数のハードウェアプロセッサ(104)は、前記命令によって、
少なくとも1つの機器インスタンス(j)に関連付けられた情報を、タイムスタンプのあらかじめ定義されたシーケンスにおける入力として受信することであって、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報は、(i)複数の制御パラメータ(it)、(ii)外部入力パラメータ(et)、(iii)出力パラメータ(ot)、および(iv)履歴運用データのうちの少なくとも1つに対応する、受信することと、
関数(fj)を取得するように、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報を使って各機器インスタンス用の複数のシミュレーションモデルをトレーニングすることであって、前記関数(fj)は、前記機器インスタンス(j)のシミュレーションモデルのセットに対応する、トレーニングすることと、
前記外部入力パラメータ(et)の少なくとも1つのシーケンスを生成することと、
出力ベクトル(it)を取得するためにニューラルネットワーク(208A)へ入力として渡される固定次元ベクトルを取得するように前記外部入力パラメータ(et)を処理することと、
ドメイン制約値に基づいて、出力ベクトル(it)から、修正された(it)を生成することと、
(i)前記関数(fj)、(ii)前記修正された(it)、(iii)前記外部入力パラメータ(et)、および(iv)報酬関数(Rj)に基づいて報酬(rt)を計算することと、
第1の機器インスタンスに関連付けられたタイムスタンプの前記あらかじめ定義されたシーケンスの満了の後、一連の後続機器インスタンスについて、報酬(rt)を処理し、生成し、計算する前記ステップを反復して実施することと
を行うように構成される、システム(100)。 - マルチヘッド入力ハンドラ(206A)は各機器インスタンス用の処理ヘッドを備え、外部入力パラメータの数は、機器の異なるインスタンスによって異なる、請求項7に記載のシステム。
- 前記関数fjは、(i)ガウス過程、または(ii)出力ベクトルitおよび外部入力パラメータetのベクトルの次元性が制約された混合ガウスモデルのうちの少なくとも1つ、ならびにそれらの組合せによって生成される、請求項7に記載のシステム。
- 前記1つまたは複数のハードウェアプロセッサ(104)は、前記命令によって、時間(t+1)における制御入力パラメータ、すなわちit+1、のセットを取得するように報酬(rt)を処理し、生成し、計算する前記ステップを反復して実施するために、出力ベクトル(it)および報酬(rt)を、時間(「t+1」)における外部入力パラメータ、すなわちet+1、のベクトルとともに前記ニューラルネットワーク(208A)に入力するようにさらに構成され、itおよびetの次元性は、目標ドメインによって決定される、請求項7に記載のシステム。
- 前記ニューラルネットワーク(208A)を損失関数でトレーニングする前記ステップは、前記報酬関数(Rj)の最大到達可能値に基づいて実施される、請求項7に記載のシステム。
- 前記ニューラルネットワーク(208A)は、ドメイン制約に違反したことに対する複数のペナルティ値を使う追加損失関数を含めることによってトレーニングされる、請求項7に記載のシステム。
- 1つまたは複数の命令を含む1つまたは複数の非一時的機械可読情報記憶媒体であって、前記命令は、1つまたは複数のハードウェアプロセッサによって実行されると、
少なくとも1つの機器インスタンス(j)に関連付けられた情報を、タイムスタンプのあらかじめ定義されたシーケンスにおける入力として受信することであって、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報は、(i)複数の制御パラメータ(it)、(ii)外部入力パラメータ(et)、(iii)出力パラメータ(ot)、および(iv)履歴運用データのうちの少なくとも1つに対応する、受信することと、
関数(fj)を取得するように、前記少なくとも1つの機器インスタンス(j)に関連付けられた前記情報を使って各機器インスタンス用の複数のシミュレーションモデルをトレーニングすることであって、前記関数(fj)は、前記機器インスタンス(j)のシミュレーションモデルのセットに対応する、トレーニングすることと、
前記外部入力パラメータ(et)の少なくとも1つのシーケンスを生成することと、
ベクトル(it)を取得するためにニューラルネットワーク(208A)へ入力として渡される固定次元ベクトルを取得するように前記外部入力パラメータ(et)を処理することと、
ドメイン制約値に基づいて、出力ベクトル(it)から、修正された(it)を生成することと、
(i)前記関数(fj)、(ii)前記修正された(it)、(iii)前記外部入力パラメータ(et)、および(iv)報酬関数(Rj)に基づいて報酬(rt)を計算することと、
第1の機器インスタンスに関連付けられたタイムスタンプの前記あらかじめ定義されたシーケンスの満了の後、一連の後続機器インスタンスについて、報酬(rt)を処理し、生成し、計算する前記ステップを反復して実施することと
を引き起こす、1つまたは複数の非一時的機械可読情報記憶媒体。 - 前記マルチヘッド入力ハンドラ(206A)は各機器インスタンス用の処理ヘッドを備え、外部入力パラメータの数は、機器の異なるインスタンスによって異なる、請求項13に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記関数fjは、(i)ガウス過程、または(ii)出力ベクトルitおよび外部入力パラメータetのベクトルの次元性が制約された混合ガウスモデルのうちの少なくとも1つ、ならびにそれらの組合せによって生成される、請求項13に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記1つまたは複数のハードウェアプロセッサ(104)は、前記命令によって、時間(t+1)における制御入力パラメータ、すなわちit+1、のセットを取得するように報酬を処理し、生成し、計算する前記ステップを反復して実施するために、出力ベクトル(it)および報酬(rt)を、時間(「t+1」)における外部入力パラメータ、すなわちet+1、のベクトルとともに前記ニューラルネットワーク(208A)に入力するようにさらに構成され、itおよびetの次元性は、目標ドメインによって決定される、請求項13に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記ニューラルネットワーク(208A)を損失関数でトレーニングする前記ステップは、前記報酬関数(Rj)の最大到達可能値に基づいて実施される、請求項13に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記ニューラルネットワーク(208A)は、ドメイン制約に違反したことに対する複数のペナルティ値を使う追加損失関数を含めることによってトレーニングされる、請求項13に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821044941 | 2018-11-28 | ||
IN201821044941 | 2018-11-28 | ||
PCT/IN2019/050871 WO2020110149A2 (en) | 2018-11-28 | 2019-11-28 | System and method for operation optimization of an equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510223A true JP2022510223A (ja) | 2022-01-26 |
JP7179181B2 JP7179181B2 (ja) | 2022-11-28 |
Family
ID=70852274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021530219A Active JP7179181B2 (ja) | 2018-11-28 | 2019-11-28 | 機器の動作最適化のためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220036166A1 (ja) |
EP (1) | EP3887913A4 (ja) |
JP (1) | JP7179181B2 (ja) |
WO (1) | WO2020110149A2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021019551A1 (en) * | 2019-07-26 | 2021-02-04 | Tata Consultancy Services Limited | System and method for real-time self-optimization of manufacturing operations |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074501A1 (en) * | 1996-05-06 | 2006-04-06 | Pavilion Technologies, Inc. | Method and apparatus for training a system model with gain constraints |
JP2016523402A (ja) * | 2013-05-30 | 2016-08-08 | プレジデント アンド フェローズ オブ ハーバード カレッジ | ベイズの最適化を実施するためのシステムおよび方法 |
JP2017041253A (ja) * | 2015-08-21 | 2017-02-23 | アンサルド エネルジア アイ・ピー ユー・ケイ リミテッドAnsaldo Energia Ip Uk Limited | 発電プラントの動作方法 |
US20180024509A1 (en) * | 2016-07-25 | 2018-01-25 | General Electric Company | System modeling, control and optimization |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2883059A1 (en) * | 2007-11-07 | 2009-11-12 | Power Analytics Corporation | Systems and methods for real-time forecasting and predicting of electrical peaks and managing the energy, health, reliability, and performance of electrical power systems based onan artificial adaptive neural network |
US10409232B2 (en) * | 2010-03-29 | 2019-09-10 | Siemens Aktiengesellschaft | Engineering tool and method for parameterizing a model-based predictive controller |
-
2019
- 2019-11-28 JP JP2021530219A patent/JP7179181B2/ja active Active
- 2019-11-28 US US17/309,432 patent/US20220036166A1/en active Pending
- 2019-11-28 EP EP19888392.8A patent/EP3887913A4/en active Pending
- 2019-11-28 WO PCT/IN2019/050871 patent/WO2020110149A2/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074501A1 (en) * | 1996-05-06 | 2006-04-06 | Pavilion Technologies, Inc. | Method and apparatus for training a system model with gain constraints |
JP2016523402A (ja) * | 2013-05-30 | 2016-08-08 | プレジデント アンド フェローズ オブ ハーバード カレッジ | ベイズの最適化を実施するためのシステムおよび方法 |
JP2017041253A (ja) * | 2015-08-21 | 2017-02-23 | アンサルド エネルジア アイ・ピー ユー・ケイ リミテッドAnsaldo Energia Ip Uk Limited | 発電プラントの動作方法 |
US20180024509A1 (en) * | 2016-07-25 | 2018-01-25 | General Electric Company | System modeling, control and optimization |
Also Published As
Publication number | Publication date |
---|---|
US20220036166A1 (en) | 2022-02-03 |
JP7179181B2 (ja) | 2022-11-28 |
WO2020110149A3 (en) | 2020-07-09 |
WO2020110149A2 (en) | 2020-06-04 |
EP3887913A2 (en) | 2021-10-06 |
EP3887913A4 (en) | 2022-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5968259B2 (ja) | 線形モデルに基づく強化学習方法とその装置とプログラム | |
JP6404909B2 (ja) | 技術的な系の出力量のモデルを算出する方法 | |
Martinez et al. | H-infinity set-membership observer design for discrete-time LPV systems | |
Wang et al. | Zonotope-based recursive estimation of the feasible solution set for linear static systems with additive and multiplicative uncertainties | |
Wang et al. | Cooling strategies for the moment-generating function in Bayesian global optimization | |
JP6973386B2 (ja) | 解析装置、解析方法、およびプログラム | |
Lippe et al. | Pde-refiner: Achieving accurate long rollouts with neural pde solvers | |
Amendola et al. | Data assimilation in the latent space of a convolutional autoencoder | |
Lorig et al. | Hypothesis-Driven Simulation Studies | |
JP2022510223A (ja) | 機器の動作最適化のためのシステムおよび方法 | |
Khurana et al. | Automating feature engineering | |
Domanski et al. | Self-learning tuning for post-silicon validation | |
Syberfeldt et al. | Multi-objective evolutionary simulation-optimisation of a real-world manufacturing problem | |
JP6919856B2 (ja) | 強化学習プログラム、強化学習方法、および強化学習装置 | |
Khedher et al. | Modeling, simulation, estimation and boundedness analysis of discrete event systems | |
Ding et al. | Diffusion World Model | |
US10429811B2 (en) | Systems and methods for testing convergence of closed-loop control systems | |
Hametner et al. | Incremental optimal process excitation for online system identification based on evolving local model networks | |
Ding et al. | Preference based adaptation for learning objectives | |
Lakra et al. | Development of Efficient and Optimal Models for Software Maintainability Prediction using Feature Selection Techniques | |
Dixit et al. | Time varying optimization via inexact proximal online gradient descent | |
Dewez et al. | From industry-wide parameters to aircraft-centric on-flight inference: improving aeronautics performance prediction with machine learning | |
Schulz | LPV system identification and order reduction with application to turbocharged SI engines | |
Vlachos et al. | Neural Network Iterative Learning for SISO Non-Affine Control Systems | |
Bäck et al. | Automatic metamodelling of CAE simulation models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210727 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7179181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |