JP7297155B2 - マシンの動作を制御するためのシステムおよびコンピュータ実施方法 - Google Patents
マシンの動作を制御するためのシステムおよびコンピュータ実施方法 Download PDFInfo
- Publication number
- JP7297155B2 JP7297155B2 JP2022523801A JP2022523801A JP7297155B2 JP 7297155 B2 JP7297155 B2 JP 7297155B2 JP 2022523801 A JP2022523801 A JP 2022523801A JP 2022523801 A JP2022523801 A JP 2022523801A JP 7297155 B2 JP7297155 B2 JP 7297155B2
- Authority
- JP
- Japan
- Prior art keywords
- machine
- control
- state
- reward
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/048—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Feedback Control In General (AREA)
Description
以下、添付の図面を参照して本開示の実施形態についてさらに説明する。示される図面は必ずしも縮尺どおりではなく、ここで開示される実施形態の原理を例示するために強調して示されている。
ここで、xはシステム状態を含むベクトルであり、uはコマンドのベクトルであり、wは外乱のベクトルである。システムが非線形である場合、当該システムは、大多数の実用目的のために線形システムとしてモデル化することができる。RLコントローラは、システムからフィードバック信号112を受信する。当該フィードバック信号112は、概してシステム状態およびコマンドベクトルの両方の関数であるものの、概して未知であるので外乱入力ベクトルの関数ではない。コントローラは、フィードバックに従ってコマンドを修正する。概して、フィードバックq(t)は上述のすべてのベクトルの関数である。
を軸121に平行なベクトルをとし、
を軸122に平行なベクトルをとする。さらに、出力y(t)は以下のように表わすことができる。
ここで、y1(t)およびy2(t)は適切に値付けされたスカラーである。安全な動作のために、出力は制約集合123に留まらなければならない。数学的には、制約は線形不等要件として表わされる。
これは、制約を幾何学的に表わす多面体または多角形を表わす。
ここで、r(t)は報酬関数であり、γ<1は正の割引係数である。図1Aは、フィードバック112を取得して報酬を計算する関数の出力として報酬113を示す。試行錯誤プロセスはポリシーπθを決定するように機能する。ポリシーπθは、フィードバック112をコマンド106にマッピングし、何らかのパラメータベクトルθによってパラメ-タ化される関数である。当該ポリシーはフィードバックをコマンドにマッピングする関数である。
以下の制約
を受け、この場合、k=0,…,N-1であり、さらに以下の制約
を受ける。
ここで、初期条件x(0|t)=x(t)はシステムから得られ、u(0|t)=u(t)はRLコントローラから得られる。
という項は、確率βで設定された外乱のサポートである。この集合は集合
であって、
を満たす。このため、
は、
の解となり、
という制約を受ける。
を定義することによってCISを計算し、さらに、集合
を再帰的に計算する。
の投影である。ステップkにおける投影がステップk-1における投影と同じサイズである場合、N=k-1と設定する。実用上、投影の差が無視できるほどわずかであると見なされる場合、アルゴリズムを少し早めに停止することができる。
この場合、k=0,…,N*である。これまでのところ、N*を計算する方法は分かっていないが、その値が有限であって線形系の減衰率に関連することが分かっている。したがって、線形系の整定時間よりもはるかに大きなN*を選択する。
を生成する。これは、以下の制約を満たす。
次いで、ランダムなシーケンス
を選択し、
を設定する。この場合、
であり、いずれの場合も、k=0,…,N-1、k′=0,…,N*であり、何らかのスカラーλとなる。次いで、上述の制約を満たす最小のλを見出す。上述を繰返してu2,u3,…のシーケンスを発見する。ukの場合、
であることが確実であるので、ukのシーケンスは真にランダムとなり、制約を一様にランダムにサンプリングすることとなるだろう。
これらは線形であるので、これらの方程式は、
とすることによって、所要のフォーマットに変換することができる。さらに、
とする。ここで、Kは安定化フィードバックである。すなわち、行列A-BKが安定した行列であるため、x(t)の力学は安定している。行列Kは、アクティブサスペンションを制御するように設計された安定化フィードバックコントローラを表わす。我々の意図は、制約のある状態でコントローラを改善するようにRLアルゴリズムを用いることである。この説明においては、フィードバック状態x(t)は何らかの計器を用いて直接測定されるものとする。これは、本発明者らによる実験では、全ての状態が測定可能であったことに起因する。しかしながら、実際の用途では、線形可変変位変換器などの変位センサを用いてばね上質量の垂直変位301を測定することにより、状態推定値312を得るように状態推定器313を実装する可能性が高い。規格のフィードバックコントローラは制約に留意して設計されておらず、したがって、RLアルゴリズムは、特に制約が存在する場合にはコントローラ性能を改善させるはずである。
であり、伸長による破断からばねを保護するために、
であり、車両の乗客の乗り心地を保証するために、
であり、タイヤの圧縮によるホイールの破損を防止するために、
である。ここで、
の項は上述の変数の関数に対する正のスカラー限界である。これらの制約は線形であるので、必要な形態でモデル化することができる。
ここで、εOUは、色つきノイズ(オルンシュタイン・ウーレンベック(Ohrstein-Uhlenbeck)とも呼ばれる)プロセスの出力である。
と設定する。
になるはずであることが判明した。
Claims (14)
- マシンの連続状態空間における状態制約を受けるとともに前記マシンの連続制御入力空間における制御入力制約を受ける前記マシンの動作を制御するためのシステムであって、
前記マシンの状態を示すデータを受付けるための入力インターフェイスと、
メモリとを備え、
前記メモリは、前記状態制約と、制御不変集合(CIS)内の前記マシンの前記状態を前記制御入力制約を満たす制御入力にマッピングする制御ポリシーとを満たす状態およびアクションの対の安全性マージンを計算するための最適化問題を格納するように構成されており、
前記制御ポリシーに従った前記CIS内の前記状態を有する前記マシンの制御は、前記CIS内の前記マシンの前記状態を維持し、
前記システムはさらに、前記マシンを共同制御するとともに前記制御ポリシーを更新するために強化学習(RL)アルゴリズムを繰返し実行するように構成されたプロセッサを備え、
前記共同制御および更新を実行するために、前記プロセッサは、
前記制御ポリシーを用いて生成された制御入力のシーケンスと前記制御入力のシーケンスに対応する前記マシンの状態のシーケンスとを含むデータを収集するように、前記制御ポリシーを用いて前記マシンを制御し、
前記状態を有する前記マシンが前記CIS内に留まるのに必要な最小労力量として決定される適合条件で増大させた、前記制御入力のシーケンスおよび前記マシンの状態のシーケンスの報酬関数を用いて、前記マシンの前記状態に対する前記制御ポリシーの質についての報酬を決定し、
前記決定された報酬に従って前記マシンの動作のコスト関数を改善させる前記制御ポリシーを更新するように構成され、
前記メモリは、前記マシンの前記状態を取得するとともに所望の安全性マージンを計算するスーパーバイザアルゴリズムを含み、
前記スーパーバイザアルゴリズムは、前記RLアルゴリズムが非安全であると見なされるコマンドを生成する場合、安全コマンドを生成し、
前記安全コマンドは、最適化(SO)に従って非安全コマンドを修正したものであり、
αはスケーリング係数であり、k、Nは整数であり、tは前記システムの現在時刻である、システム。 - 前記RLアルゴリズムは、深層決定方策勾配(DDPG)アルゴリズムである、請求項1に記載のシステム。
- 前記DDPGアルゴリズムは、所与のポリシーについての長期値を推定するためのクリティックネットワークと、前記推定された長期値に従って最適なアクションをサンプリングするためのアクターネットワークとの両方を学習する、請求項2に記載のシステム。
- 前記スケーリング係数αは、コストc(t)が±cbの間にあるように選択される、請求項1に記載のシステム。
- 前記マシンは、車両のサスペンションシステムである、請求項1に記載のシステム。
- マシンの連続状態空間における状態制約を受けるとともに前記マシンの連続制御入力空間における制御入力制約を受ける前記マシンの動作を制御するためのシステムにおけるコンピュータ実施方法であって、
前記マシンの状態を示すデータを受付けるステップと、
メモリに格納された最適化問題を用いて、前記状態制約と、制御不変集合(CIS)内の前記マシンの前記状態を前記制御入力制約を満たす制御入力にマッピングする制御ポリシーとを満たす状態およびアクションの対の安全性マージンを計算するステップとを含み、
前記制御ポリシーに従った前記CIS内の前記状態を有する前記マシンの制御は、前記CIS内の前記マシンの前記状態を維持し、
前記コンピュータ実施方法はさらに、前記マシンを共同制御するとともに前記制御ポリシーを更新するために強化学習(RL)アルゴリズムを繰返し実行するステップを含み、
前記共同制御および更新を実行するために、前記繰返し実行するステップは、
前記制御ポリシーを用いて生成された制御入力のシーケンスと前記制御入力のシーケンスに対応する前記マシンの状態のシーケンスとを含むデータを収集するように、前記制御ポリシーを用いて前記マシンを制御するステップと、
前記状態を有する前記マシンが前記CIS内に留まるのに必要な最小労力量として決定される適合条件で増大させた、前記制御入力のシーケンスおよび前記マシンの状態のシーケンスの報酬関数を用いて前記マシンの前記状態に対する前記制御ポリシーの質についての報酬を決定するステップと、
前記決定された報酬に従って前記マシンの動作のコスト関数を改善させる前記制御ポリシーを更新するステップとを含み、
前記メモリは、前記マシンの前記状態を取得するとともに所望の安全性マージンを計算するスーパーバイザアルゴリズムを含み、
前記スーパーバイザアルゴリズムは、前記RLアルゴリズムが非安全であると見なされるコマンドを生成する場合、安全コマンドを生成し、
前記安全コマンドは、最適化(SO)に従って非安全コマンドを修正したものであり、
αはスケーリング係数であり、k、Nは整数であり、tは前記システムの現在時刻である、コンピュータ実施方法。 - 前記RLアルゴリズムは、深層決定方策勾配(DDPG)アルゴリズムである、請求項8に記載の方法。
- 前記DDPGアルゴリズムは、所与のポリシーについての長期値を推定するためのクリティックネットワークと、前記推定された長期値に従って最適なアクションをサンプリングするためのアクターネットワークとの両方を学習する、請求項9に記載の方法。
- 前記スケーリング係数αは、コストc(t)が±cbの間にあるように選択される、請求項8に記載の方法。
- 前記マシンは、車両のサスペンションシステムである、請求項8に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/542,299 | 2019-08-16 | ||
US16/542,299 US11676064B2 (en) | 2019-08-16 | 2019-08-16 | Constraint adaptor for reinforcement learning control |
PCT/JP2020/019836 WO2021033380A1 (en) | 2019-08-16 | 2020-05-13 | Constraint adaptor for reinforcement learning control |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022537606A JP2022537606A (ja) | 2022-08-26 |
JP7297155B2 true JP7297155B2 (ja) | 2023-06-23 |
Family
ID=71069900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022523801A Active JP7297155B2 (ja) | 2019-08-16 | 2020-05-13 | マシンの動作を制御するためのシステムおよびコンピュータ実施方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11676064B2 (ja) |
EP (1) | EP3824356B1 (ja) |
JP (1) | JP7297155B2 (ja) |
CN (1) | CN114222952A (ja) |
WO (1) | WO2021033380A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7263980B2 (ja) * | 2019-08-27 | 2023-04-25 | 富士通株式会社 | 強化学習方法、強化学習プログラム、および強化学習装置 |
JP7439931B2 (ja) * | 2020-07-20 | 2024-02-28 | 日本電信電話株式会社 | 制御装置、仮想ネットワーク割当方法、及びプログラム |
CN115046433B (zh) * | 2021-03-09 | 2023-04-07 | 北京理工大学 | 基于深度强化学习的飞行器时间协同制导方法 |
EP4075337A1 (en) * | 2021-03-15 | 2022-10-19 | Honeywell Limited | Process controller with meta-reinforcement learning |
US20230020503A1 (en) * | 2021-07-08 | 2023-01-19 | Ford Global Technologies, Llc | Machine control |
US11884287B2 (en) | 2021-08-19 | 2024-01-30 | Ford Global Technologies, Llc | Enhanced vehicle operation |
US20230084968A1 (en) * | 2021-09-10 | 2023-03-16 | Honda Motor Co., Ltd. | Object manipulation |
EP4174711A1 (en) * | 2021-10-27 | 2023-05-03 | Siemens Aktiengesellschaft | System and computer-implemented method for designing an engineering system |
EP4307055A1 (en) * | 2022-07-11 | 2024-01-17 | Robert Bosch GmbH | Constrained controlling of a computer-controlled system |
CN115454122B (zh) * | 2022-08-15 | 2024-06-14 | 北京航空航天大学 | 一种高速飞行器追逃微分博弈的邻近凸优化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012208789A (ja) | 2011-03-30 | 2012-10-25 | Advanced Telecommunication Research Institute International | 強化学習装置、制御装置、および強化学習方法 |
WO2018053187A1 (en) | 2016-09-15 | 2018-03-22 | Google Inc. | Deep reinforcement learning for robotic manipulation |
JP2019020885A (ja) | 2017-07-13 | 2019-02-07 | 横河電機株式会社 | プラント制御支援装置、プラント制御支援方法、プラント制御支援プログラム及び記録媒体 |
JP2019030941A (ja) | 2017-08-08 | 2019-02-28 | ファナック株式会社 | 制御装置及び学習装置 |
JP2019105891A (ja) | 2017-12-08 | 2019-06-27 | 三菱重工業株式会社 | 制御装置、無人システム、制御方法及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5379210A (en) * | 1992-07-24 | 1995-01-03 | M&M Software Products, Inc. | Natural tracking controller |
US8996177B2 (en) | 2013-03-15 | 2015-03-31 | Brain Corporation | Robotic training apparatus and methods |
US9983554B2 (en) * | 2014-11-25 | 2018-05-29 | Mitsubishi Electric Research Laboratories, Inc. | Model predictive control with uncertainties |
US11263514B2 (en) * | 2016-01-13 | 2022-03-01 | Google Llc | Processing and generating sets using recurrent neural networks |
US9915948B2 (en) * | 2016-07-14 | 2018-03-13 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling motion of vehicle |
US11062207B2 (en) | 2016-11-04 | 2021-07-13 | Raytheon Technologies Corporation | Control systems using deep reinforcement learning |
JP6926203B2 (ja) * | 2016-11-04 | 2021-08-25 | ディープマインド テクノロジーズ リミテッド | 補助タスクを伴う強化学習 |
WO2019155511A1 (en) * | 2018-02-06 | 2019-08-15 | Nec Corporation | Inverse model predictive control system, inverse model predictive control method, and inverse model predictive control program |
EP3820753B1 (en) * | 2018-07-14 | 2023-08-02 | Moove.AI | Vehicle-data analytics |
CN109991992A (zh) * | 2019-03-27 | 2019-07-09 | 天津大学 | 基于浸入不变集的小型无人直升机无模型自适应控制方法 |
-
2019
- 2019-08-16 US US16/542,299 patent/US11676064B2/en active Active
-
2020
- 2020-05-13 CN CN202080057129.XA patent/CN114222952A/zh active Pending
- 2020-05-13 EP EP20731589.6A patent/EP3824356B1/en active Active
- 2020-05-13 WO PCT/JP2020/019836 patent/WO2021033380A1/en unknown
- 2020-05-13 JP JP2022523801A patent/JP7297155B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012208789A (ja) | 2011-03-30 | 2012-10-25 | Advanced Telecommunication Research Institute International | 強化学習装置、制御装置、および強化学習方法 |
WO2018053187A1 (en) | 2016-09-15 | 2018-03-22 | Google Inc. | Deep reinforcement learning for robotic manipulation |
JP2019020885A (ja) | 2017-07-13 | 2019-02-07 | 横河電機株式会社 | プラント制御支援装置、プラント制御支援方法、プラント制御支援プログラム及び記録媒体 |
JP2019030941A (ja) | 2017-08-08 | 2019-02-28 | ファナック株式会社 | 制御装置及び学習装置 |
JP2019105891A (ja) | 2017-12-08 | 2019-06-27 | 三菱重工業株式会社 | 制御装置、無人システム、制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022537606A (ja) | 2022-08-26 |
US20210049501A1 (en) | 2021-02-18 |
WO2021033380A1 (en) | 2021-02-25 |
EP3824356B1 (en) | 2022-06-08 |
US11676064B2 (en) | 2023-06-13 |
EP3824356A1 (en) | 2021-05-26 |
CN114222952A (zh) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297155B2 (ja) | マシンの動作を制御するためのシステムおよびコンピュータ実施方法 | |
JP6808093B2 (ja) | システムを制御する予測コントローラ、車両及び方法 | |
US10895854B1 (en) | System and method for control constrained operation of machine with partially unmodeled dynamics using Lipschitz constant | |
JP2022513416A (ja) | 機械の動作を制御する装置及び方法、並びに記憶媒体 | |
Zheng et al. | A delay compensation framework for predicting heading in teleoperated ground vehicles | |
Morato et al. | Sub‐optimal recursively feasible Linear Parameter‐Varying predictive algorithm for semi‐active suspension control | |
WO2023013212A1 (en) | System and method for calibrating feedback controllers | |
EP3928167B1 (en) | Apparatus and method for control with data-driven model adaptation | |
Menner et al. | Automated controller calibration by Kalman filtering | |
Fu et al. | Adaptive optimal control of unknown nonlinear systems with different time scales | |
Chiang et al. | Optimized sensorless antivibration control for semiactive suspensions with cosimulation analysis | |
US20210302921A1 (en) | Controller with neural network and improved stability | |
Dutta | Design and certification of industrial predictive controllers | |
Sinha et al. | Adaptive robust model predictive control via uncertainty cancellation | |
US11640162B2 (en) | Apparatus and method for controlling a system having uncertainties in its dynamics | |
US11790247B2 (en) | Robust adaptive dynamic mode decomposition for modeling, prediction, and control of high dimensional physical systems | |
US11977374B2 (en) | System and method for calibrating feedback controllers | |
Mao et al. | Learning From Actor-Critic Algorithm With Application to Asymmetric Tailored Performance Tracking Control of Underactuated Surface Vehicle | |
Gao et al. | Spacecraft Model and Preliminaries | |
Marvi | Safe Control Design for Uncertain Systems | |
Lefarov | Model-based policy search for learning mulitvariate PID gain scheduling control | |
Wang | Incremental Optimal Control for Robot Manipulators: A Robust and Optimal Control Framework | |
Bottasso et al. | Adaptive reference-augmented predictive control, with application to the reflexive control of unmanned rotorcraft vehicles | |
CAMPA et al. | REQUIREMENTS ENGINEERING VIA LYAPUNOV ANALYSIS FOR ADAPTIVE FLIGHT CONTROL SYSTEMS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7297155 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |