JP7037059B2 - リソース管理システム、および、リソース割当プログラム - Google Patents
リソース管理システム、および、リソース割当プログラム Download PDFInfo
- Publication number
- JP7037059B2 JP7037059B2 JP2018137323A JP2018137323A JP7037059B2 JP 7037059 B2 JP7037059 B2 JP 7037059B2 JP 2018137323 A JP2018137323 A JP 2018137323A JP 2018137323 A JP2018137323 A JP 2018137323A JP 7037059 B2 JP7037059 B2 JP 7037059B2
- Authority
- JP
- Japan
- Prior art keywords
- resource
- allocation
- terminal
- physical
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45562—Creating, deleting, cloning virtual machine instances
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/503—Resource availability
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Stored Programmes (AREA)
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ここで、インフラ運用者と、インフラの提供を受けて各消費者にサービスを提供するサービス提供者との間では、IaaSサービスのインフラについての情報共有がなされていないことが多く、両者の情報共有が分断されてしまっていた。そのため、両者にとって、それぞれ以下の問題があった。
インフラ運用者の利益を大きくするためにオーバーコミット率を高く設定しすぎると、大きい負荷のサービス内容を実行するときには乏しいリソース量により、サービス提供者にとってはサービス品質が劣化してしまう問題があった。
本発明は、リソース割当装置と、割当用リソースを運用するインフラ運用者の端末と、前記割当用リソースを受けてサービスを提供するサービス提供者の端末とを含めて構成されるリソース管理システムであって、
前記リソース割当装置は、
仮想リソースが使用する物理リソースの使用量および前記物理リソースの特性を前記仮想リソースごとに規定した割当要求を受け、前記割当要求で指定された前記物理リソースの特性に合致する割当用リソースを選択するフィルタリング部と、
選択された各前記割当用リソースの使用可能な使用量と、前記割当要求で指定された前記物理リソースの使用量とをもとに、前記仮想リソースの割当先となる前記物理リソースを選定するウェイティング部と、
割当先として選定された前記物理リソースに対して、前記割当要求で指定された前記仮想リソースを割り当てるリソース割当部とを有しており、
前記インフラ運用者の端末は、前記割当用リソースごとの性能データおよび特性データを前記サービス提供者の端末に通知し、
前記サービス提供者の端末は、通知された前記割当用リソースごとの性能データから前記仮想リソースが使用する前記物理リソースの使用量を特定するとともに、通知された前記割当用リソースごとの特性データから前記仮想リソースが使用する前記物理リソースの特性を特定することで、前記割当要求を作成することを特徴とする。
また、インフラ運用者とサービス提供者との間の情報共有により、双方に都合の良い物理リソースが割り当てられる。
前記サービス提供者の端末が、事前に入力されているサービスのプロセス種別から、通知されたプロセス種別ごとのCPU使用率をもとに、前記仮想リソースが使用するCPU使用率を前記物理リソースの使用量として求めることを特徴とする。
リソース管理システムは、リソース割当装置1と、割当用リソース2と、サービス提供者端末(サービス提供者の端末)3と、インフラ運用者端末(インフラ運用者の端末)4とがネットワークで接続されて構成される。これらの各装置は、それぞれCPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
サービス提供者端末3は、図示しない顧客に向けてサービスを提供する。サービス提供者は、提供するサービスを構築するための個々のプロセス種別(「パケット処理」、「バッチ処理」など)と、そのプロセス種別をVMで実行させる頻度とを、サービス提供者端末3に事前に入力しておく。
サービス提供者端末3は、提供されたリソース管理情報31と、事前に入力された情報とをもとに、提供するサービスを構築するために要求するリソースの詳細をリソース割当定義ファイル32として作成し、そのリソース割当定義ファイル32をリソース割当装置1に通知することで、リソースの割当を要求する(詳細は図4)。
つまり、インフラ運用者端末4がリソース管理情報31を送信し、サービス提供者端末3がリソース割当定義ファイル32を送信することで、両者間で事前の情報交換が行われる。
リソース割当決定部11は、リソース管理部15で管理する割当用リソース2の特性と、リソース割当定義ファイル32で要求された仮想CPUの特性とを踏まえ、要求された各仮想CPU(仮想リソース)を適切な物理CPU(物理リソース)に割り当てるように、スケジューリングを制御する。つまり、リソース割当決定部11は、他の各処理部(フィルタリング部12と、ウェイティング部13と、仮想マシン生成部14)に対して、以下に示す3段階のスケジューリングを指示する。
・第1段階として、フィルタリング部12は、仮想CPUの特性と同一の特性を持つ物理CPUを選択する。
・第2段階として、ウェイティング部13は、選択された物理CPUに対して、仮想CPUの使用率に合う物理CPUを割当先として選定する。
・第3段落として、仮想マシン生成部14は、割当先の物理CPU上に仮想CPUを割り当てるとともに、その仮想CPUを収容するVM(仮想マシン)を生成する。
リソース管理部15は、スケジューリングの各段階で使用するデータを保存するとともに、各処理部10の要求に応じて保存したデータを読み書きする。
S101として、インフラ運用者端末4は、リソース割当装置1から取得した割当用リソース2に関する情報を、リソース管理情報31としてサービス提供者端末3に提供する(図3)。
S102として、サービス提供者端末3は、提供されたリソース管理情報31と、事前に入力された情報とをもとに、提供するサービスを構築するために要求するリソースを割当用リソース2から選択する。
S103として、サービス提供者端末3は、S102の選択結果を記載したリソース割当定義ファイル32をリソース割当装置1のリソース割当決定部11に通知することで、リソースの割当(デプロイ)を指示する(図4)。
S105として、リソース管理部15は、保存したデータから現在割当可能なリソースを読み出す。
S106として、リソース管理部15は、S105で読み出したデータをリソース候補として、リソース割当決定部11に返却する(図5)。
S108として、ウェイティング部13は、S107で選択された物理CPUに対して、仮想CPUの使用率に合う物理CPUを割当先として選定する(図6)。
S111として、ウェイティング部13は、S108の割当先の物理CPUを割当リソースとしてリソース管理部15に通知する。
S112として、リソース管理部15は、S111で通知された割当リソースに仮想CPUを割り当てた後の割当用リソース2の状況に適合するように、管理しているリソースを更新する(図7)。
S114として、割当用リソース2は、S113の指示を受け、仮想CPUとその仮想CPUを収容するVMを生成する。
S115として、割当用リソース2は、S114のVM生成処理が完了したことを、仮想マシン生成部14に通知する。
S116として、リソース割当決定部11は、S103のデプロイ要求の処理が完了したことを、サービス提供者端末3に通知する。
ベンチマークリスト31aは、パケット処理などのプロセス種別ごとに、そのプロセス種別が割当用リソース2上で実行されることで、どの程度のリソース量が消費されるかという使用状況を示すデータである。図3では、ベンチマークリスト31aの使用状況として、CPU使用率を例示している。このCPU使用率は、例えば、定められた環境下で測定したときのCPU使用率の平均値でもよいし、プロセスを起動したときのCPU使用率の最大値でもよい。
また、図3では、1種類の割当用リソース2に対して、4種類のプロセス種別のデータを例示したが、複数種類の割当用リソース2について、割当用リソース2ごとのプロセス種別のデータを用意してもよい。
処理特性パラメータリスト31bは、割当用リソース2の処理特性と特性値とを対応付けるデータである。処理特性とは、例えば、図3で例示した単位時間当たりの起動回数でもよいし、処理実行時の実行時間でもよい。特性値は、処理特性の範囲に割り当てられたF1,F2,F3などのIDである。
例えば、サービス提供者端末3には、以下の提供するサービスに関する情報が、サービス提供者から事前に入力されているとする。
・パケット処理を5回実行する。
・バッチ処理を30回実行する。
サービス提供者端末3は、ベンチマークリスト31aを参照して、パケット処理に対応するCPU使用率50%と、バッチ処理に対応するCPU使用率20%とを求める。
サービス提供者端末3は、処理特性パラメータリスト31bを参照して、パケット処理に対応する特性値F1と、バッチ処理に対応する特性値F2とを求める。
そして、サービス提供者端末3は、それぞれ求めた情報をもとに、パケット処理を動作させる仮想CPU「V1」と、バッチ処理を動作させる仮想CPU「V2」とを含むVMを要求する旨のリソース割当定義ファイル32を作成する。
第1テーブル15aは、割当用リソース2の物理CPUごとに、現在の使用可能な残りのCPU使用率(残使用可能率)と、物理CPUの特性値とが対応付けられている。
例えば、物理CPU「C1」は、残使用可能率が20%なので、既に他の仮想CPUが割り当てられた状態である。つまり、物理CPU「C1」に対して新たに仮想CPUを割り当てるときには、共有割当方式となる。
一方、物理CPU「2」は、残使用可能率が100%なので、現時点ではどの仮想CPUも割り当てられていない状態である。つまり、物理CPU「C2」に対して新たに仮想CPUを割り当てるときには、占有割当方式としてもよい。
第2テーブル15bは、S107として、フィルタリング部12が、第1テーブル15aの物理CPUの特性値と、リソース割当定義ファイル32で指定された仮想CPUの特性値とを照合した結果である。第2テーブル15bは、仮想CPUと、その割当先候補となる物理CPUとの組み合わせについて、互いの特性値が同じであるときは「候補」とし、特性値が異なるときには「否」とする採否欄を有する。
さらに、フィルタリング部12は、リソース割当定義ファイル32で指定された仮想CPUの使用率以上の残使用可能率をもつ第1テーブル15aの物理CPUを、「候補」に採用してもよい。
ウェイティング部13は、同じ仮想CPUに対応する割当先候補について、第1テーブル15aの残使用可能率が小さい順に、第3テーブル15cの順位を決定する。例えば、仮想CPU「V1」には、C2,C4という2つの物理CPUが割当先候補となっている。そのうち、物理CPU「C4」の残使用可能率「50%」は、物理CPU「C2」の残使用可能率「100%」よりも小さいので、物理CPU「C4」の順位が1位になる。
第4テーブル15dは、第3テーブル15cの順位=1位の割当先候補を割当先として決定した後の、第1テーブル15aの更新処理(S112)の結果を示す。
物理CPU「C1」の残使用可能率は「20%」から「0%」に減少している。これは、仮想マシン生成部14が仮想CPU「V2」を物理CPU「C1」に割り当てた結果、リソース割当定義ファイル32の仮想CPU「V2」で指定されたバッチ処理の使用率「20%」が消費されたためである。
物理CPU「C4」の残使用可能率は「50%」から「0%」に減少している。これは、仮想マシン生成部14が仮想CPU「V1」を物理CPU「C4」に割り当てた結果、リソース割当定義ファイル32の仮想CPU「V1」で指定されたパケット処理の使用率「50%」が消費されたためである。
リソース割当装置1による割当結果は、以下に示すように、サービス提供者の要望と、インフラ運用者の要望とをバランスよく満たすことができるものである。
・フィルタリング部12がリソース割当定義ファイル32に適合しないリソースを事前にふるい落とすことで、サービス提供者は、サービス内容を円滑に(停止したり、性能不足になったりせずに)提供できる。
・ウェイティング部13がリソース管理部15内の残使用可能率からリソースの利用効率がよい順序でリソースの選別順序を決定する。例えば残使用可能率が少ないリソースほど優先して選択(共有割当方式)することで、用意する物理CPUの総数を節約できる。これにより、インフラ運用者は、物理CPUごとのオーバーコミット率のようなパラメータ値を考慮することなく、割当用リソース2にVMを効率よく収容できる。
2 割当用リソース
3 サービス提供者端末(サービス提供者の端末)
4 インフラ運用者端末(インフラ運用者の端末)
10 処理部
11 リソース割当決定部
12 フィルタリング部
13 ウェイティング部
14 仮想マシン生成部(リソース割当部)
15 リソース管理部
31 リソース管理情報
31a ベンチマークリスト
31b 処理特性パラメータリスト
32 リソース割当定義ファイル
Claims (4)
- リソース割当装置と、割当用リソースを運用するインフラ運用者の端末と、前記割当用リソースを受けてサービスを提供するサービス提供者の端末とを含めて構成されるリソース管理システムであって、
前記リソース割当装置は、
仮想リソースが使用する物理リソースの使用量および前記物理リソースの特性を前記仮想リソースごとに規定した割当要求を受け、前記割当要求で指定された前記物理リソースの特性に合致する割当用リソースを選択するフィルタリング部と、
選択された各前記割当用リソースの使用可能な使用量と、前記割当要求で指定された前記物理リソースの使用量とをもとに、前記仮想リソースの割当先となる前記物理リソースを選定するウェイティング部と、
割当先として選定された前記物理リソースに対して、前記割当要求で指定された前記仮想リソースを割り当てるリソース割当部とを有しており、
前記インフラ運用者の端末は、前記割当用リソースごとの性能データおよび特性データを前記サービス提供者の端末に通知し、
前記サービス提供者の端末は、通知された前記割当用リソースごとの性能データから前記仮想リソースが使用する前記物理リソースの使用量を特定するとともに、通知された前記割当用リソースごとの特性データから前記仮想リソースが使用する前記物理リソースの特性を特定することで、前記割当要求を作成することを特徴とする
リソース管理システム。 - 前記ウェイティング部は、選択された各前記割当用リソースの使用可能な使用量が少ないほど、優先的に前記仮想リソースの割当先として選定することを特徴とする
請求項1に記載のリソース管理システム。 - 前記インフラ運用者の端末は、前記割当用リソースごとの性能データとして、前記割当用リソースが物理CPUであるときのCPU使用率を、物理CPU上で動作させるプロセス種別ごとに通知し、
前記サービス提供者の端末は、事前に入力されているサービスのプロセス種別から、通知されたプロセス種別ごとのCPU使用率をもとに、前記仮想リソースが使用するCPU使用率を前記物理リソースの使用量として求めることを特徴とする
請求項1に記載のリソース管理システム。 - 前記リソース割当装置としてのコンピュータと、前記インフラ運用者の端末としてのコンピュータと、前記サービス提供者の端末としてのコンピュータとを、請求項1ないし請求項3のいずれか1項に記載のリソース管理システムの各コンピュータとして機能させるためのリソース割当プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018137323A JP7037059B2 (ja) | 2018-07-23 | 2018-07-23 | リソース管理システム、および、リソース割当プログラム |
PCT/JP2019/026624 WO2020022018A1 (ja) | 2018-07-23 | 2019-07-04 | リソース割当装置、リソース管理システム、および、リソース割当プログラム |
US17/261,748 US11762704B2 (en) | 2018-07-23 | 2019-07-04 | Resource allocation device, resource management system, and resource allocation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018137323A JP7037059B2 (ja) | 2018-07-23 | 2018-07-23 | リソース管理システム、および、リソース割当プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020016910A JP2020016910A (ja) | 2020-01-30 |
JP7037059B2 true JP7037059B2 (ja) | 2022-03-16 |
Family
ID=69181395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018137323A Active JP7037059B2 (ja) | 2018-07-23 | 2018-07-23 | リソース管理システム、および、リソース割当プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11762704B2 (ja) |
JP (1) | JP7037059B2 (ja) |
WO (1) | WO2020022018A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12039655B2 (en) * | 2020-02-28 | 2024-07-16 | Nippon Telegraph And Telephone Corporation | Resource estimation apparatus, resource estimation method and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007136021A1 (ja) | 2006-05-24 | 2007-11-29 | Nec Corporation | 仮想マシン管理装置、仮想マシン管理方法およびプログラム |
JP2011028705A (ja) | 2009-07-24 | 2011-02-10 | Tops Systems:Kk | プロセッサの並列ソフトウェア実行方式 |
WO2012039053A1 (ja) | 2010-09-24 | 2012-03-29 | 株式会社日立製作所 | 計算機システムの運用管理方法、計算機システム及びプログラムを記憶する計算機読み取り可能な媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9256467B1 (en) * | 2014-11-11 | 2016-02-09 | Amazon Technologies, Inc. | System for managing and scheduling containers |
-
2018
- 2018-07-23 JP JP2018137323A patent/JP7037059B2/ja active Active
-
2019
- 2019-07-04 WO PCT/JP2019/026624 patent/WO2020022018A1/ja active Application Filing
- 2019-07-04 US US17/261,748 patent/US11762704B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007136021A1 (ja) | 2006-05-24 | 2007-11-29 | Nec Corporation | 仮想マシン管理装置、仮想マシン管理方法およびプログラム |
JP2011028705A (ja) | 2009-07-24 | 2011-02-10 | Tops Systems:Kk | プロセッサの並列ソフトウェア実行方式 |
WO2012039053A1 (ja) | 2010-09-24 | 2012-03-29 | 株式会社日立製作所 | 計算機システムの運用管理方法、計算機システム及びプログラムを記憶する計算機読み取り可能な媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20210334145A1 (en) | 2021-10-28 |
US11762704B2 (en) | 2023-09-19 |
WO2020022018A1 (ja) | 2020-01-30 |
JP2020016910A (ja) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11243805B2 (en) | Job distribution within a grid environment using clusters of execution hosts | |
JP5244236B2 (ja) | 計算機システム、方法、およびプログラム | |
US9141432B2 (en) | Dynamic pending job queue length for job distribution within a grid environment | |
JP2017142824A (ja) | 仮想環境における演算インフラストラクチャのリアルタイム最適化 | |
US20110314157A1 (en) | Information processing system, management apparatus, processing requesting apparatus, information processing method, and computer readable medium storing program | |
CN110377415A (zh) | 一种请求处理方法和服务器 | |
WO2020158452A1 (ja) | 仮想化基盤および仮想化基盤のスケーリング管理方法 | |
WO2013139037A1 (zh) | 用于调度资源的方法及装置 | |
JP6010975B2 (ja) | ジョブ管理装置、ジョブ管理方法、及びプログラム | |
CN112506650A (zh) | 资源分配方法、系统、计算机设备和存储介质 | |
JP2006163482A (ja) | 情報処理装置の制御方法、情報処理装置、及びプログラム | |
KR20170014804A (ko) | 클라우드 서비스를 위한 가상 머신 프로비저닝 시스템 및 방법 | |
JP7037059B2 (ja) | リソース管理システム、および、リソース割当プログラム | |
JP6511025B2 (ja) | リソース割当装置、リソース割当方法およびリソース割当プログラム | |
WO2016121879A1 (ja) | 仮想化制御装置、配置先選択方法及びプログラム | |
CN113301087A (zh) | 资源调度方法、装置、计算设备和介质 | |
CN116157778A (zh) | 共享物理主机上混合集中分布式调度的系统和方法 | |
KR100788328B1 (ko) | 그리드 컴퓨팅을 이용한 미들웨어 시스템 및 그 동작 방법 | |
CN115701585A (zh) | 实例迁移方法、装置及相关设备 | |
JP2020190867A (ja) | 構成変更型集積回路の割当システム、構成変更型集積回路の割当方法およびコンピュータプログラム | |
JP6339978B2 (ja) | リソース割当管理装置およびリソース割当管理方法 | |
CN115994031A (zh) | 一种Hadpood资源分配优化方法、装置、终端及介质 | |
KR20230024744A (ko) | 다중 클러스터 환경에서의 컨테이너 배포 방법, 장치, 시스템 및 컴퓨터 프로그램 | |
JP2019211890A (ja) | リソース予約管理装置およびリソース予約管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7037059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |