JPWO2020116221A1 - Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム - Google Patents

Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム Download PDF

Info

Publication number
JPWO2020116221A1
JPWO2020116221A1 JP2020559060A JP2020559060A JPWO2020116221A1 JP WO2020116221 A1 JPWO2020116221 A1 JP WO2020116221A1 JP 2020559060 A JP2020559060 A JP 2020559060A JP 2020559060 A JP2020559060 A JP 2020559060A JP WO2020116221 A1 JPWO2020116221 A1 JP WO2020116221A1
Authority
JP
Japan
Prior art keywords
configuration information
virtual
information
resource management
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020559060A
Other languages
English (en)
Other versions
JP7056759B2 (ja
Inventor
青木 大輔
大輔 青木
武史 鍬形
武史 鍬形
克幸 長谷部
克幸 長谷部
誠 神崎
誠 神崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020116221A1 publication Critical patent/JPWO2020116221A1/ja
Application granted granted Critical
Publication of JP7056759B2 publication Critical patent/JP7056759B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/18Network design, e.g. design based on topological or interconnect aspects of utility systems, piping, heating ventilation air conditioning [HVAC] or cabling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/76Adapting program code to run in a different environment; Porting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Computational Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Control Of Heat Treatment Processes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ICT資源となる、物理ノードおよび仮想ノードを管理するICT資源管理装置(1)は、物理レイヤ構成情報(21a)、および、仮想レイヤ構成情報(21b)を管理する構成情報管理部(13)と、物理レイヤおよび仮想レイヤとのマッピングを行うレイヤマッピング部(14)と、構成変更の要求に対して、物理レイヤ構成情報(21a)、仮想レイヤ構成情報(21b)、および、マッピングの結果であるマッピング情報(22)に基づいて、構成変更に必要なインフラの設計情報となるブループリント(24)を作成するブループリント作成部(12)と、ブループリント(24)に基づいて、APIを通じ操作することができるプログラムにアクセスして実行することで、仮想レイヤに対するオーケストレーションを実行するオーケストレータ部(15,16)と、を備える。

Description

本発明は、ICT(Information and Communication Technology)資源管理装置、ICT資源管理方法、および、ICT資源管理プログラムに関する。
近年、サービス事業者がサービスをエンドユーザに提供するための技術開発が盛んに行われている。例えば、特許文献1には、「ユーザに通信を提供する端末機からの通信サービス利用のためのオーダ要求に応じて、卸サービス事業者毎に通信サービスAPIで公開される各々異なる1つの通信サービスを1又は複数一括して提供する事業者間一括サービス構築装置であって、通信の卸サービスの仕様が記述されたカタログと、各種の通信サービスの連携を定めた連携ルールとを保持し、前記端末機から複数の通信サービス利用のオーダ要求があった場合に、前記保持された前記カタログ及び前記連携ルールに基づき、当該オーダ要求された複数の通信サービスに対応する前記通信サービスAPIを一括に連携させて連携サービスを構築し、この構築された連携サービスを前記端末機へ提供する一括構築機能部を備えることを特徴とする事業者間一括サービス構築装置」について開示されている。
特開2018−32897号公報(請求項1)
また、サービスが提供されるシステムとして、例えば、仮想化技術が適用される分散システムがある。分散システムは、例えば、地理的に異なる場所に配置される複数のデータセンタが備える装置群から構築することができるが、これに限らない。仮想化技術が適用される分散システムは、分散システムが備える物理ノード(例:計算機、ルータ、センサ)の集合体となる物理レイヤと、物理ノード上に構成されて稼働する仮想ノードの集合体となる仮想レイヤとを備える。仮想化技術が適用される分散システムでは、物理レイヤに対する構成管理と、仮想レイヤに対する構成管理との2種類の構成管理が行われる。また、分散システムのエンジニアは、物理レイヤの設計と、仮想レイヤの設計との両方を行う。
例えば、物理ノードに接続しているデバイス(例:IoT(Internet of Things)機器)でサービスが利用可能となるように、仮想ノードに新たなアプリケーションを配置するといった構成変更を行う場合がある。この場合、仮想化技術によって物理レイヤが抽象化されているため、アプリケーションを配置する仮想ノードを特定することが直ちにできない。従来では、エンジニアが物理レイヤと仮想レイヤとを照合して仮想ノードを特定するという手法をとっていた。しかし、このような手法は、人手を介するため、分散システムのオペレーションの自動化を妨げてしまい、分散システムの運用コストの増大を招くという問題がある。
このような背景に鑑みて、本発明は、分散システムのオペレーションを自動化し、仮想化技術が適用される分散システムの運用コストを低減することを課題とする。
前記した課題を解決するため、請求項1に記載の発明は、ICT資源となる、物理ノードおよび仮想ノードを管理するICT資源管理装置であって、物理レイヤ上の前記物理ノードに関する構成情報である物理レイヤ構成情報、および、仮想レイヤ上の前記仮想ノードに関する構成情報である仮想レイヤ構成情報を管理する構成情報管理部と、前記物理レイヤおよび前記仮想レイヤとのマッピングを行うレイヤマッピング部と、外部装置からの構成変更の要求に対して、前記物理レイヤ構成情報、前記仮想レイヤ構成情報、および、前記マッピングの結果であるマッピング情報に基づいて、前記構成変更に必要なインフラの設計情報となるブループリントを作成するブループリント作成部と、前記ブループリントに基づいて、APIを通じ操作することができるプログラムにアクセスして実行することで、前記仮想レイヤに対するオーケストレーションを実行するオーケストレータ部と、を備える、ことを特徴とする。
また、請求項4に記載の発明は、ICT資源となる、物理ノードおよび仮想ノードを管理するICT資源管理装置におけるICT資源管理方法であって、前記ICT資源管理装置は、物理レイヤ上の前記物理ノードに関する構成情報である物理レイヤ構成情報、および、仮想レイヤ上の前記仮想ノードに関する構成情報である仮想レイヤ構成情報を収集するステップと、前記物理レイヤおよび前記仮想レイヤとのマッピングを行うステップと、外部装置からの構成変更の要求に対して、前記物理レイヤ構成情報、前記仮想レイヤ構成情報、および、前記マッピングの結果であるマッピング情報に基づいて、前記構成変更に必要なインフラの設計情報となるブループリントを作成するステップと、前記ブループリントに基づいて、APIを通じ操作することができるプログラムにアクセスして実行することで、前記仮想レイヤに対するオーケストレーションを実行するステップと、を実行する、ことを特徴とする。
請求項1,4に記載の発明によれば、物理レイヤと仮想レイヤとのマッピングによって、物理ノードと仮想ノードとの紐付けが明らかとなり、構成変更に対する仮想ノードを、人手を介することなく特定することができる。このため、オペレーションの自動化を実現することができる。
したがって、分散システムのオペレーションを自動化し、仮想化技術が適用される分散システムの運用コストを低減することができる。
また、請求項2に記載の発明は、請求項1に記載のICT資源管理装置であって、前記ブループリントは、サービスの提供に供する工程を示すカタログの集合体と、前記カタログに対するインプット情報となるパラメータとを含む、ことを特徴とする。
請求項2に記載の発明によれば、オーケストレーションを実行するためのワークフローを容易に構成することができる。
また、請求項3に記載の発明は、請求項1または請求項2に記載のICT資源管理装置であって、前記物理ノードおよび前記仮想ノードを監視する監視部、をさらに備え、前記構成情報管理部は、前記監視部の監視によって収集した情報から、前記物理レイヤ構成情報および前記仮想レイヤ構成情報を生成し、前記レイヤマッピング部は、前記監視部の監視によって収集した情報から、前記マッピング情報を生成する、ことを特徴とする。
請求項3に記載の発明によれば、構成情報およびマッピング情報を最新状態で保持することができるため、人手を介することなくブループリントを作成し、オーケストレーションを実行し、オペレーションの自動化に寄与することができる。
また、請求項5に記載の発明は、コンピュータを、請求項1から請求項3の何れか1項に記載のICT資源管理装置として機能させるためのICT資源管理プログラムである。
請求項5に記載の発明によれば、ICT資源管理装置の構築を容易にすることができる。
本発明によれば、分散システムのオペレーションを自動化し、仮想化技術が適用される分散システムの運用コストを低減することができる。
本実施形態のICT資源管理装置を含む分散システムの機能構成図の例である。 ICT資源管理装置の機能構成図の例である。 物理レイヤ構成情報のデータ構造図の例である。 仮想レイヤ構成情報のデータ構造図の例である。 ブループリントの例の説明図である。 本実施形態で実行される処理を示すシーケンスの例である。 初期デプロイの動作例の説明図である。 本実施形態で実行される処理のプログラムを実行するコンピュータを示す図である。
以下、図面を参照して本発明を実施するための形態(以下、「本実施形態」という)について説明する。
≪構成≫
図1に示すように、本実施形態のICT資源管理装置1を含む分散システム100は、仮想化技術が適用されるシステムであり、ICT資源管理装置1と、サービス事業者端末2と、サーバ3と、エッジ4と、デバイス5とを備える。また、分散システム100は、物理ノードの集合体となる物理レイヤと、物理ノード上に構成されて稼働する仮想ノードの集合体となる仮想レイヤとを管理することができる。サーバ3と、エッジ4と、デバイス5は、物理レイヤを構成する物理ノードとなる。また、図1に示す、仮想レイヤ上に配置されているVM(Virtual Machine)7は、サーバ3またはエッジ4を仮想化した仮想ノードである。
ICT資源管理装置1は、物理ノードおよび仮想ノードをICT資源として管理する。
サービス事業者端末2は、初期デプロイやスケール可変などの構成変更を要求する端末である。サービス事業者端末2は、当該要求をAPI(Application Programming Interface)を通じて行う。当該APIは、ICT資源管理装置1とサービス事業者端末2との間のNorthbound APIである。また、サービス事業者端末2は、サービス事業者等が用いる。
サーバ3は、サービスの提供に係るプロセスを実行する計算機である。図1に示すサーバ3は、クラウド基盤Aに配置されており、クラウドサービス用のプロセスを実行する。サーバ3には、サービスの提供に係るプロセスを実行するための1または複数のアプリ(アプリケーションの略)6が配置される。
エッジ4は、NW(ネットワーク)上に配置される中継装置であり、例えば、ルータ、ブリッジ、ゲートウェイが該当する。エッジ4には、サービスの提供に係るプロセスを実行するための1または複数のアプリ6が配置される。サーバ3およびエッジ4は、通信可能に接続されている。
デバイス5は、エンドユーザがサービスを利用する機器であり、例えば、IoT機器が該当する。デバイス5は、エッジ4に接続することで、サービスを利用することができる。
ICT資源管理装置1は、物理ノードおよび仮想ノードに関する情報収集をすることができる。また、ICT資源管理装置1は、収集した情報を用いて、物理レイヤと仮想レイヤとのマッピングを行うことができる(図1中、破線両矢印参照)。
また、ICT資源管理装置1は、仮想レイヤに対してオーケストレーションを実行することができる。具体的には、サービスのデプロイや、VM7へのリソース割り当てをすることができる。
(ICT資源管理装置1の詳細)
図2に示すように、ICT資源管理装置1は、要求取得部11と、ブループリント作成部12と、構成情報管理部13と、レイヤマッピング部14と、ワークフロー実行部15と、APIアダプタ部16と、監視部17といった機能部を備える。また、ICT資源管理装置1は、構成情報DB21と、マッピング情報22と、カタログ群23と、ブループリント24を記憶部で記憶する。ICT資源管理装置1が備える前記記憶部は、例えば、ICT資源管理装置1の内部にあってもよいし、ICT資源管理装置1の外部の装置にあってもよい。
[要求取得部11]
要求取得部11は、サービス事業者端末2からの構成変更の要求を取得する。要求取得部11が取得した要求を「オーダ情報」と呼ぶ場合がある。また、構成変更の要求は、サービス事業者端末2に限らず、例えば、分散システム100の保守者の端末からも行うことができる。サービス事業者端末2、および、保守者の端末は、外部装置の例となる。
[ブループリント作成部12]
ブループリント作成部12は、要求取得部11が取得したオーダ情報に対応するブループリント24を作成する。ブループリント24は、要求された構成変更に必要となるインフラの設計情報である。インフラは、サービスの動作環境の構成要素を示し、例えば、ICT資源そのもの、ICT資源の設定情報(例:VM名、IPアドレス、ホスト名)や割当リソース、NW上に設定されるLB(ロードバランサ)、FW(ファイアウォール)、コンテナといったさまざまな要素を指す。
[構成情報管理部13]
構成情報管理部13は、ICT資源に関する情報を構成情報として管理する。構成情報管理部13は、例えば、リソース情報収集のAPIにアクセスすることで、物理ノードおよび仮想ノードに関する情報を収集することができる。リソース情報収集のAPIとは、オーケストレーション対象がそれぞれに用意するリソース情報を提供するためのAPIである。リソース情報収集のAPIは、ICT資源管理装置1とオーケストレーション対象との間のsouthbound APIである。収集する情報は、例えば、SNMP(Simple Network Management Protocol)によるMIB(Management Information Base)とすることができるが、これに限定されない。構成情報管理部13が管理する構成情報は、構成情報DB21に格納されており、物理レイヤ構成情報21aと、仮想レイヤ構成情報21bに分類される。
オーケストレーション対象は、物理ノードおよび仮想ノードを含むが、これらに限定されない。オーケストレーション対象が提供するインタフェースは、例えば、当該オーケストレーション対象を制御するコントローラ(図示せず)が提供することもできるし、物理ノードおよび仮想ノードの各々が提供することもできる。
物理レイヤ構成情報21aは、物理レイヤ上の物理ノードに関する構成情報である。図3に示すように、物理レイヤ構成情報21aは、例えば、「ノードID」、「状態」、「ホスト名」、「IPアドレス」、「VMID」、「利用サービス」、「利用者」といった管理項目を有し、物理ノードごとに各管理項目の値が格納されている。
「ノードID」の管理項目には、対象の物理ノードの識別子が格納される。
「状態」の管理項目には、対象の物理ノードの稼働状態が格納される(正常の場合「OK」、故障の場合「NG」)。
「ホスト名」の管理項目には、対象の物理ノードのホスト名が格納される。
「IPアドレス」の管理項目には、対象の物理ノードに割り当てられたIPアドレスが格納される。
「VMID」の管理項目には、対象の物理ノード上で稼働するVMの識別子が格納される。
「利用サービス」の管理項目には、対象の物理ノードで利用可能なサービスの識別子が格納される。利用サービスは、例えば、クラウドサービス、エッジコンピューティングサービスがあるが、これらに限定されない。また、利用サービスには、複数の物理ノードで同一のサービスを提供可能となるサービスを含めることができる。
「利用者」の管理項目には、対応の「利用サービス」に示すサービスを利用する利用者の識別子が格納される。利用者は、例えば、法人であってもよいし、個人であってもよい。また、例えば、該当の物理ノードがエッジ装置であった場合、当該エッジ装置の所有者のみを利用者とすることができる。
図3に示す物理レイヤ構成情報21aの管理項目は、一例であり、より多く設定することができる。例えば、物理レイヤ構成情報21aの管理項目として、対象の物理ノード上で稼働するVMのメモリサイズ、CPU周波数、電源状態、VM名を設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードに用いるリソースプールの名称、IDを設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードが配置されるネットワークの型、ID、名称を設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードが用いるフォルダのID、型、名称を設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードが使用するデータストアの記憶容量、ID、型、名称を設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードを制御するデータセンタのID、名称を設定することができる。
また、物理レイヤ構成情報21aの管理項目として、対象の物理ノードにアクセスするユーザの認証情報となるユーザ名、パスワードを設定することができる。
図2に戻って、仮想レイヤ構成情報21bは、仮想レイヤ上の仮想ノードに関する構成情報である。図4に示すように、仮想レイヤ構成情報21bは、例えば、「ノードID」、「状態」、「VM名」、「IPアドレス」、「物理デバイスID」といった管理項目を有し、仮想ノードごとに各管理項目の値が格納されている。
「ノードID」の管理項目には、対象の仮想ノードの識別子が格納される。
「状態」の管理項目には、対象の稼働ノードの稼働状態が格納される(正常の場合「OK」、故障の場合「NG」)。
「VM名」の管理項目には、対象の仮想ノードの名称が格納される。
「IPアドレス」の管理項目には、対象の仮想ノードに割り当てられたIPアドレスが格納される。
「物理デバイスID」の管理項目には、対象の仮想ノードが配置される物理ノードの識別子が格納される。
図4に示す仮想レイヤ構成情報21bの管理項目は、一例であり、より多く設定することができる。例えば、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードのID情報となるVMIDを設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードのリソースとなるメモリサイズ、CPU周波数を設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードの電源状態を設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードにアクセスするユーザの認証情報となるユーザ名、パスワードを設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが使用するゲートウェイ、VXLAN(Virtual eXtensible Local Area Network)、スタティックルートを設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが配置される物理ノードのホスト名を設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードを生成するハイパバイザに関する情報を設定することができる。
また、仮想レイヤ構成情報21bに設定される管理項目として、コンテナアプリケーションの管理項目を設定することができる。例えば、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが用いるコンテナに対して登録されるコンテナホストのホスト名、ラベル、状態、アカウントIDを設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが用いるコンテナで提供されるサービスのID、名称、状態、スケール(利用サーバの台数)を設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが用いるコンテナで提供されるストレージ装置のボリュームのマウント、ID(RancherNFS(Network File System)利用時のみ)、イメージIDを設定することができる。
また、仮想レイヤ構成情報21bの管理項目として、対象の仮想ノードが用いるコンテナで提供されるストレージ装置のスタックのグループ、ヘルス状態、スタックID、利用されるサービスのIDを設定することができる。
[レイヤマッピング部14]
図2に戻って、レイヤマッピング部14は、物理レイヤと仮想レイヤとのマッピングを行う。具体的には、レイヤマッピング部14は、構成情報管理部13が管理する構成情報に基づいて、仮想レイヤ上の仮想ノードが物理レイヤ上のいずれの物理ノード(または当該物理ノードに配置されたアプリ6)に紐付けられているかを判定する。ICT資源管理装置1は、レイヤマッピング部14による、物理ノードと仮想ノードとの紐付けの判定結果を、マッピング情報22として保存する。例えば、レイヤマッピング部14は、物理レイヤ構成情報21a(図3)の「VMID」の管理項目と、仮想レイヤ構成情報21b(図4)の「物理デバイスID」の管理項目を参照することで、物理ノードと仮想ノードとの紐付けを判定することができる。
ここで、ブループリント24の詳細を、図5を参照して説明する。図5は、初期デプロイのブループリントの説明図である。図5に示すように、ブループリント24は、サービステンプレートとパラメータとの組として構成することができる。サービステンプレートは、カタログの集合体とすることができる。カタログは、サービスの提供に供する工程の雛型であり、ICT資源管理装置1が記憶するカタログ群23の要素である。カタログ自体は周知であり、詳細な説明は省略する。また、パラメータは、各カタログに対するインプット情報である。
図5に示す初期デプロイのブループリント24の場合、要求取得部11が取得したオーダ情報は、初期デプロイに関するオーダ情報となる。初期デプロイの場合、ブループリント作成部12は、例えば、カタログ群23から、VM作成用のカタログ、NW設定用のカタログ、および、コンテナ設定用のカタログを選択し、サービステンプレートを構成することができる。
VM作成用のカタログに入力するパラメータは、例えば、作成するVMの個数および種類である。図5では、Webサーバとして機能するVMを3つ、および、APサーバ(アプリケーションサーバ)として機能するVMを2つの計5つのVMを指定するパラメータがVM作成用のカタログに入力される。VM作成用のカタログに入力するパラメータは、例えば、サービス事業者端末2が入力することができる。
NW設定用のカタログに入力するパラメータは、例えば、IPアドレスの割り当て(IP割り当て)である。図5では、作成されるVMに割り当てられるIPアドレスを指定するパラメータがNW設定用のカタログに入力される。NW設定用のカタログに入力するパラメータは、例えば、分散システム100から取得することができる。
コンテナ設定用のカタログに入力するパラメータは、例えば、作成されるVMが用いるコンテナの設定方式である。図5では、Rancherによるコピー実行という設定方式を示すパラメータがコンテナ設定用のカタログに入力される。コンテナ設定用のカタログに入力するパラメータは、例えば、サービス事業者端末2が入力することができる。
ブループリント作成部12は、要求取得部11が取得したオーダ情報が示すオペレーションに応じて、カタログ群23から、必要となるカタログを選択し、サービステンプレートを構成する。また、ブループリント作成部12は、選択したカタログに入力されるパラメータを、オーダ情報や分散システム100から取得することができる。つまり、ブループリント作成部12は、選択したカタログに入力されるパラメータを、オーダ情報を送信したサービス事業者端末2などに要求し、当該要求の応答となるオーダ情報を改めて受信することで、オーダ情報からパラメータを取得することができる。また、IPアドレスの払い出しなどの、分散システム100自身でパラメータ取得可能となる場合には、ブループリント作成部12は、選択したカタログに入力されるパラメータを、分散システム100から取得することができる。
ブループリント作成部12は、ブループリント24を作成する際、構成情報管理部13が管理する構成情報、および、レイヤマッピング部14が保存するマッピング情報22を参照する。つまり、ブループリント作成部12は、物理レイヤ構成情報21a、仮想レイヤ構成情報21b、および、マッピング情報22から決定される、物理ノードおよび仮想ノードの現在の状態と、オーダ情報が示す、サービス事業者等の要求とを照合して、ブループリント24を作成することができる。
[ワークフロー実行部15]
ワークフロー実行部15は、ブループリント作成部12が作成したブループリント24に従って、ワークフローを実行する。ワークフローは、ブループリント24に含まれるカタログが示す工程を、順序を定めて連結したものである。図5に示す初期デプロイのブループリント24に対しては、初期デプロイのワークフローは、VM作成→NW設定→コンテナ設定、のように順序を定めて連結したものとなる。ワークフロー実行部15がワークフローを実行することで、オーケストレーションが実行され、ICT資源にリソースが割り当てられる。
[APIアダプタ部16]
APIアダプタ部16は、ワークフローを実行するワークフロー実行部15からの命令に対し、APIを通じ操作することができるプログラムにアクセスするためのインタフェースである。当該APIは、APIアダプタ部16(またはAPIアダプタ部16を備えるICT資源管理装置1)とオーケストレーション対象との間のsouthbound APIである。APIアダプタ部16は、オーケストレーション対象ごとにインタフェース接続することができる。APIアダプタ部16は、APIを通じ操作することができるプログラムごとに複数用意することができる。ワークフロー実行部15は、APIを通じ操作することができるプログラムを実行することで、ワークフローを実行することができる。
ワークフロー実行部15およびAPIアダプタ部16の組合せは、オーケストレーションを実行するオーケストレータ部として機能する。
[監視部17]
監視部17は、物理レイヤ上の物理ノード、および、仮想レイヤ上の仮想ノードを、例えば、SNMPによって監視する。監視部17による監視結果は、オーケストレーションが実行され、利用可能となったサービスの使用状況を示している。監視部17による監視結果は、構成情報管理部13に送信することができる。構成情報管理部13は、監視部17の監視結果で、物理ノードおよび仮想ノードに関する情報を収集することができる。
≪処理≫
本実施形態のICT資源管理装置1が実行する処理を、図6を参照して説明する。この処理は、例えば、サービス事業者端末2などから構成変更等のオペレーションの要求があった場合に開始する。
まず、要求取得部11は、構成変更等のオペレーションが示されたオーダ情報をブループリント作成部12に出力する(ステップS1)。次に、ブループリント作成部12は、構成情報管理部13に対し、構成情報を要求する(ステップS2)。次に、構成情報管理部13は、構成情報DB21に格納されている構成情報、具体的には、物理レイヤ構成情報21aおよび仮想レイヤ構成情報21bをブループリント作成部12に出力する(ステップS3)。
次に、ブループリント作成部12は、レイヤマッピング部14に対し、マッピング情報22を要求する(ステップS4)。次に、レイヤマッピング部14は、マッピング情報22をブループリント作成部12に出力する(ステップS5)。
次に、ブループリント作成部12は、オーダ情報に対して、構成情報、および、マッピング情報に基づいてブループリント24を作成する(ステップS6)。このとき、ブループリント作成部12は、オーダ情報に応じて、カタログ群23からオペレーションに必要となるカタログを選択するとともに、オーダ情報または分散システム100から、選択したカタログに入力するパラメータを取得する。
次に、ブループリント作成部12は、作成したブループリント24を、要求取得部11を介して、オーダ情報を送信したサービス事業者端末2等に送信し、ブループリント24の確認依頼をする(ステップS7)。ブループリント24の確認に問題が無ければ、要求取得部11は、サービス事業者端末2等からの承認を示す情報をブループリント作成部12に送信する(ステップS8)。
ステップS1〜ステップS8は、ICT資源管理装置1が実行する処理全体のうち、インフラ設計の処理を構成する。
なお、処理を迅速にするため、ステップS7、ステップS8は、省略してもよい。
次に、ブループリント作成部12は、承認を得たブループリント24に基づくオーケストレーションを実行するためのスクリプトを作成する(ステップS9)。スクリプトの作成の技術は周知であり、詳細な説明は省略する。次に、ブループリント作成部12は、作成したスクリプトをワークフロー実行部15に出力する(ステップS10)。
ステップS9〜ステップS10は、ICT資源管理装置1が実行する処理全体のうち、スクリプト作成の処理を構成する。
次に、ワークフロー実行部15は、ブループリント作成部12から取得したスクリプトを解釈する(ステップS11)。スクリプトの解釈の技術は周知であり、詳細な説明は省略する。次に、ワークフロー実行部15は、APIアダプタ部16に対し、APIを通じ操作することができるプログラムごとに命令し(ステップS12)、プロセスを実行する。
プロセスの実行が完了した場合、APIアダプタ部16は、ワークフロー実行部15に、プロセスの実行の完了を通知する(ステップS13)。次に、ワークフロー実行部15は、ブループリント作成部12に、プロセスの実行の完了を通知する(ステップS14)。プロセスの実行の完了は、ICT資源管理装置1から仮想レイヤに対するオーケストレーションの実行の完了を意味し、構成変更後のサービスが利用可能になったことを意味する。
ステップS11〜ステップS14は、ICT資源管理装置1が実行する処理全体のうち、オーケストレーションの処理を構成する。
その後、監視部17は、物理レイヤ上の物理ノード、および、仮想レイヤ上の仮想ノードの監視を開始する。監視部17は、監視によって収集した情報を構成情報管理部13に通知する(ステップS15)。次に、構成情報管理部13は、監視部17から収集した情報をレイヤマッピング部14に通知する(ステップS16)。
ステップS15〜ステップS16は、ICT資源管理装置1が実行する処理全体のうち、監視の処理を構成する。
構成情報管理部13は、監視部17が収集した情報から構成情報を生成し、構成情報DB21に格納する。また、レイヤマッピング部14は、構成情報管理部13を介して、監視部17が収集した情報からマッピング情報22を生成する。生成された構成情報およびマッピング情報22は、新たなブループリントの作成に用いられる。
図6の処理によれば、ICT資源管理装置1は、構成情報およびマッピング情報22を最新状態で保持することができるため、人手を介することなくブループリントを作成し、オーケストレーションを実行し、オペレーションを自動化することができる。
<初期デプロイの具体例>
次に、自動化されるオペレーションとして、初期デプロイについてのワークフローの実行例について、図7を参照して詳細に説明する。図7に示すように、初期デプロイのワークフローは、例えば、MSA(Micro Service Architecture)を用いて定義することができ、サービスレイヤ、ベースライン、マイクロサービスの3層で設計することができる。
サービスレイヤは、初期デプロイのワークフローの各工程を、順序を定めて連結された状態で登録する。図7に示すように、初期デプロイのワークフローは、カタログ/構成情報取得A1、余剰リソース取得/収容先設定A2、VM作成A3、LB/FWグループ追加A4、コンテナホスト登録A5、コンテナイメージ展開A6、状態確認A7、という工程に分けることができ、この順序で実行される。
カタログ/構成情報取得A1は、カタログ群23からのカタログの選択、および、構成情報管理部13による構成情報の取得を示す工程である。
余剰リソース取得/収容先設定A2は、ICT資源の各々の余剰リソースの取得、および、作成されるVMの収容先となる物理ノードの設定を示す工程である。
VM作成A3は、サービスに供するアプリケーションが配置されるVMの作成を示す工程である。
LB/FWグループ追加A4は、ロードバランサのグループおよびファイアウォールのグループをNW上に追加することを示す工程である。
コンテナホスト登録A5は、作成されるVMが用いるコンテナを実行させるための環境構築を示す工程である。コンテナを動作させるためのホストマシンを追加作成し、追加されたホストマシンは、コンテナを管理するコントローラへ登録される。
コンテナイメージ展開A6は、コンテナを動作させるためのホストマシンに、コンテナ化されたアプリケーションを配置する工程である。コンテナ化されたアプリケーションはイメージファイル化されており、当該イメージを指示するホストマシンに配置される。
状態確認A7は、初期デプロイの最終段階として、作成したVMの状態を確認する工程である。
ベースラインは、サービスレイヤの各工程の部品を登録する。登録された部品は、カタログとして構成することができる。サービスレイヤに示す各工程は、ベースラインに示す部品の組合せとして実現することができる。図7に示すように、初期デプロイのベースラインには、余剰リソース取得B1、VM作成B2、LB/FWグループ追加B3、コンテナホスト登録B4、コンテナイメージ展開B5、状態確認B6が登録されている。
余剰リソース取得B1は、余剰リソース取得/収容先設定A2の部品を登録する。余剰リソース取得B1に登録される部品は、例えば、[1]ホスト、VM一覧取得と、[2]VM割当スペック取得と、[3]ホスト割当スペック集計とがあるが、これらに限定されない。
VM作成B2は、VM作成A3の部品を登録する。VM作成B2に登録される部品は、例えば、[1]全VM名取得、[2]VM名決定、[3]IP払出、[4]VMクローン、[5]SSH(Secure Shell)個別設定と、があるが、これらに限定されない。
LB/FWグループ追加B3は、LB/FWグループ追加A4の部品を登録する。LB/FWグループ追加B3に登録される部品は、例えば、[1]LBグループ追加、[2]FWグループ追加とがあるが、これらに限定されない。
コンテナホスト登録B4は、コンテナホスト登録A5の部品を登録する。コンテナホスト登録B4に登録される部品は、例えば、[1]トークン取得、[2]ホスト追加とがあるが、これらに限定されない。
コンテナイメージ展開B5は、コンテナイメージ展開A6の部品を登録する。コンテナイメージ展開B5に登録される部品は、例えば、[1]イメージ展開があり、必要に応じてSSH個別設定を用意することができるが、これらに限定されない。
状態確認B6は、状態確認A7の部品を登録する。状態確認B6に登録される部品は、例えば、[1]Pingテストがあるがこれらに限定されない。
マイクロサービスは、ベースラインに登録されている部品を実行するための機能を登録する。図7に示すように、初期デプロイのマイクロサービスには、[ホスト]情報取得C1、[VM]情報取得C2、[ホスト]情報取得C3、[NSX]IP払出C4、[VM]クローンC5、[VM]SSH実行C6、[NSX]LB追加C7、[NSX]FW追加C8、[Rancher]トークン取得C9、[VM]SSH実行C10、[Rancher]コンテナ作成C11、[VM]PingテストC12が登録されている。
[ホスト]情報取得C1は、物理ノードの管理項目(例えば、図3参照)の情報を取得し、余剰リソース取得B1の[1]ホスト、VM一覧取得を実現する。
[VM]情報取得C2は、仮想ノードの管理項目(例えば、図4参照)の情報を取得し、余剰リソース取得B1の[2]VM割当スペック取得を実現する。
[ホスト]情報取得C3は、物理ノードの管理項目(例えば、図3参照)の情報を取得し、VM作成B2の[1]全VM名取得を実現する。
[NSX]IP払出C4は、VMのIPアドレスを払い出し、VM作成B2の[3]IP払出を実現する。
[VM]クローンC5は、VMの複製処理をし、VM作成B2の[4]VMクローンを実現する。
[VM]SSH実行C6は、VMへログインして命令を実行し、VM作成B2の[5]SSH(Secure Shell)個別設定を実現する。
[NSX]LB追加C7は、ネットワーク上にLBを追加し、LB/FWグループ追加B3の[1]LBグループ追加を実現する。
[NSX]FW追加C8は、ネットワーク上にFWを追加し、LB/FWグループ追加B3の[2]FWグループ追加を実現する。
[Rancher]トークン取得C9は、処理を行うための権限を取得するコンテナを作成し、コンテナホスト登録B4の[1]トークン取得を実現する。
[VM]SSH実行C10は、VMへログインして命令を実行し、コンテナホスト登録B4の[2]ホスト追加を実現する。
[Rancher]コンテナ作成C11は、コンテナ化されたアプリケーションを作成し、コンテナイメージ展開B5の[1]イメージ展開を実現する。
[VM]PingテストC12は、疎通確認をし、状態確認B6の[1]Pingテストを実現する。
サービスレイヤに示す各工程(A1〜A7)は、カタログに相当し、ベースラインに登録されている部品は、カタログの部分に相当する。マイクロサービスに示す各種機能(C1〜12)は、ベースラインに登録されている対応する部品に対してパラメータを入力することができる。
図7に示すように、ワークフロー実行部15は、初期デプロイについては、事前に作成したブループリント24を基づいてVMを作成し、コンテナイメージ展開を実行する。このように、ワークフロー実行部15は、本来は別々となる工程を連結し、各工程についてパラメータが必要となる処理を自動化することができる。
本実施形態によれば、物理レイヤと仮想レイヤとのマッピングによって、物理ノードと仮想ノードとの紐付けが明らかとなり、構成変更に対する仮想ノードを、人手を介することなく特定することができる。このため、オペレーションの自動化を実現することができる。
したがって、分散システムのオペレーションを自動化し、仮想化技術が適用される分散システムの運用コストを低減することができる。
特に、ブループリント24を、カタログの集合体とパラメータを含むように構成することで(図5参照)、オーケストレーションを実行するためのワークフローを容易に構成することができる。
また、監視部17を備えることで、構成情報およびマッピング情報を最新状態で保持することができるため、人手を介することなくブループリントを作成し、オーケストレーションを実行し、オペレーションの自動化に寄与することができる。
また、後記のICT資源管理プログラムは、ICT資源管理装置の構築を容易にすることができる。
(プログラム)
また、上記実施形態に係るICT資源管理装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、ICT資源管理装置1と同様の機能を実現するICT資源管理プログラムを実行するコンピュータの一例を説明する。
図8は、ICT資源管理プログラムを実行するコンピュータを示す図である。図8に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。メモリ1010、ハードディスクドライブ1090、ディスクドライブ1100、および、ディスクドライブ1100に挿入される記憶媒体は、ICT資源管理装置1が備える記憶部の具体的なハードウェア資源となる。
ここで、図8に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
また、ICT資源管理プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、ハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明したICT資源管理装置1が実行する各処理が記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。
また、ICT資源管理プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、ICT資源管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、ICT資源管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
(その他)
(a)構成情報管理部13は、物理ノードの位置情報を管理することができる。
(b)構成情報管理部13は、物理ノードとしてのエッジ4に接続しているデバイス5を使用するユーザに関する情報、または、ユーザのテナントに関する情報を管理することができる。よって、物理レイヤ構成情報21aとして管理される構成情報は、ユーザ単位またはテナント単位の構成情報とすることができる。レイヤマッピング部14が、物理レイヤと仮想レイヤとのマッピングを行った場合、ユーザ単位またはテナント単位の構成情報は、仮想レイヤ構成情報21bとして管理される構成情報とすることができる。
100 分散システム
1 ICT資源管理装置
2 サービス事業者端末
3 サーバ
4 エッジ
5 デバイス
6 アプリ(アプリケーション)
7 VM
11 要求取得部
12 ブループリント作成部
13 構成情報管理部
14 レイヤマッピング部
15 ワークフロー実行部(オーケストレータ部)
16 APIアダプタ部(オーケストレータ部)
17 監視部
21 構成情報DB
21a 物理レイヤ構成情報
21b 仮想レイヤ構成情報
22 マッピング情報
23 カタログ群
24 ブループリント

Claims (5)

  1. ICT資源となる、物理ノードおよび仮想ノードを管理するICT資源管理装置であって、
    物理レイヤ上の前記物理ノードに関する構成情報である物理レイヤ構成情報、および、仮想レイヤ上の前記仮想ノードに関する構成情報である仮想レイヤ構成情報を管理する構成情報管理部と、
    前記物理レイヤおよび前記仮想レイヤとのマッピングを行うレイヤマッピング部と、
    外部装置からの構成変更の要求に対して、前記物理レイヤ構成情報、前記仮想レイヤ構成情報、および、前記マッピングの結果であるマッピング情報に基づいて、前記構成変更に必要なインフラの設計情報となるブループリントを作成するブループリント作成部と、
    前記ブループリントに基づいて、APIを通じ操作することができるプログラムにアクセスして実行することで、前記仮想レイヤに対するオーケストレーションを実行するオーケストレータ部と、を備える、
    ことを特徴とするICT資源管理装置。
  2. 前記ブループリントは、サービスの提供に供する工程を示すカタログの集合体と、前記カタログに対するインプット情報となるパラメータとを含む、
    ことを特徴とする請求項1に記載のICT資源管理装置。
  3. 前記物理ノードおよび前記仮想ノードを監視する監視部、をさらに備え、
    前記構成情報管理部は、前記監視部の監視によって収集した情報から、前記物理レイヤ構成情報および前記仮想レイヤ構成情報を生成し、
    前記レイヤマッピング部は、前記監視部の監視によって収集した情報から、前記マッピング情報を生成する、
    ことを特徴とする請求項1または請求項2に記載のICT資源管理装置。
  4. ICT資源となる、物理ノードおよび仮想ノードを管理するICT資源管理装置におけるICT資源管理方法であって、
    前記ICT資源管理装置は、
    物理レイヤ上の前記物理ノードに関する構成情報である物理レイヤ構成情報、および、仮想レイヤ上の前記仮想ノードに関する構成情報である仮想レイヤ構成情報を収集するステップと、
    前記物理レイヤおよび前記仮想レイヤとのマッピングを行うステップと、
    外部装置からの構成変更の要求に対して、前記物理レイヤ構成情報、前記仮想レイヤ構成情報、および、前記マッピングの結果であるマッピング情報に基づいて、前記構成変更に必要なインフラの設計情報となるブループリントを作成するステップと、
    前記ブループリントに基づいて、APIを通じ操作することができるプログラムにアクセスして実行することで、前記仮想レイヤに対するオーケストレーションを実行するステップと、を実行する、
    ことを特徴とするICT資源管理方法。
  5. コンピュータを、請求項1から請求項3の何れか1項に記載のICT資源管理装置として機能させるためのICT資源管理プログラム。
JP2020559060A 2018-12-04 2019-11-25 Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム Active JP7056759B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018227538 2018-12-04
JP2018227538 2018-12-04
PCT/JP2019/045932 WO2020116221A1 (ja) 2018-12-04 2019-11-25 Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム

Publications (2)

Publication Number Publication Date
JPWO2020116221A1 true JPWO2020116221A1 (ja) 2021-09-27
JP7056759B2 JP7056759B2 (ja) 2022-04-19

Family

ID=70975261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559060A Active JP7056759B2 (ja) 2018-12-04 2019-11-25 Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム

Country Status (6)

Country Link
US (1) US20220043946A1 (ja)
JP (1) JP7056759B2 (ja)
AU (1) AU2019393436B2 (ja)
SG (1) SG11202105923VA (ja)
TW (1) TWI807139B (ja)
WO (1) WO2020116221A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111800506B (zh) * 2020-07-06 2023-09-19 深圳市网心科技有限公司 一种边缘计算节点部署方法及相关装置
CN113111374B (zh) * 2021-05-13 2022-09-23 上海交通大学 一种端边云的工业微服务系统、数据交互方法及介质
WO2022254728A1 (ja) * 2021-06-04 2022-12-08 楽天モバイル株式会社 ネットワーク管理システム、ネットワーク管理方法およびプログラム
TWI821038B (zh) * 2022-11-22 2023-11-01 財團法人工業技術研究院 運算工作分派方法及應用其之終端電子裝置與運算系統

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056182A (ja) * 2013-09-13 2015-03-23 株式会社Nttドコモ ネットワーク仮想化のための方法及び装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6499622B2 (ja) * 2016-08-22 2019-04-10 日本電信電話株式会社 事業者間一括サービス構築装置及び事業者間一括サービス構築方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056182A (ja) * 2013-09-13 2015-03-23 株式会社Nttドコモ ネットワーク仮想化のための方法及び装置

Also Published As

Publication number Publication date
SG11202105923VA (en) 2021-07-29
WO2020116221A1 (ja) 2020-06-11
TWI807139B (zh) 2023-07-01
AU2019393436B2 (en) 2022-08-04
AU2019393436A1 (en) 2021-06-24
US20220043946A1 (en) 2022-02-10
JP7056759B2 (ja) 2022-04-19
TW202037132A (zh) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7056759B2 (ja) Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム
AU2020200723B2 (en) Systems and methods for blueprint-based cloud management
WO2016121802A1 (ja) 仮想化管理・オーケストレーション装置、仮想化管理・オーケストレーション方法、および、プログラム
US8793348B2 (en) Process for installing software application and platform operating system
CN103294765B (zh) 用于供应和转换虚拟设备的基于策略的方法的方法和系统
US20130339510A1 (en) Fast provisioning service for cloud computing
JP7056760B2 (ja) Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム
JP6668658B2 (ja) ジョブ管理方法、ジョブ管理装置及びプログラム
JP6393612B2 (ja) システムのバックアップ装置及びバックアップ方法
JP7115561B2 (ja) Ict資源管理装置、ict資源管理方法、および、ict資源管理プログラム
Moravcik et al. Automated deployment of the OpenStack platform
Steinbauer et al. Building an on-demand virtual computing market in non-commercial communities
Aggarwal Learn Apache Mesos: A beginner’s guide to scalable cluster management and deployment
Comas Gómez Despliegue de un gestor de infraestructura virtual basado en Openstack para NFV
Weissman et al. Azure Arc-enabled Data Services Revealed
Tonello Setting Up a Virtual Environment
SYN et al. D3. 3: Infrastructures Management Toolkit API

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R150 Certificate of patent or registration of utility model

Ref document number: 7056759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150