JP2023048076A - インテリジェントエッジクラスタモデルを展開する方法及びシステム - Google Patents

インテリジェントエッジクラスタモデルを展開する方法及びシステム Download PDF

Info

Publication number
JP2023048076A
JP2023048076A JP2022052624A JP2022052624A JP2023048076A JP 2023048076 A JP2023048076 A JP 2023048076A JP 2022052624 A JP2022052624 A JP 2022052624A JP 2022052624 A JP2022052624 A JP 2022052624A JP 2023048076 A JP2023048076 A JP 2023048076A
Authority
JP
Japan
Prior art keywords
edge
edge node
resources
cluster
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022052624A
Other languages
English (en)
Inventor
クマール アグオワール ピューニート
Kumar Agarwal Puneet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sterlite Technologies Ltd
Original Assignee
Sterlite Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sterlite Technologies Ltd filed Critical Sterlite Technologies Ltd
Publication of JP2023048076A publication Critical patent/JP2023048076A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5041Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
    • H04L41/5054Automatic deployment of services triggered by the service manager, e.g. service implementation by automatic configuration of network components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/301Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is a virtual computing platform, e.g. logically partitioned systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3428Benchmarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/04Network management architectures or arrangements
    • H04L41/044Network management architectures or arrangements comprising hierarchical management structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/34Signalling channels for network management communication
    • H04L41/342Signalling channels for network management communication between virtual entities, e.g. orchestrators, SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5019Ensuring fulfilment of SLA
    • H04L41/5025Ensuring fulfilment of SLA by proactively reacting to service quality change, e.g. by reconfiguration after service quality degradation or upgrade

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】インテリジェントエッジクラスタモデルを展開する方法及びクラスタマスタエッジノードを提供する。【解決手段】方法は、第1のエッジノードでのアプリケーション要件及び重要業績評価指標(KPI)をチェックするステップと、インテリジェントエッジクラスタモデルの仮想リソースプール内のリソースからの第1のリソースを第1のエッジノードに動的に割り当てるステップと、1つ以上のリソースを第1のエッジノードに割り当てるために、別のエッジノードにコマンドを指示するステップと、を含む。特に、インテリジェントエッジクラスタモデルは、対応する1つ以上のリソースを組み合わせて仮想リソースプールを形成するエッジノードとマスタコントローラを含む。【選択図】図4

Description

関連出願の相互参照
本願は、2021年8月19日に出願人によって提出された「インテリジェントエッジクラスタモデルを展開する方法及びシステム」という名称のインド出願番号202011035654の利益を主張し、その全ての内容は、参照により本願に組み込まれるものとする。
本発明の実施形態は、無線通信の分野に関する。また、本発明の実施形態は、より具体的には、無線通信システムにインテリジェントエッジクラスタモデルを展開する方法及びシステムに関する。
待ち時間に敏感で大量の帯域幅を消費するアプリケーションの需要が高まっているため、近端のエッジネットワークを展開する必要がある。近端のエッジネットワークは、可能な限り最も近い座標から効果的な方法で、要求の高いアプリケーションの要件に対応し、満たしてもよい。
可用性に応じて、無線ネットワークと有線ネットワークの両方がユーザの要求に対応できるため、マルチサービスの近端のエッジネットワークを展開して、固定及びモビリティのユーザ要件をシームレスにサポートすることができる。アプリケーションからの動的な動作と特定の要求に対応するために、仮想化とクラウドコンピューティングは非常に効果的であり、マルチアクセスコンピューティングを効果的に採用して対応できるように、多くの標準機関とオープンコミュニティが同じ方向に取り組んでエッジサイトのフレームワークを構築する。
しかしながら、サービスプロバイダーにとっての最大の課題は、未来的で予測可能な要件ではなく、実現された実用的なアプリケーションの要求に従って、近端のエッジサイトに展開できる適切で最適な物理リソースのセットを決定することである。更に、技術の進歩ではなく、ビジネスのトリガー/要件に基づいて、エッジインフラストラクチャの要件を効果的かつ動的に構築する/満たす必要がある。
米国特許出願US20200145337A1は、プラットフォームリソース管理を実装する様々なアプローチを開示する。エッジコンピューティングシステムの展開では、エッジコンピューティングデバイスは、メモリに結合された処理回路を含む。処理回路は、オーケストレーションプロバイダーから、エッジコンピューティングシステム内の仮想マシンで実行されるコンテナによるエッジコンピューティングデバイスのアクセス可能な機能の使用法を定義するサービスレベル目標(SLO)(又はサービスレベル合意(SLA))を取得するように構成される。計算モデルは、SLOで指定された少なくとも1つの重要業績評価指標(KPI)に基づいて取得される。定義されたアクセス可能な機能の使用法は、取得された計算モデルを使用して複数の機能コントロールにマッピングされる。複数の機能コントロールは、コンテナに事前に割り当てられたエッジコンピューティングデバイスのプラットフォームリソースに関連付けられる。コンテナに割り当てられたプラットフォームリソースの使用量は、複数の機能コントロールを使用して監視される。
中国特許出願CN111327651Aは、リソースダウンロード方法、リソースダウンロードデバイス、エッジノード、及び記憶媒体を提供する方法を開示し、モノのインターネットの技術分野に関する。この方法と装置では、リソースは、同じローカルエリアネットワークの全てのエッジノード間で共有され、いずれかのエッジノードがリソースをダウンロードする必要がある場合、ローカルエリアネットワークの他のエッジノードからリソースをダウンロードすることができるため、クラウドからリソースをダウンロードする方法及びデバイスと比較して、ニアダウンロードの機能を実現し、ネットワークのオーバーヘッドを大幅に節約し、ネットワークの時間遅延を減らし、リソースのダウンロード効率を向上させる。一方、安定して稼働しているシステムでは、エッジノードは、インターネットを介したクラウドとの通信を維持せずにリソースをダウンロードできるため、エッジノードの性能オーバーヘッドが大幅に削減される。
したがって、上記欠点又は他の欠点に対処するか、少なくとも有用な代替手段を提供することが望ましい。したがって、本発明は、インテリジェントエッジクラスタモデルを展開するシステム及びその方法に焦点を当てる。
先行技術の方法、装置、又は文献への言及は、それらが共通の一般的知識の一部を形成したか又は形成するという証拠又は承認を構成すると見なされるべきではない。
本発明の実施形態は、インテリジェントエッジクラスタモデルを展開する方法に関する。特に、前記方法は、複数のエッジノードからの第1のエッジノードでのアプリケーション要件及び少なくとも1つの重要業績評価指標をチェックするステップと、前記アプリケーション要件及び少なくとも1つの重要業績評価指標に基づいて、前記インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、を含む。
本発明の実施形態では、前記インテリジェントエッジクラスタモデルは、複数のエッジノードと、対応する1つ以上のリソースを有する前記マスタコントローラとを含む。特に、1つ以上のリソースが組み合わせられて前記仮想リソースプールを形成し、前記複数のエッジノード及び前記マスタコントローラのいずれかから前記リソースをフェッチする。
本発明の実施形態では、1つ以上のリソースは、物理的リソース、機能、アプリケーション及び仮想マシンを含む。
本発明の実施形態では、第1のリソースを動的に割り当てる前記ステップは、前記第1のリソースを第1のエッジノードに割り当てるステップを更に備える。特に、前記第1のリソースは、前記インテリジェントエッジクラスタモデルの前記マスタコントローラに関連付けられた1つ以上のリソースに対応する。
本発明の別の実施形態では、前記第1のリソースは、前記インテリジェントエッジクラスタモデルの第2のエッジノードに対応して割り当てられる。特に、前記第2のエッジノードは、前記第1のエッジノードで実行されるアプリケーションに必要なリソースよりも多くのリソースの数を含み、及び/又は、
本発明の更に別の実施形態では、前記第1のエッジノードに所定の待ち時間の要件がある場合、最も近いエッジノードから前記第1のエッジノードに前記第1のリソースを割り当てる。特に、前記所定の待ち時間の要件は、待ち時間の重要業績評価指標の少なくとも1つを含み、前記最も近いノードは、前記第1のエッジノードでの前記アプリケーション要件と前記最も近いエッジノードの1つ以上のKPIに基づいて識別される。
本発明の実施形態では、前記方法は、前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の1つ以上のリソースからの第2のリソースを前記第1のエッジノードに動的に割り当てるステップを更に含む。特に、前記第1のリソースは、第2のエッジノードに関連付けられた1つ以上のリソースに対応する。前記第2のリソースは、第3のエッジノードに関連付けられた1つ以上のリソースに対応する。
本発明の実施形態では、前記方法は、前記第1のリソースを使用して、前記複数のエッジノードからの前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標が満たさないかどうかを判断するステップと、前記判断に基づいて要求を送信して1つ以上のリソースをサービスオーケストレーションエンティティに割り当てるステップと、前記要求に基づいて1つ以上のリソースを前記サービスオーケストレーションエンティティに動的に割り当てるステップと、を更に含む。特に、前記要求は、前記アプリケーション要件及び少なくとも1つの重要業績評価指標を備える。
本発明の実施形態では、少なくとも1つの重要業績評価指標は、パワー、空間、時間、及び複数のエッジノードのそれぞれに関連付けられたネットワークリンクから選択される任意の指標を含む。
本発明の実施形態では、1つ以上のリソースは、前記サービスオーケストレーションエンティティによって、第2のクラスタネットワークにおいて前記第1のエッジノードを仮想的に再割り当てるステップと、第2のエッジクラスタネットワークを識別して前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標を満たすステップと、前記サービスオーケストレーションエンティティを介して、別のインテリジェントエッジクラスタモデルからの1つ以上のリソースを動的に割り当てるステップと、を実行することによって、前記サービスオーケストレーションエンティティに動的に割り当てられる。
本発明の別の実施形態は、インテリジェントエッジクラスタモデルを展開するクラスタマスタエッジノードに関する。特に、前記クラスタマスタエッジノードは、メモリと、前記メモリに結合されたマスタコントローラとを含む。特に、前記マスタコントローラは、複数のエッジノードからの第1のエッジノードでのアプリケーション要件及び少なくとも1つの重要業績評価指標(KPI)をチェックするステップと、前記アプリケーション要件及び少なくとも1つのKPIに基づいて、前記インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、を実行するように構成される。
本発明の実施形態では、前記マスタコントローラは、1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の1つ以上のリソースからの前記第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、を実行するように構成される。
本発明の実施形態では、前記マスタコントローラは、前記インテリジェントエッジクラスタモデルの前記マスタコントローラ(310)に関連付けられた1つ以上のリソースに対応する前記第1のリソースを前記第1のエッジノードに割り当てるステップ、及び/又は、前記インテリジェントエッジクラスタモデル内の第2のエッジノードに対応する前記第1のリソースを割り当てるステップであって、前記第2のエッジノードが、前記第1のエッジノードで実行されるアプリケーションに必要なリソースよりも多くのリソースの数を含むステップ、及び/又は、前記第1のエッジノードに所定の待ち時間の要件がある場合、最も近いエッジノードから前記第1のエッジノードに前記第1のリソースを割り当てるステップ、を実行する。
本発明の実施形態では、前記所定の待ち時間の要件は、待ち時間の重要業績評価指標の少なくとも1つを含み、前記最も近いノードは、前記第1のエッジノードでの前記アプリケーション要件と前記最も近いエッジノードの1つ以上のKPIに基づいて識別される。
本発明の実施形態では、前記マスタコントローラは、前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の1つ以上のリソースからの第2のリソースを前記第1のエッジノードに動的に割り当て、前記第1のリソースは、第2のエッジノードに関連付けられた1つ以上のリソースに対応し、前記第2のリソースは、第3のエッジノードに関連付けられた1つ以上のリソースに対応する。
本発明の実施形態では、マスタコントローラは、前記第1のリソースを使用して、前記複数のエッジノードからの前記第1のエッジノードでの前記アプリケーション要件及び少なくとも1つの重要業績評価指標が満たさないかどうかを判断するステップと、前記判断に基づいて要求を送信して1つ以上のリソースをサービスオーケストレーションエンティティに割り当てるステップと、前記要求に基づいて前記サービスオーケストレーションエンティティからの1つ以上のリソースを動的に割り当てるステップと、を実行する。特に、前記要求は、前記アプリケーション要件及び前記重要業績評価指標を備える。更に、少なくとも1つの重要業績評価指標は、パワー、空間、時間、及び複数のエッジノードのそれぞれに関連付けられたネットワークリンクから選択される。
本発明の実施形態では、前記マスタコントローラは、前記サービスオーケストレーションエンティティによって、第2のエッジクラスタネットワークにおいて前記第1のエッジノードを仮想的に再割り当てるステップと、第2のエッジクラスタネットワークを識別して前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標を満たすステップと、前記サービスオーケストレーションエンティティを介して、前記第2のエッジクラスタネットワークから1つ以上のリソースを動的に割り当てるステップと、を実行することによって、前記サービスオーケストレーションエンティティから割り当てられた1つ以上のリソースを割り当てる。
前記アプリケーション要件は、帯域幅、待ち時間及びスケーラビリティの1つ以上を含む。
本発明の前述の目的は、インテリジェントエッジクラスタモデルを展開する方法を採用することによって達成される。
本明細書のこれら及びその他の実施形態は、以下の説明及び添付の図面と共に検討されると、より良く理解されるであろう。しかしながら、以下の説明は、好適な実施形態及びその多数の具体的詳細について示しているが、制限的ではなく例示として与えられている点を理解すべきである。本明細書の実施形態の範囲内で、その精神を逸脱することなく、多くの変更及び修正を施すことも可能であり、本明細書の実施形態は、そのような全ての修正を含む。
本発明の上記特徴を詳細に理解するように、上で簡単に要約された本発明のより具体的な記載は、いくつかが添付の図面に示されている実施形態を参照することによって説明することができる。しかしながら、添付の図面は、本発明の典型的な実施形態のみを説明しているため、その範囲を限定すると見なされるべきではない。これは、本発明が他の同等に有効な実施形態を認めることができるからである。本明細書の実施形態は、以下の図面を参照して以下の説明からより良く理解されるであろう。
本発明の実施形態に係るマルチサービスエッジクラスタ接続アーキテクチャを示すブロック図である。
本発明の実施形態に係るあるクラスタから別のクラスタへのノード再割り当てフレームワークを示すブロック図である。
本発明の実施形態に係るクラスタマスタエッジノードを示すブロック図である。
本発明の実施形態に係る、インテリジェントエッジクラスタモデルを展開する方法を示すフローチャートである。
本発明の実施形態に係る、クラスタマスタエッジノードにより動的エッジノード参加及びエッジクラスタインフラストラクチャ割り当てを管理し制御する方法を示すフローチャートである。
本発明の実施形態に係る、複数のエッジノードからエッジノードを動的に選択する方法を示すフローチャートである。
本発明の実施形態に係る、新しいエッジノードをクラスタネットワークに結合する方法を示すフローチャートである。
本発明の実施形態に係る、マルチサービスエッジクラスタ接続アーキテクチャにおいてリソース要件を処理する方法を示すフローチャートである。
方法及びシステムは、添付の図面に示され、その全体を通して、同様の参照符号が様々な図の対応する部分を示す。
なお、添付の図面は、本開示の例示的な実施形態を例示することを意図している。この図面は、本開示の範囲を限定することを意図するものではない。また、添付の図面は、必ずしも一定の縮尺で描かれているわけではない。
本発明の原理及びそれらの利点は、図1~図8を参照することによって最も良く理解される。以下の詳細な説明では、本開示の図示的又は例示的な実施形態としての本発明の実施形態の完全な理解を提供するために、多数の特定の詳細は、示され、本開示が実施され得る特定の実施形態は、当業者が開示された実施形態を実施することを可能にするのに十分詳細に説明される。しかしながら、本発明の実施形態がこれらの特定の詳細の有無にかかわらず実施され得ることは当業者には明らかである。その他、本発明の実施形態の態様を不必要に不明瞭にしないように、公知の方法、手順、構成要素については、詳細な説明を省略した。
したがって、以下の詳細な説明は、限定的な意味で解釈されるべきではなく、本開示の範囲は、添付された特許請求の範囲及びその同等物によって定義される。「備える」、「含む」、「有する」などの用語は同義語であり、オープンエンド形式で包括的に使用され、追加の要素、機能、行為、動作などを除外しない。また、「又は」という用語は、(排他的ではなく)包括的な意味で使用され、その結果、例えば、複数の要素のリストを連結するために使用されたときに、「又は」という用語は、リスト内の複数の要素のうち1つ、いくつか、又は全てを意味する。本明細書内に言及された「一実施形態」、「実施形態」、「いくつかの実施形態」、又は「1つ以上の実施形態」は、実施形態に関連して説明される特定の特徴、構造、又は特性が、本開示の少なくとも1つの実施形態に含まれることを示すことを意図している。
本明細書では、様々な要素を説明するために、第1、第2などの用語が使用されてもよいが、これらの要素は、これらの用語によって限定されるべきではない。これらの用語は、一般的に、ある要素を別の要素と区別するためにのみ使用され、順序、ランク付け、数量、又は重要性を意味するものではなく、ある要素を別の要素と区別するために使用される。更に、本明細書では、「a」及び「an」という用語は、数量の制限を意味するものではなく、言及される項目の少なくとも1つが存在することを意味する。
本明細書に使用された、「できる」、「てもよい」、「し得る」、又は「例えば」などの条件付きの言葉は、特に明記されない限り、又は使用される文脈の中で他の解釈がなされない限り、いくつかの特徴、要素、及び/又はステップを、いくつかの実施形態が含むがそれ以外の実施形態が含まないことを意味することを一般に意図している。
「X、Y、及び/又はZの少なくとも1つ」という語句などの選言的言語は、特に指定がない限り、項目、用語などがX、Y、又はZのいずれか、又はそれら(例えば、X、Y、及び/又はZ)の任意の組み合わせであってもよいことを示すために一般に用いられる文脈で理解される。このように、このような選言的言語は、いくつかの実施形態が、Xの少なくとも1つ、Yの少なくとも1つ、又はZの少なくとも1つの存在を要求することを示唆することを一般に意図するわけではなく、そうすべきでもない。
図1は、本発明の実施形態に係るマルチサービスエッジクラスタ接続アーキテクチャを示すブロック図である。特に、マルチサービスエッジクラスタ接続アーキテクチャ(1000)は、複数のエッジノード(102a~102e)及びクラスタマスタエッジノード(104)を含む。クラスタマスタエッジノード(104)は、マスタコントローラ(310)を含む。特に、クラスタマスタエッジノード(104)は、複数のエッジノード(102a~102e)のいずれかから選択又は決定することができる。更に、クラスタマスタエッジノード(104)は、ユーザが好む空間、パワー、及び周囲温度の組み合わせを有するエッジノード(102a~102e)のうちの1つであってもよい。
ユーザは、ユーザの好み又は計算要件に基づいて、複数のエッジノード(102a~102e)のいずれかからクラスタマスタエッジノード(104)としてエッジノードを選択することができる。更に、クラスタマスタエッジノード(104)は、クラスタマスタエッジノード(104)に複数の制御機能を提供することができるマスタコントローラ(310)を備えることができる。
例示的な例では、複数のエッジノード(102a~102e)のいずれかは、エッジノードがクラスタマスタエッジノード(104)として選択されたときに制御機能を提供するためのマスタコントローラを有してもよい。
別の例では、クラスタマスタエッジノード(104)は、複数のエッジノード(102a~102e)からランダムに選択されてもよい。クラスタマスタエッジノード(104)として1つのエッジノードを選択すると、残りの全てのエッジノードは、ホストノードになることができる。
更に別の例では、クラスタマスタエッジノード(104)及びマスタコントローラ(310)を交互に参照してもよい。
特に、エッジノード(102a~102e)は、エッジコンピューティングを実行できる任意のエッジデバイス、エッジサーバ、又はエッジゲートウェイを参照する一般的な方法である。エッジノード(102a~102e)は、エッジコンピューティングユニットとも呼ばれる。更に、エッジノード(102a~102c)は、互いに通信して、エッジクラスタ(106a)を形成する。エッジクラスタ(106a)は、リング状に配置されている。別の例では、エッジクラスタ(106a)は、ハブ配置にある。
別の例では、エッジクラスタ(106a)は、ユーザ要件に基づいて任意の形状を形成してもよい。
エッジノード(102a、102c、102d及び102e)は、互いに通信して、別のエッジクラスタ(106b)を形成する。エッジノード(102a~102e)間の通信は、有線ネットワーク及び/又は無線ネットワークに基づいて確立される。特に、クラスタマスタエッジノード(104)は、エッジノード(102a及び102d)と通信する。更に、クラスタマスタエッジノード(104)は、クラスタネットワーク内のリソースのインテリジェントで動的な割り当てを支援し、エッジノード(102a~102e)のクラスタ及びクラスタマスタエッジノード(104)のクラスタ内のリソースの柔軟な利用を処理するマルチサービスエッジクラスタ接続アーキテクチャ(1000)の頭脳として機能する。
一実施形態では、クラスタマスタエッジノード(104)は、十分な空間、パワー及び環境条件を有してアクセスインフラストラクチャをホストし、かつ他の自動化及びオーケストレーション機能を装備できる顧客の購買時点(POP)、セントラルオフィス又は任意の集約サイトの場所にある可能性がある。エッジノード(102a~102e)は、クラスタ形成時に含まれてもよく、実行時にクラスタに参加してもよい。この参加は、動的に行われる。ネットワーククラスタに新しいエッジノードを追加すると、エッジノードのKPI、ユーザの好み又は計算要件に基づいて、新しく追加されたエッジノードがクラスタマスタエッジノード(104)としてより適するかどうかをチェックしてもよい。新しく追加されたエッジノードは、既存のクラスタマスタエッジノード(104)よりも適していることが発見された場合、クラスタマスタエッジノードとして動的に選択されてもよい。
一実施形態では、マルチサービスエッジクラスタ接続アーキテクチャ(1000)では、各エッジノード(エッジノード(102a~102e)及びマスタエッジノード(104)の近く)は、一緒になってエッジクラスタ内の仮想リソースバンクを形成する特定の物理的リソースに関連付けられる。特に、クラスタマスタエッジノード(104)は、マルチサービスエッジクラスタ接続アーキテクチャ(1000)の仮想リソースバンクを利用して、エッジノード(102a~102e)からのリソース(例えば、物理的リソース、機能、アプリケーション、仮想マシン)がアプリケーションに動的に割り当てられることに基づいて、アプリケーション要件(帯域幅、待ち時間、スケーラビリティ)及びエッジノードでのリアルタイムKPI(例えば、エッジノードの正常性、物理インフラストラクチャ-パワー、空間及び温度、ネットワークリンク)をチェックする。
機能は、例えば、ネットワーク機能、サービス仮想化機能、リソース管理機能、ノード管理機能であってもよいが、これらに限定されない。アプリケーションは、例えば、仮想現実(VR)アプリケーション、エンタープライズアプリケーション、コンテンツ配信アプリケーション、ゲームアプリケーション及びネットワーキングアプリケーションなどであってもよいが、これらに限定されない。
或いは、KPIは、エッジノード(102a~102e)に関連付けられた1つ以上の帯域幅、エッジノード(102a~102e)に関連付けられた待ち時間、スケーラビリティ、エッジノード(102a~102e)のコンピューティングリソース及びデータパス(DP)性能、エッジノード(102a~102e)に関連付けられたサービス品質(QoS)、エッジノード(102a~102e)に関連付けられたユーザエクスペリエンス品質、エッジノード(102a~102e)に関連付けられた最適なリソース利用、エッジノード(102a~102e)に関連付けられたネットワーク特性の低下、アンダーレイ又はオーバーレイネットワークサービス、ビジネス要求、並びに全体的なSLA要件に基づいて決定される。コンピューティングリソース及びDP性能は、例えば、カーネルデータパス(DP)、ユーザ空間DP、高速データパス、単一ルート入出力仮想化及びハードウェアオフロードDPであってもよいが、これらに限定されない。
本発明の実施形態では、エッジノードでのアプリケーション要件は、アプリケーションに関連付けられたスケーラビリティ、待ち時間及び帯域幅などのアプリケーション固有の要件を含んでもよい。アプリケーション要件は、アプリケーションを容易にする1つ以上のリソースを提供することによってユーザにサービスを提供するエッジノードでのユーザアプリケーションに対応してもよい。アプリケーション要件は、ユーザエクスペリエンス品質、サービス品質、ユーザが要求するサービスレベル合意(SLA)などのアプリケーション固有の重要業績評価指標に対応してもよい。
エッジクラスタ(106a~106b)の動作及び機能は、クラスタマスタエッジノード(104)によって監視されて制御される。エッジクラスタ(106a~106b)は、サービスプロバイダーの要件又は第三者要件に基づいたリソースプールとストレージポリシーを含む。いくつかのシナリオでは、エッジクラスタ(106a~106b)は、サービスプロバイダーの管理者によって作成され、マルチサービスエッジクラスタ接続アーキテクチャ(1000)で構成される。クラスタマスタエッジノード(104)は、エッジクラスタ(106a~106b)間で組織のエッジサービスのバランスをとることができる。エッジクラスタ(106a~106b)は、サービスプロバイダーによって開始された特定のストレージポリシーを使用することができる。
クラスタマスタエッジノード(104)は、アプリケーション要件及びリアルタイムエッジノードでの重要業績評価指標(KPI)に基づいて、ローカルエッジクラスタ内のユーザアプリケーションにエッジノードリソースを動的に共有し割り当てるために使用されてもよい。
或いは、クラスタマスタエッジノード(104)は、UEアプリケーションのアプリケーション要件又はKPIをチェックする。クラスタ内の各エッジノードのKPIは、エッジノードの正常性に関連付けられる情報(パワー、空間、温度の要件など)と物理インフラストラクチャの状態を含む。クラスタマスタエッジノード(104)によるリソースの割り当て及び共有は、アプリケーション要件及びエッジノードの詳細に基づいて決定される。
更に、クラスタマスタエッジノード(104)は、エッジノード(102a~102e)を動的に選択するように構成される。エッジノード(102a~102e)の参加は、全体的な最小リソース要件に基づいて決定される。各エッジノード(102a~102e)の全体的な最小リソース要件は、クラスタネットワーク(図示せず)又はクラスタマスタエッジノード(104)に記憶される。クラスタネットワークは、自己適応型エッジクラスタベースのネットワークであってもよい。
特に、各エッジノード(102a~102e)の全体的な最小リソース要件は、様々な方法(例えば、過去のインフラストラクチャ使用傾向など)を使用することによって得られる。過去のインフラストラクチャ使用傾向は、機械学習モデルによって監視しトレーニングされている。機械学習モデルは、例えば、線形回帰モデル、ロジスティック回帰モデル、決定木モデル及びランダムフォレストモデルであってもよいが、これらに限定されない。クラスタネットワークは、エッジクラスタ(106a及び106b)内のエッジノード(102a~102e)の最適な数を維持しなければならない。
エッジノードの最適な数は、主要なパラメータに基づいて決定される。主要なパラメータは、エッジクラスタネットワークにおける1人以上のユーザによる帯域幅、スケーラビリティ及び待ち時間の要件を含んでもよい。クラスタネットワーク内のエッジノード(102a~102e)の最適な数は、電子デバイス/ユーザ機器(図示せず)で実行されるアプリケーション(図示せず)から受信した任意の要求の高速応答を提供する。電子デバイスは、例えば、スマートフォン、仮想現実デバイス、没入型システム、スマートウォッチ、携帯情報端末(PDA)、タブレットコンピュータ、ラップトップコンピュータ及びモノのインターネット(IoT)であってもよいが、これらに限定されない。
更に、最小クラスタインフラストラクチャの定義された制限(つまり、閾値)の後に利用可能な追加のインフラストラクチャがある場合、エッジノード(102a~102e)をクラスタネットワークに追加してもよく、リソースが不足している場合、クラスタ境界エッジノードを他のクラスタに転送してもよい(確かに、エッジノードの転送は、待ち時間に敏感でないアプリケーションなど、ユースケースに基づいて行われる)。最小クラスタインフラストラクチャの閾値は、サービスプロバイダーによって定義される。
また、クラスタネットワークへのエッジノード(102a~102e)の参加は、動的であり、実行時にも発生してもよい。新しいエッジノードがインフラストラクチャにインストールされる場合、新しいエッジノードは、クラスタマスタエッジノード(104)に要求を送信する。クラスタマスタエッジノード(104)が要求を受信する場合、(図7に示されるように)受信に基づいて新しいエッジノードをクラスタに追加する。
例えば、新しいエッジノードがインフラストラクチャにインストールされる場合、新しいエッジノードは、第1のクラスタマスタエッジノードと第2のクラスタマスタエッジノードに要求を送信する。第1のクラスタマスタエッジノードが要求を受信する場合、新しいエッジノードは、第1のクラスタマスタエッジノードの受信に基づいてクラスタに参加する。例えば、新しいエッジノードがインストールされる場合、新しいエッジノードは、近くのマスタエッジクラスタノードに要求を送信する。任意のエッジノードが参加するたびに、そのエッジノードの近くにあるクラスタマスタノードのブロードキャストアドレスを取得する。エッジノードは、最初に応答したマスタクラスタノードのクラスタに参加する。
或いは、エッジクラスタベースのネットワークは、クラスタマスタエッジノード(104)を使用して、仮想化インフラストラクチャの適切なセットをワークロードに割り当てるエッジノード(102a~102e)のリソースの動的共有とインテリジェントな最適化を実行する。ワークロードは、クラスタマスタエッジノード(104)を使用して、所定の時間内にアクティブなエッジノード(102a~102e)を決定することによって制御される。所定の時間は、サービスプロバイダーによって設定される。
或いは、クラスタマスタエッジノード(104)は、エッジノードのKPIの計算及び比較を実行するインテリジェントノードである。クラスタマスタエッジノード(104)は、UEアプリケーション要件(そのKPIに基づく)を分析し、QoSがUEで維持されるようにエッジノードのリソースを動的に割り当て、同時に、全てのエッジノードのリソースが最適な方法で利用される。
エッジノード(102a~102e)の1つの記憶容量が不足している場合、それぞれのエッジノード(102a~102e)は、クラスタマスタエッジノード(104)に要求を送信して一時的な記憶要件を満たすことができる。クラスタマスタエッジノード(104)は、クラスタ記憶バンク(図示せず)をチェックし、要求されたエッジノード(102a~102e)に最適な記憶インフラストラクチャを割り当てる。クラスタ記憶バンクは、リソースを記憶する。
インテリジェントコンテンツデータネットワーキングでは、エッジノード(102a~102e)は、キャッシングセグメントを維持して、要求の高いコンテンツを高速応答時間で実現し、これにより、地域記憶サーバ及び/又はコアDC記憶サーバからのコンテンツを毎回要求しないため、バックホール帯域幅を節約する。いくつかの特定のエッジノード(102a~102e)でユーザが頻繁に使用するあるコンテンツが発生した場合に備えて、エッジノード(102a~102e)は、そのコンテンツをその位置にキャッシュする。しかしながら、記憶が利用できない場合、エッジノード(102a~102e)は、クラスタマスタエッジノード(104)から記憶を要求でき、これにより、クラスタマスタエッジノード(104)は、可能な限り最も近いエッジ座標から必要な記憶インフラストラクチャを提供する。
本発明の実施形態では、マルチサービスエッジクラスタモデルは、自己適応型エッジクラスタベースのネットワーク内の動的インフラストラクチャ管理のためのものである。また、マルチサービスエッジクラスタモデルは、エッジノード(102a~102e)とクラスタマスタエッジノード(104)に展開される。更に、この方法を使用して、クラスタマスタエッジノード(104)によるエッジノードクラスタ参加とエッジクラスタのインフラストラクチャ割り当てに動的フレームワークを提供することができる。クラスタマスタエッジノード(104)を使用して、複数のパラメータに基づいて動的なエッジノードクラスタ参加とエッジクラスタのインフラストラクチャ割り当てを管理し制御することができる。複数のパラメータは、例えば、エッジノード(102a~102e)のパワー使用量、エッジノード(102a~102e)の空間、エッジノード(102a~102e)の周囲環境条件、帯域幅、待ち時間、スケーラビリティ、QoS、ユーザエクスペリエンス品質、最適なリソース利用、ネットワーク特性の低下、アンダーレイネットワークサービス、オーバーレイネットワークサービス、ビジネス要求、及びサービスレベル合意(SLA)要件であってもよいが、これらに限定されない。
エッジノード(102a)の記憶容量が不足している場合、エッジノード(102a)がクラスタマスタエッジノード(104)に要求を送信して、一時的な記憶要件を満たすことができるというシナリオを考える。要求に基づいて、クラスタマスタエッジノード(104)は、クラスタ記憶仮想バンクをチェックし、要求されたエッジノード(102a)に最適な記憶インフラストラクチャを割り当てる。一例では、インテリジェントコンテンツデータネットワーキング(iCaching)では、エッジノード(102a)は、キャッシングセグメントを維持して、要求の高いコンテンツを高速応答時間で実現し、これにより、地域/コアDC記憶サーバからのコンテンツを毎回要求しないため、バックホール帯域幅を節約する。ここで、ある特定のエッジノードでユーザが頻繁に使用するコンテンツが発生した場合、エッジノードは、そのコンテンツをその位置にキャッシュする。しかしながら、記憶が利用できない場合、特定のエッジノードは、クラスタマスタエッジノード(104)から記憶を要求してもよく、これにより、クラスタマスタエッジノード(104)は、可能な限り最も近いエッジ座標から必要な記憶インフラストラクチャを提供する。ここで、マスタノード(104)は、定義されたKPIに基づいてクラスタエッジのテナンシを決定する。
更に、1つのエッジノードは、予期しない発生イベントに起因し得る、特定のエッジノードで発生する動的なユーザ要件に基づいて複数のクラスタのテナントになることができる。クラスタノードの要求に従って、マスタエッジノードは、クラスタサイトから記憶を提供して、一時的及び即時の要件を満たすことができる。
クラスタバンクの容量が制限され、アプリケーションKPIを満たさないか、又は動的KPI指標の要件を満たさないなどの理由で、任意のクラスタネットワークがエッジノードの拡張要求を満たさない場合、これらのシナリオでは、特定のエッジノードの拡張要求/要件を満たすことができるクラスタを提案するために、要求をグローバルサービスオーケストレータ(GSO)(図2で説明)に送信する。
この場合で、GSO(210)は、他の近くのクラスタからの要件をチェックでき、可用性に基づいて、他の近くのクラスタエッジノードバンクから要求されたクラスタエッジノードに一時的なテナンシを提供する。
別の例では、本発明は、エッジクラスタ内のエッジノードの参加のために動的フレームワークの作成を提供することができる。1つ以上のエッジノードをエッジクラスタに追加するか又はエッジクラスタから取り外すことができ、本発明は、エッジクラスタ内の全てのエッジノードの動的な相互作用を提供することができる。アプリケーション要件とエッジノードの重要業績評価指標に基づいて、各エッジノードとクラスタマスタエッジノードに対応する1つ以上のリソースをクラスタ内のエッジノード間で共有してもよい。別の例では、本発明は、本質的に自己適応型である、エッジクラスタ内の動的リソース管理のためのモデルを提供することができる。つまり、エッジクラスタ内のリソース管理は、エッジクラスタの結合されたリソース、アプリケーション要件及びエッジノードの正常性(又はKPI)に基づいて動的に制御される。
図2は、本発明の実施形態に係るあるクラスタから別のクラスタへのノード再割り当てフレームワークを示すブロック図である。特に、ノード再割り当てフレームワーク(2000)は、複数のクラスタネットワーク(220a~220c)及びサービスオーケストレーションエンティティ(例えば、グローバルサービスオーケストレータ(GSO))(210)を含む。複数のクラスタネットワーク(220a~220c)からの各クラスタネットワークは、それぞれ、クラスタマスタエッジノード(104a~104c)を含む。更に、複数のクラスタネットワーク(220a~220c)からの各クラスタネットワークは、GSO(210)と通信する。
あるシナリオでは、クラスタバンクの容量が制限され、アプリケーションKPIを満たさないか、又は動的KPI指標の要件を満たさないなどの理由で、任意のクラスタネットワークがエッジノード(102a~102e)の拡張要求を満たさない場合、これらのシナリオでは、特定のエッジノードの拡張要件を満たすことができるクラスタを提案するために、要求をグローバルサービスオーケストレータ(GSO)に送信する。
GSO(210)は、他の近くのクラスタからの要件をチェックでき、可用性に基づいて、他の近くのクラスタエッジノードバンクから要求されたクラスタエッジノードに一時的なテナンシを提供する。クラスタマスタノードが主要なアプリケーションKPI及びその他のKPIを満たさない場合、マスタノードは、GSOに、要求を満たすことができる別の近くのクラスタにエッジノードを再割り当てするように要求する。この要求は、要求されたエッジノードが他のクラスタエッジノードに依存しない場合、つまりテナントでないか又はテナンシを提供しない場合、クラスタマスタノードのみによって生成される。
図3は、本発明の実施形態に係るクラスタマスタエッジノードを示すブロック図である。特に、クラスタマスタエッジノード(104)は、マスタコントローラ(310)、通信機(320)及びメモリ(330)を含む。マスタコントローラ(310)は、通信機(320)及びメモリ(330)に結合される。マスタコントローラ(310)は、複数のエッジノード(102a~102e)からの第1のエッジノード(102a)でのアプリケーション要件及び少なくとも1つの重要業績評価指標をチェックするように構成される。
複数のエッジノード(102a~102e)からの第1のエッジノード(102a)でのアプリケーション要件及び少なくとも1つの重要業績評価指標をチェックした後、マスタコントローラ(310)は、エッジクラスタ内の第2のエッジノード(102b)に対応する第1のリソースを第1のエッジノードに割り当てる。特に、第2のエッジノード(102b)は、第1のエッジノード(102a)で実行されるアプリケーションに必要なリソースよりも多くのリソースの数を備える。
或いは、複数のエッジノード(102a~102e)からの第1のエッジノード(102a)でのアプリケーション要件及び少なくとも1つの重要業績評価指標をチェックした後、第1のエッジノード(102a)に所定の待ち時間の要件がある場合、マスタコントローラ(310)は、最も近いエッジノード(すなわち、図1に示す第2のエッジノード(102b))から第1のエッジノード(102a)に第1のリソースを割り当てる。所定の待ち時間の要件は、待ち時間の重要業績評価指標又は待ち時間関連サービスレベル合意(SLA)の少なくとも1つを含んでもよい。所定の待ち時間の要件は、エッジノードでの各アプリケーションに対して、アプリケーションがユーザのエクスペリエンス品質又はサービス品質を損なうことなく受け入れることができる最小待ち時間SLAとして定義されてもよい。最も近いノード(102b)は、第1のエッジノード(102a)でのアプリケーション要件及び最も近いエッジノード(102b)の1つ以上のKPIに基づいて、マスタコントローラ(310)によって識別される。
或いは、複数のエッジノード(102a~102e)からの第1のエッジノード(102a)でのアプリケーション要件及び1つ以上の重要業績評価指標をチェックした後、マスタコントローラ(310)は、第1のリソースを第1のエッジノード(102)に割り当てる。特に、第1のリソースは、インテリジェントエッジクラスタモデルのマスタコントローラ(310)に関連付けられた1つ以上のリソースに対応する。
本発明の実施形態では、マスタコントローラ(310)は、1つ以上のリソースを第1のエッジノード(102a)に割り当てるために、インテリジェントエッジクラスタモデル内の別のエッジノード(102b~102e)に1つ以上のコマンドを指示するように構成される。
本発明の実施形態では、マスタコントローラ(310)は、インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第2のリソースを第1のエッジノード(102a)に動的に割り当てるように構成され、第1のリソースは、第2のエッジノード(102b)に関連付けられた1つ以上のリソースに対応し、第2のリソースは、第3のエッジノード(102c)に関連付けられた1つ以上のリソースに対応する。
本発明の実施形態では、マスタコントローラ(310)は、メモリ(330)に記憶された命令を実行し、様々なプロセスを実行するように構成される。特に、通信機(320)は、1つ以上のネットワークを介して内部ハードウェア構成要素間及び外部デバイスに内部的に通信するように構成される。更に、メモリ(330)は、プロセッサ(110)によって実行される命令を記憶する。複数のモジュールの少なくとも1つは、AI(人工知能)モデルを介して実装されてもよい。AIに関連する機能は、不揮発性メモリ、揮発性メモリ及びプロセッサを介して実行されてもよい。
本発明の実施形態では、マスタコントローラ(310)は、1つ以上のプロセッサを含んでもよい。1つ以上のプロセッサは、中央処理装置(CPU)、アプリケーションプロセッサ(AP)などの汎用プロセッサ、グラフィック処理ユニット(GPU)、ビジュアル処理ユニット(VPU)などのグラフィックス専用処理ユニット、及び/又はニューラル処理ユニット(NPU)などのAI専用プロセッサであってもよい。更に、1つ以上のプロセッサは、不揮発性メモリ及び揮発性メモリに記憶された所定の動作ルール又は人工知能(AI)モデルに従って、入力データの処理を制御する。所定の動作ルール又は人工知能モデルは、トレーニング又は学習を通じて提供される。
学習を通じて提供されるとは、複数の学習データに学習アルゴリズムを適用することにより、所望の特性を有する所定の動作ルール又はAIモデルが作成されることを意味する。学習は、デバイス自体で実行されてもよく、及び/又は別のサーバ/システムを介して実装されてもよい。
本発明の実施形態では、AIモデルは、複数のニューラルネットワーク層からなってもよい。各層は、複数の重み値を有し、前の層の計算と複数の重みの操作を通じて層動作を実行する。ニューラルネットワークの例は、畳み込みニューラルネットワーク(CNN)、ディープニューラルネットワーク(DNN)、回帰型ニューラルネットワーク(RNN)、制限ボルツマンマシン(RBM)、ディープビリーフネットワーク(DBN)、双方向反復ディープニューラルネットワーク(BRDNN)、敵対的生成ネットワーク(GAN)及びディープQネットワークを含むが、これらに限定されない。
本発明の実施形態では、学習アルゴリズムは、複数の学習データを使用して所定のターゲットデバイス(例えば、ロボット)をトレーニングして、ターゲットデバイスに決定又は予測を行わせるか、又は許可するか、又は制御する方法である。学習アルゴリズムの例は、教師あり学習、教師なし学習、半教師あり学習、強化学習を含むが、これらに限定されない。
図3は、クラスタマスタエッジノード(104)の様々なハードウェア構成要素を示すが、他の実施形態はそれらに限定されないことを理解されたい。或いは、クラスタマスタエッジノード(104)は、より少ない又はより多い数の構成要素を含んでもよい。更に、構成要素のラベル又は名前は、例示の目的でのみ使用され、本発明の範囲を限定するものではない。1つ以上の構成要素を一緒に組み合わせて、クラスタマスタエッジノード(104)に同じ又は実質的に同様の機能を実行することができる。
図4は、本発明の実施形態に係る、インテリジェントエッジクラスタモデルを展開する方法を示すフローチャートである。ステップ(402~408)は、クラスタマスタエッジノード(104)によって実行される。
方法400は、ステップ402から開始する。402では、複数のエッジノード(102a~102e)からの第1のエッジノードでのアプリケーション要件及び1つ以上の重要業績評価指標をチェックする。
特に、この方法は、UEアプリケーションのKPI及びエッジノードのKPIに基づいて、クラスタ内の全てのエッジノードでのリソースをUEアプリケーションにインテリジェントに割り当てるために使用されてもよい。特に、UEアプリケーションと全てのエッジノードのKPIをチェックすることにより、選択したエッジノードのUEアプリケーション要件と現在の状態をチェックする。要件と利用可能なリソース(全てのエッジノードでのネットワークリソースを追加することによって作成された共有可能なリソースプール内)のデータを提供し、更にマスタエッジノードによってエッジノードリソースを割り当てる最適な方法を提供する。
更に、マスタノードでエッジノードの重要業績評価指標(KPI)をチェックし、最短距離のノード(厳密なKPIアプリケーションの場合/低待ち時間の要件の場合)又はマスタノード(高帯域幅要件の場合)からリソースをプーリングすることにより、リソースをユーザノードに適応的に割り当てる。したがって、ローカルエッジクラスタ内で最適なリソース使用量を提供し、エッジノードで基本的なハードウェアインフラストラクチャを使用できるテレコムサービスプロバイダーに柔軟性を提供する。エッジノードのKPI要件に基づいて、ローカルエッジノード(リソースが不足しない場合)又は最も近いエッジノード(低待ち時間アプリケーション/厳密なQoSの場合)又はマスタエッジノードからのリソースプール(高帯域幅アプリケーションの場合)によってリソースをアプリケーションに割り当てることによって、クラスタ内の仮想リソースバンクを使用した動的なリソース割り当てを実行する。
404では、インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第1のリソースを第1のエッジノードに動的に割り当てる。
406では、1つ以上のリソースを第1のエッジノードに割り当てるために、インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示する。1つ以上のエッジノードからのリソースをリアルタイム方式でインテリジェントに割り当てる。
408では、インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第2のリソースを第1のエッジノードに動的に割り当てる。
図5は、本発明の実施形態に係る、クラスタマスタエッジノードにより動的エッジノード参加及びエッジクラスタのインフラストラクチャ割り当てを管理し制御する方法を示すフローチャートである。特に、ステップ(502及び504)は、クラスタマスタエッジノード(104)によって実行される。
方法は、ステップ502から開始する。502では、エッジノード(102a~102e)の複数のパラメータを、リアルタイムかつ一定の時間間隔で取得する。特に、複数のパラメータは、例えば、エッジノード(102a~102e)のパワー使用量、エッジノード(102a~102e)の空間、エッジノード(102a~102e)の周囲環境条件、帯域幅、待ち時間、スケーラビリティ、QoS、ユーザエクスペリエンス品質、最適なリソース利用、ネットワーク特性の低下、アンダーレイネットワークサービス、オーバーレイネットワークサービス、ビジネス要求、及びSLA要件であってもよいが、これらに限定されない。
504では、エッジホストノードを動的選択し、関連するネットワークリソースをUEアプリケーションに割り当てることによって、動的エッジノードクラスタ参加及びエッジクラスタのインフラストラクチャ割り当てを管理し制御する。複数のパラメータは、機械学習モデルを使用して一定期間にわたって取得されてトレーニングされる。
言い換えると、クラスタマスタエッジノード(104)は、エッジノード及びそれらのリソースの参加及び割り当てが制御されることに基づいて、KPI(UEアプリケーション及びエッジノードのKPI)の比較及び分析を実行する。
図6は、本発明の実施形態に係る、複数のエッジノードからエッジノードを動的に選択する方法を示すフローチャートである。特に、ステップ(602及び604)は、クラスタマスタエッジノード(104)によって実行される。ステップ602では、最小リソース要件を決定する。ステップ604では、決定された最小リソース要件に基づいてエッジノード(102a~102e)を動的に選択する。
図7は、本発明の実施形態に係る、新しいエッジノードをクラスタネットワークに結合する方法を示すフローチャートである。方法700は、ステップ702から開始し、ステップ704及び706に進む。ステップ702では、新しいエッジノードにより要求をクラスタマスタエッジノード(104)に送信する。ステップ704では、新しいエッジノードによりクラスタマスタエッジノード(104)の受信メッセージを受信する。ステップ706では、受信メッセージに基づいて新しいエッジホストノードをクラスタに結合する。
図8は、本発明の実施形態に係る、マルチサービスエッジクラスタ接続アーキテクチャにおいてリソース要件を処理する方法を示すフローチャートである。方法800は、ステップ802から開始し、ステップ804及び806に進む。
ステップ802では、エッジノード(102a~102e)の1つ以上のエッジノードが必要なリソースを欠いていると判断する。
ステップ804では、リソース関連情報を含む要求をクラスタマスタエッジノード(104)に送信して一時的な記憶要件を満たす。
ステップ806では、リソースを要求したそれぞれのエッジノード(102a~102e)に最適な記憶インフラストラクチャ又はリソースを割り当てることによって、全てのエッジノードでのリソースをプーリングすることによって作成されたクラスタ記憶バンクからリソースを受信する。
特に、リソースバンクは、全てのエッジノード(102a~102e)でのネットワークリソースをプーリングすることによって作成される。クラスタマスタエッジノード(104)もまた、関連するリソースをリソースバンクに追加することができる。更に、1つ以上のエッジノード(102a~102e)がUEアプリケーションをサポートするリソースを欠いている場合、1つ以上のエッジノード(102a~102e)は、マスタエッジノード(104)に、リソースバンクからいくつかのリソースを割り当てるように要求する。この場合、リソースは現在のUEアプリケーションのニーズを満たすためにのみ必要とされるため、リソースの要件は一時的なものである。
エッジノード(102a~102e)は、プロセッサ(図示せず)、通信機(図示せず)及びメモリ(図示せず)を含む。プロセッサは、メモリに記憶された命令を実行し、様々なプロセスを実行するように構成される。通信機は、1つ以上のネットワークを介して内部ハードウェア構成要素間及び外部デバイスに内部的に通信するように構成される。メモリもプロセッサによって実行される命令を記憶する。
フローチャート(400、500、600、700及び800)における様々なアクション、行為、ブロック、ステップなどは、示される順序で、異なる順序で、又は同時に実行されてもよい。更に、いくつかの実施形態では、本発明の範囲から逸脱することなく、上述したアクション、行為、ブロック、ステップなどの一部は省略、追加、修正、スキップなどされてもよい。
本明細書に開示された実施形態は、少なくとも1つのハードウェアで動作し、ネットワーク管理機能を実行して各要素を制御する少なくとも1つのソフトウェアプログラムを用いて実装することができる。
本発明は、アプリケーション要件及びリアルタイムエッジノードの重要業績評価指標(KPI)に基づいて、マスタエッジノードによるエッジノードのリソースのローカルエッジクラスタ内のユーザアプリケーションへの動的共有及び割り当てなどの利点を提供し、技術機器のサポートが制限され、エッジサイトの位置に高エネルギー消費システム/機器を配備することなく、エッジサイトの位置でのビジネストリガー/要件、パワー、空間及び周囲の環境制約に基づいて、エッジインフラストラクチャ要件を効果的かつ動的に構築/実現する。更に、動的で適応性のあるエッジインフラストラクチャにエッジネットワーク経由でアクセスして、動的で挑戦的なサービス要求に対応することができる。更に、この方法は、サービスプロバイダーによる近端エッジノードへの投資あたりのビットあたりのコストを実現し、正当化する。
本技術の具体的な実施形態の前述の説明は、例示及び説明の目的で提示されている。これらは、包括的にしたり、開示された厳密な形態に本技術を限定したりすることを意図していないが、明らかに、多くの修正及び変更が、先の教示を考慮して可能である。これらの実施形態は、本技術の原理及びその実際の用途を最も良く説明するために選択及び記載され、これにより、当業者が本技術と、意図された特定の使用に適したような様々な修正が加えられた様々な実施形態を十分に利用できるようになる。均等物の様々な省略及び置換が状況に応じて便宜的に提案又は提供できると解されるが、それらは本技術の精神又は特許請求の範囲から逸脱することなく、用途又は実施の形態を包含することを意図している。
本開示のいくつかの可能な実施形態は、上で説明され、場合によっては図示されてきたが、限定ではなく、例示及び例としてのみ提示されたものとして解釈及び理解されるべきである。したがって、好ましい実施形態の広さ及び範囲は、上記例示的な実施形態のいずれによって制限されるべきではない。
本発明の他の実施形態が、本発明の明細書及び実施を考慮することにより、当業者にとって明らかであることは、当業者には明らかであろう。本発明の上述の説明により、当業者は、本発明の最良の形態であると考えられるものを実施及び使用することが可能であるが、当業者であれば、本明細書における特定の実施形態、方法、及び例の変形、組み合わせ、及び均等物の存在について理解及び認識することになろう。
したがって、本発明は、上述の実施形態、方法及び例に限定されるものではなく、本発明の範囲内の全ての実施形態及び方法に限定されるものである。本明細書及び例は、例示に過ぎないと考えられるべきであり、本発明の真の範囲は、特許請求の範囲によって示されている。
開示された方法の結果は、揮発性及び/又は不揮発性メモリ(例えば磁気ディスク記憶装置、光記憶装置、EEPROM及び/又は固体RAM)を用いるリレーショナルデータベースとフラットファイルシステムなどの任意のタイプのコンピュータデータリポジトリに記憶されてもよい。
本明細書に開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、ルーチン及びアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、又は両方の組み合わせとして実装することができる。ハードウェアとソフトウェアの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール及びステップは、概してそれらの機能性に関して説明されている。このような機能がハードウェア又はソフトウェアとして実装されるかは、システム全体に課せられる特定の用途及び設計上の制約に依存する。上述した機能は、特定の用途ごとに対して様々な方法で実現し得るが、そのような実装判断は、本開示の範囲からの逸脱を引き起こすと解釈されるべきではない。
更に、本明細書に開示された実施形態に関連して説明された様々な例示的な論理ブロック及びモジュールは、本明細書に記載された機能を実行するように設計された汎用プロセッサデバイス、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくは他のプログラマブル論理デバイス、個別のゲートもしくはトランジスタ論理、個別のハードウェア構成要素、又は、それらの任意の組み合わせなどの機械によって実装又は実行することができる。汎用プロセッサデバイスは、マイクロプロセッサであり得るが、代替例では、プロセッサデバイスは、コントローラ、マイクロコントローラ、もしくは状態マシン、それらの組み合わせ、又は同様のものであり得る。プロセッサデバイスは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサデバイスは、コンピュータ実行可能命令を処理せずに、論理演算を実行するFPGA又は他のプログラマブルデバイスを含む。プロセッサデバイスはまた、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連携する1つ以上の複数のマイクロプロセッサ、又は任意の他のそのような構成として実装することができる。本明細書では主にデジタル技術に関して説明されているが、プロセッサデバイスはまた、主にアナログ構成要素を含んでもよい。
そのように使用される用語は、適切な状況下で交換可能であり、本発明の実施形態は、他の順序で、又は上記又は図示されたものとは異なる向きで本発明に従って動作することができることを理解されたい。
1000 マルチサービスエッジクラスタ接続アーキテクチャ
102a~102e 複数のエッジノード
104 クラスタマスタエッジノード
310 マスタコントローラ
エッジクラスタ 106a~106b
2000 ノード再割り当てフレームワーク
220a~220c 複数のクラスタネットワーク
210 グローバルサービスオーケストレータ(GSO)
310 マスタコントローラ
320 通信機
330 メモリ

Claims (20)

  1. インテリジェントエッジクラスタモデルを展開する方法であって、
    マスタコントローラによって、複数のエッジノードからの第1のエッジノードでのアプリケーション要件及び少なくとも1つの重要業績評価指標(KPI)をチェックするステップと、
    前記マスタコントローラによって、前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)に基づいて、前記インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、
    前記マスタコントローラによって、1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、を含むことを特徴とする、方法。
  2. 前記インテリジェントエッジクラスタモデルは、複数のエッジノードと、対応する1つ以上のリソースを有する前記マスタコントローラとを含み、前記1つ以上のリソースが組み合わせられて前記仮想リソースプールを形成し、前記複数のエッジノード及び前記マスタコントローラのいずれかから前記1つ以上のリソースをフェッチする、請求項1に記載の方法。
  3. 前記1つ以上のリソースは、1つ以上の物理的リソース、機能、アプリケーション及び仮想マシンを含む、請求項1に記載の方法。
  4. 第1のリソースを動的に割り当てる前記ステップは、
    前記インテリジェントエッジクラスタモデルの前記マスタコントローラに関連付けられた前記1つ以上のリソースに対応する前記第1のリソースを第1のエッジノードに割り当てるステップ、及び/又は、
    前記インテリジェントエッジクラスタモデル内の第2のエッジノードに対応する前記第1のリソースを割り当てるステップであって、前記第2のエッジノードが、前記第1のエッジノードで実行されるアプリケーションに必要なリソースよりも多くのリソースの数を含むステップ、及び/又は、
    前記第1のエッジノードに所定の待ち時間の要件がある場合、最も近いエッジノードから前記第1のエッジノードに前記第1のリソースを割り当てるステップ、を更に備える、請求項1に記載の方法。
  5. 前記所定の待ち時間の要件は、待ち時間の重要業績評価指標(KPI)の少なくとも1つを含み、前記最も近いノードは、前記第1のエッジノードでの前記アプリケーション要件と前記最も近いエッジノードの1つ以上の重要業績評価指標(KPI)に基づいて、前記マスタコントローラによって識別される、請求項4に記載の方法。
  6. 前記マスタコントローラによって、前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の前記1つ以上のリソースからの第2のリソースを前記第1のエッジノードに動的に割り当てるステップを更に備え、
    前記第1のリソースは、第2のエッジノードに関連付けられた前記1つ以上のリソースに対応し、前記第2のリソースは、第3のエッジノードに関連付けられた前記1つ以上のリソースに対応する、請求項1に記載の方法。
  7. 前記マスタコントローラによって、前記第1のリソースを使用して、前記複数のエッジノードからの前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)が満たさないかどうかを判断するステップと、
    前記マスタコントローラによって、前記判断に基づいて要求を送信して1つ以上のリソースをサービスオーケストレーションエンティティに割り当てるステップと、
    前記マスタコントローラによって、前記要求に基づいて前記1つ以上のリソースを前記サービスオーケストレーションエンティティに動的に割り当てるステップと、を更に備える、請求項1に記載の方法。
  8. 前記要求は、前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)を備える、請求項7に記載の方法。
  9. 前記少なくとも1つの重要業績評価指標(KPI)は、パワー、空間、時間、及び複数のエッジノードのそれぞれに関連付けられたネットワークリンクから選択される、請求項8に記載の方法。
  10. 前記1つ以上リソースは、
    前記サービスオーケストレーションエンティティによって、第2のクラスタネットワークにおいて前記第1のエッジノードを仮想的に再割り当てるステップと、
    第2のエッジクラスタネットワークを識別して前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)を満たすステップと、
    前記サービスオーケストレーションエンティティを介して、別のインテリジェントエッジクラスタモデルからの前記1つ以上のリソースを動的に割り当てるステップと、を実行することによって、前記マスタコントローラによって前記サービスオーケストレーションエンティティに動的に割り当てられる、請求項7に記載の方法。
  11. インテリジェントエッジクラスタモデルを展開するクラスタマスタエッジノードであって、
    メモリと、
    前記メモリと結合され、
    複数のエッジノードからの第1のエッジノードでのアプリケーション要件及び少なくとも1つの重要業績評価指標(KPI)をチェックするステップと、
    前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)に基づいて、前記インテリジェントエッジクラスタモデルの仮想リソースプール内の1つ以上のリソースからの第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、を実行するように構成されたマスタコントローラと、を含み、
    前記インテリジェントエッジクラスタモデルは、複数のエッジノードと、対応する1つ以上のリソースを有するマスタコントローラとを含み、前記1つ以上のリソースが組み合わせられて前記仮想リソースプールを形成し、前記複数のエッジノード及び前記マスタコントローラのいずれかから前記1つ以上のリソースをフェッチする、クラスタマスタエッジノード。
  12. 前記マスタコントローラは、
    前記1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、
    前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の前記1つ以上のリソースからの前記第1のリソースを前記第1のエッジノードに動的に割り当てるステップと、
    1つ以上のリソースを前記第1のエッジノードに割り当てるために、前記インテリジェントエッジクラスタモデル内の別のエッジノードに1つ以上のコマンドを指示するステップと、を実行するように構成される、請求項11に記載のクラスタマスタエッジノード。
  13. 前記マスタコントローラは更に、
    前記インテリジェントエッジクラスタモデルの前記マスタコントローラに関連付けられた前記1つ以上のリソースに対応する前記第1のリソースを前記第1のエッジノードに割り当てるステップ、及び/又は、
    前記インテリジェントエッジクラスタモデル内の第2のエッジノードに対応する前記第1のリソースを割り当てるステップであって、前記第2のエッジノードが、前記第1のエッジノードで実行されるアプリケーションに必要なリソースよりも多くのリソースの数を含むステップ、及び/又は、
    前記第1のエッジノードに所定の待ち時間の要件がある場合、最も近いエッジノードから前記第1のエッジノードに前記第1のリソースを割り当てるステップ、を実行する、請求項11に記載のクラスタマスタエッジノード。
  14. 前記所定の待ち時間の要件は、待ち時間の重要業績評価指標(KPI)の少なくとも1つを含み、前記最も近いノードは、前記第1のエッジノードでの前記アプリケーション要件と前記最も近いエッジノードの1つ以上の重要業績評価指標(KPI)に基づいて、前記マスタコントローラによって識別される、請求項13に記載のクラスタマスタエッジノード。
  15. 前記マスタコントローラは、前記インテリジェントエッジクラスタモデルの前記仮想リソースプール内の前記1つ以上のリソースからの第2のリソースを前記第1のエッジノードに動的に割り当てる、請求項11に記載のクラスタマスタエッジノード。
  16. 前記第1のリソースは、第2のエッジノードに関連付けられた前記1つ以上のリソースに対応し、前記第2のリソースは、第3のエッジノードに関連付けられた前記1つ以上のリソースに対応する、請求項11に記載のクラスタマスタエッジノード。
  17. 前記マスタコントローラは、
    前記第1のリソースを使用して、前記複数のエッジノードからの前記第1のエッジノードでの前記アプリケーション要件及び少なくとも1つの重要業績評価指標(KPI)が満たさないかどうかを判断するステップと、
    前記判断に基づいて要求を送信して1つ以上のリソースをサービスオーケストレーションエンティティに割り当てるステップと、
    前記要求に基づいて前記サービスオーケストレーションエンティティからの前記1つ以上のリソースを動的に割り当てるステップと、を実行するように構成され、
    前記要求は、前記アプリケーション要件及び前記重要業績評価指標(KPI)を備える、請求項11に記載のクラスタマスタエッジノード。
  18. 前記少なくとも1つの重要業績評価指標(KPI)は、パワー、空間、時間、及び前記複数のエッジノードのそれぞれに関連付けられたネットワークリンクから選択されるパラメータから選択される、請求項11に記載のクラスタマスタエッジノード。
  19. 前記マスタコントローラは、
    前記サービスオーケストレーションエンティティによって、第2のエッジクラスタネットワークにおいて前記第1のエッジノードを仮想的に再割り当てるステップと、
    第2のエッジクラスタネットワークを識別して前記第1のエッジノードでの前記アプリケーション要件及び前記少なくとも1つの重要業績評価指標(KPI)を満たすステップと、
    前記サービスオーケストレーションエンティティを介して、前記第2のエッジクラスタネットワークから前記1つ以上のリソースを動的に割り当てるステップと、を実行することによって、前記サービスオーケストレーションエンティティから割り当てられた前記1つ以上のリソースを割り当てる、請求項11に記載のクラスタマスタエッジノード。
  20. 前記1つ以上のリソースは、1つ以上の物理的リソース、機能、アプリケーション及び仮想マシンを含む、請求項11に記載のクラスタマスタエッジノード。
JP2022052624A 2021-08-19 2022-03-28 インテリジェントエッジクラスタモデルを展開する方法及びシステム Pending JP2023048076A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN202011035654 2021-08-19
US17/485,418 2021-09-25
US17/485,418 US20230058310A1 (en) 2021-08-19 2021-09-25 Method and system for deploying intelligent edge cluster model

Publications (1)

Publication Number Publication Date
JP2023048076A true JP2023048076A (ja) 2023-04-06

Family

ID=78592378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022052624A Pending JP2023048076A (ja) 2021-08-19 2022-03-28 インテリジェントエッジクラスタモデルを展開する方法及びシステム

Country Status (3)

Country Link
US (1) US20230058310A1 (ja)
EP (1) EP4138362A1 (ja)
JP (1) JP2023048076A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057882A (ja) * 2019-09-28 2021-04-08 インテル コーポレイション エッジコンピューティング環境における適応データフロー変換

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679591B (zh) * 2013-11-28 2018-05-25 国际商业机器公司 用于在云环境中进行资源分配的方法和装置
US10034407B2 (en) * 2016-07-22 2018-07-24 Intel Corporation Storage sled for a data center
CN111095900B (zh) * 2017-09-05 2023-03-31 诺基亚通信公司 用于分布式云环境中sla管理的方法和装置
CN111327651A (zh) 2018-12-14 2020-06-23 华为技术有限公司 资源下载方法、装置、边缘节点及存储介质
US11412052B2 (en) * 2018-12-28 2022-08-09 Intel Corporation Quality of service (QoS) management in edge computing environments
US11146455B2 (en) * 2019-12-20 2021-10-12 Intel Corporation End-to-end quality of service in edge computing environments
US11824784B2 (en) * 2019-12-20 2023-11-21 Intel Corporation Automated platform resource management in edge computing environments
US20200167258A1 (en) * 2020-01-28 2020-05-28 Intel Corporation Resource allocation based on applicable service level agreement
US20210014113A1 (en) * 2020-09-25 2021-01-14 Intel Corporation Orchestration of meshes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057882A (ja) * 2019-09-28 2021-04-08 インテル コーポレイション エッジコンピューティング環境における適応データフロー変換

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
緒方祐次ほか: "エッジインテグレーション技術に関する検討", 電気学会研究会資料 通信研究会 CMN−20−001〜033, JPN6023021223, 30 January 2020 (2020-01-30), JP, pages 41 - 44, ISSN: 0005221998 *

Also Published As

Publication number Publication date
US20230058310A1 (en) 2023-02-23
EP4138362A1 (en) 2023-02-22

Similar Documents

Publication Publication Date Title
Lera et al. Availability-aware service placement policy in fog computing based on graph partitions
Movahedi et al. An efficient population-based multi-objective task scheduling approach in fog computing systems
Abohamama et al. Real-time task scheduling algorithm for IoT-based applications in the cloud–fog environment
Ramezani et al. Task-based system load balancing in cloud computing using particle swarm optimization
Memari et al. A latency-aware task scheduling algorithm for allocating virtual machines in a cost-effective and time-sensitive fog-cloud architecture
WO2022171066A1 (zh) 基于物联网设备的任务分配方法、网络训练方法及装置
JP7556654B2 (ja) 異なるコンピューティング・パラダイム内の計算されたコンピュート・グラビティに基づく計算作業負荷の分散
US11373119B1 (en) Framework for building, orchestrating and deploying large-scale machine learning applications
JP2021524100A (ja) グラフデータに基づくタスクスケジューリング方法、装置、プログラム及び機器
Wei et al. Efficient application scheduling in mobile cloud computing based on MAX–MIN ant system
Singh et al. An efficient machine learning-based resource allocation scheme for SDN-enabled fog computing environment
Hung et al. Optimal collaboration of thin–thick clients and resource allocation in cloud computing
Robles-Enciso et al. A multi-layer guided reinforcement learning-based tasks offloading in edge computing
Zhang et al. Employ AI to improve AI services: Q-learning based holistic traffic control for distributed co-inference in deep learning
Dimitrios et al. Simulation and performance evaluation of a fog system
Laskaridis et al. The future of consumer edge-ai computing
Reddy et al. An osmotic approach-based dynamic deadline-aware task offloading in edge–fog–cloud computing environment
Hajam et al. Resource management in fog computing using greedy and semi-greedy spider monkey optimization
Zare et al. Imperialist competitive based approach for efficient deployment of IoT services in fog computing
Farooq et al. A novel cooperative micro-caching algorithm based on fuzzy inference through NFV in ultra-dense IoT networks
Tran-Dang et al. Cooperation for distributed task offloading in fog computing networks
Khanh et al. Fuzzy‐Based Mobile Edge Orchestrators in Heterogeneous IoT Environments: An Online Workload Balancing Approach
JP2023048076A (ja) インテリジェントエッジクラスタモデルを展開する方法及びシステム
Tay et al. A research on resource allocation algorithms in content of edge, fog and cloud
Lone et al. Cost efficient task offloading for delay sensitive applications in fog computing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219