JP2023553086A - コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 - Google Patents

コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 Download PDF

Info

Publication number
JP2023553086A
JP2023553086A JP2023534687A JP2023534687A JP2023553086A JP 2023553086 A JP2023553086 A JP 2023553086A JP 2023534687 A JP2023534687 A JP 2023534687A JP 2023534687 A JP2023534687 A JP 2023534687A JP 2023553086 A JP2023553086 A JP 2023553086A
Authority
JP
Japan
Prior art keywords
computing power
node
srv6
service
power service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023534687A
Other languages
English (en)
Inventor
ホアン,グアンピン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Publication of JP2023553086A publication Critical patent/JP2023553086A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/34Source routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2101/00Indexing scheme associated with group H04L61/00
    • H04L2101/60Types of network addresses
    • H04L2101/604Address structures or formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2101/00Indexing scheme associated with group H04L61/00
    • H04L2101/60Types of network addresses
    • H04L2101/618Details of network addresses
    • H04L2101/659Internet protocol version 6 [IPv6] addresses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2101/00Indexing scheme associated with group H04L61/00
    • H04L2101/60Types of network addresses
    • H04L2101/668Internet protocol [IP] address subnets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/50Address allocation
    • H04L61/5069Address allocation for group communication, multicast communication or broadcast communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本開示の実施例は、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置を提供する。この方法は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSH又はIPv6ソースルーティング拡張ヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSH内にカプセル化されるか、又はIPv6ソースルーティング拡張ヘッダSRH内に直接カプセル化されるステップと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む。本開示では、NSHにおけるコンピューティングパワー機能SF又はIPv6ソースルーティング拡張ヘッダSRHにおけるコンピューティングパワー機能Segment識別子を抽象化し、そして、原子コンピューティングパワー機能の動的マルチインスタンスをサポートするために、そのマルチインスタンスとマッピング関係を確立し、これにより、SRv6転送メカニズムに基づいてコンピューティングパワーサービスのスケジューリングを実現する。【選択図】図1

Description

(関連出願の相互参照)
本開示は、2020年12月07日に出願された中国特許出願CN202011420427.9に基づくものであって、当該特許出願の優先権を主張しており、その内容の全ては参照により本願に組み込まれる。
本開示の実施例は、通信分野に関し、具体的には、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置に関する。
ビデオ、ゲーム、自動車のインターネット化などの高帯域幅で低遅延のサービスが急速に発展し、サービストラフィックに占める割合がますます高くなるにつれ、コンピューティングパワー及びストレージリソースは、従来の集中型展開から分散型展開へと進化し始める。
ネットワークを介して端末、エッジノード及びクラウドノードのコンピューティングパワーリソースを接続し、ネットワークと連携させてサービストラフィックをスケジューリングする、すなわち、サービストラフィックを現在の最適なコンピューティングパワーノードにルーティングして処理することは、業界内でますます大きな注目を浴びている。サービストラフィックは、様々な異なるサービスニーズに基づいて、対応するコンピューティングパワーノードにルーティングされ処理される。
これは、コンピューティングパワーネットワークの主流のサービスシーン及びサービスニーズとなる。
コンピューティングパワーネットワークでは、ネットワークは、コンピューティングパワー分散リソースに基づいてサービストラフィックのルーティング決定を行う必要があり、すなわち、サービスを現在の最適なコンピューティングパワーノードにルーティングして処理し、分散型コンピューティングパワーリソースのプール化の優位性を発揮することで、コンピューティングパワーリソースの利用率を高めると同時に、サービスのコンピューティングパワー及びネットワークのニーズをより正確に満たす。
現在のネットワーク、特にレイヤ2及びレイヤ3のネットワークに対して、転送処理の粒度は、パケット又はタイプフローであり、それに対して、対応する帯域幅、キュー、及びキャッシュリソースなどを配置する。コンピューティングパワーネットワークにおけるノードのコンピューティングパワーリソースは、処理の対象がもはやパケット及びフローではなく、アプリケーションであるため、現在のネットワークパケット及びフローの処理メカニズムがコンピューティングパワーネットワークに適合しなくなる結果となる。
本開示の実施例は、関連技術では現在のネットワークパケット及びフローの処理メカニズムがコンピューティングパワーネットワークに適合しなくなるという問題を少なくとも解決するために、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置を提供する。
コンピューティングパワーネットワークでは、ネットワークは、特定したアプリケーション又はサービスを、最適にマッチングするコンピューティングパワーノードと直接マッチングさせ、対応するサービストラフィックのルーティングを行う必要があり、ネットワーク及びコンピューティングパワーリソースに基づいて、アプリケーションフローを連携させてルーティングの最適化を行うことが求められるようになり、ルーティング決定プロセスには、アプリケーション情報が直接参加する必要がある。
実際の展開では、ネットワークがすべての上位層アプリケーションを識別することは不可能であるため、アプリケーションをいくつかの基本的な原子機能の組み合わせ、例えばフーリエ変換、行列演算、コーデックアルゴリズムなどに分解する必要があり、ネットワーク層は、これらの原子機能に対して最適なコンピューティングパワーマッチングを行い、対応するルーティング決定を行う。
コンピューティングパワーネットワークは、現在のネットワークアーキテクチャに基づいて、2つのコア機能を実行する必要がある。1つ目は、コンピューティングパワーへの認識であり、サービス可能なコンピューティングパワーの粒度は、CPU、GPUなどの基本的なコンピューティングパワーであってもよく、基本的な原子コンピューティングパワー機能インスタンスであってもよく、粒度のより大きい汎用コンピューティングパワーサービスインスタンスであってもよい。
いずれの粒度にしても、ネットワークにとって、コンピューティングパワーサービスである。2つ目は、上位層アプリケーションのコンピューティングパワーニーズに基づいて、ネットワークによる現在のネットワーク全体のコンピューティングパワーリソース状態への認識に合わせて、ネットワークはアプリケーション及びサービスフローを適切な順序に従って最適なコンピューティングパワーサービスノードに正確にルーティングして処理することである。
本開示の一実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6(Segment Routing over IPv6:IPv6上のセグメントルーティング)ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSH(Network Service Header)からコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SF(Service Function)として前記NSHにカプセル化されるステップと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含むコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの後に、前記方法は、前記現在のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRH(Segment Routing Header)における伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHから現在のコンピューティングパワーサービスを解析するステップの前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化されるステップと、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含むコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの後に、前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む。
1つの例示的な実施例では、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、エニーキャスト(Anycast)セグメントルーティング(SR)識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、コンピューティングパワーサービスセグメント識別子CID(Computing Segment Identification)を定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちの1つを含む。
1つの例示的な実施例では、前記方法は、前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了するステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達する前に、前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、原子コンピューティングパワーサービス機能のプログラミングを行うステップをさらに含む。
1つの例示的な実施例では、原子コンピューティングパワーサービス機能のプログラミングを行うステップは、Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能識別子を標示するステップであって、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能のグローバルに一意な識別子であり、Argumentは、Functionのオプションパラメータであるステップを含む。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成される第1の解析モジュールであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される第1の解析モジュールと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第1の選択モジュールと、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第1の転送モジュールと、を含むコンピューティングパワーアプリケーショントラフィックの転送装置を提供する。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成される第2の解析モジュールであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される第2の解析モジュールと、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第2の選択モジュールと、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第2の転送モジュールと、を含むコンピューティングパワーアプリケーショントラフィックの転送装置を提供する。
本開示のさらなる実施例によれば、実行されると、上述したいずれかの方法の実施例におけるステップを実現するコンピュータプログラムを格納したコンピュータ読取可能な記憶媒体をさらに提供する。
本開示のさらなる実施例によれば、コンピュータプログラムを格納したメモリと、上述したいずれかの方法の実施例におけるステップを実行するために前記コンピュータプログラムを実行するように構成されるプロセッサと、を含む電子装置をさらに提供する。
本開示の一実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートである。 本開示の別の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートである。 本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図である。 本開示の別の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図である。 本開示の実施例による、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーショントラフィックの転送処理のフローチャートである。 本開示の実施例による、SRv6コンピューティングパワープログラミングに基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理のフローチャートである。 本開示の実施例による、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理のフローチャートである。
以下、図面を参照し、実施例に即して本開示の実施例を詳しく説明する。
なお、本開示の明細書及び特許請求の範囲並びに上述の図面における「第1」、「第2」などの用語は、特定した順序又は優先順位を記述するものではなく、類似したものを区別するように構成されるものである。
(実施例1)
本実施例では、コンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図1は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図1に示すように、このフローは、以下のステップS102~ステップS106を含む。
ステップS102では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析する。ここで、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される。
ステップS104では、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択する。
ステップS106では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送する。
本実施例のステップS104では、前記現在のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRHにおける伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングする。
本実施例のステップS102の前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信する。前記SRv6ノードは、IGP&BGP(Interior Gateway Protocol&Border Gateway Protocol:内部ゲートウェイプロトコル&ボーダーゲートウェイプロトコル)プロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成する。
又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにする。前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立する。
本実施例では、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択する。
本開示の上述の実施例では、SRv6転送メカニズムに基づいて、コンピューティングパワーサービスのスケジューリングを実現し、NSHにおけるコンピューティングパワー機能SF又はIPv6ソースルーティング拡張ヘッダSRHにおけるコンピューティングパワー機能Segment識別子を抽象化し、そして、原子コンピューティングパワー機能の動的マルチインスタンスをサポートするために、そのマルチインスタンスとマッピング関係を確立する。
(実施例2)
本実施例では、別のコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図2は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図2に示すように、この方法は、以下のステップS202~ステップS206を含む。
ステップS202では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析する。ここで、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される。
ステップS204では、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択する。
ステップS206では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送する。
本実施例のステップS204では、前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含んでもよい。
本実施例のステップS202の前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信する。前記SRv6ノードは、IGP&BGP(Interior Gateway Protocol&Border Gateway Protocol:内部ゲートウェイプロトコル&ボーダーゲートウェイプロトコル)プロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成する。
又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにする。前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立する。
本実施例では、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択することができる。
本実施例では、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、エニーキャスト(Anycast)セグメントルーティング(SR)識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、コンピューティングパワーサービスセグメント識別子CIDを定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちのいずれか1つを含む。
本実施例では、前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了する。
本実施例では、前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベース及びコンピューティングパワーサービスと各原子コンピューティングパワーサービスとの間の関係に基づいて、コンピューティングパワーサービストラフィックのソースルーティングオーケストレーションを行い、原子コンピューティングパワーサービス機能のプログラミングを行う。
本実施例では、Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能を標示することができ、ここで、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータである。
以上の実施形態で説明したように、上述した実施例による方法は、ソフトウェア及び必要な汎用ハードウェアフラップフォームを介して実現されることができ、もちろんハードウェアによって実現されることもできるが、多くの場合、前者がより適切な実施形態であることは、当業者にとって明らかである。このような理解に基づいて、本開示の技術的構成は、本質上、又は、関連技術に貢献する部分が、ソフトウェア製品の形で体現されることができ、このコンピュータソフトウェア製品は、端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であってもよい)に本開示の各実施例に記載の方法を実行させるための若干の命令を含む記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶される。
本実施例では、上述した実施例及び好適な実施形態を実現するように構成されるコンピューティングパワーアプリケーショントラフィックの転送装置をさらに提供するが、既に説明したものは省略する。以下で使用されるように、「モジュール」という用語は、所定の機能を実現可能なソフトウェア及び/又はハードウェアの組み合わせである。以下の実施例で説明される装置は、ソフトウェアで実現されることが好ましいが、ハードウェア、又はソフトウェアとハードウェアとの組み合わせで実現することも可能であり、想定される。
(実施例3)
図3は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図3に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第1の解析モジュール10と、第1の選択モジュール20と、第1の転送モジュール30と、を含む。
第1の解析モジュール10は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成され、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される。
第1の選択モジュール20は、前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される。
第1の転送モジュール30は、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される。
(実施例4)
図4は、本開示の別の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図4に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第2の解析モジュール40と、第2の選択モジュール50と、第2の転送モジュール60と、を含む。
第2の解析モジュール40は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成され、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される。
第2の選択モジュール50は、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される。
第2の転送モジュール60は、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される。
なお、上記各モジュールは、ソフトウェア又はハードウェアによって実現されることができ、後者の場合、以下の方式で実現されることができるが、これらに限られない。上記モジュールは、すべて同一のプロセッサに位置するか、又は、上記各モジュールは、任意に組み合わせる形でそれぞれ異なるプロセッサに位置する。
本開示により提供される技術的構成の理解を容易にするために、以下、具体的なシーンの実施例に即して詳しく説明する。
本開示の実施例では、SRv6に基づくコンピューティングパワーネットワークのオーケストレーション及び転送メカニズムを提案する。SRv6は、IPv6拡張ヘッダSRH(Segment Routing Header:セグメントルーティングヘッダ)において、サービス(Service)の処理順序に従ってサービス識別子のカプセル化及びオーケストレーションを行う。ここで、サービス識別子が位置するノードは、通常、ネットワークルーティング及び転送デバイスノードとは異なるため、サービスノードがSRv6をサポートする場合とSRv6をサポートしない場合とに分けられ、後者の場合、SRv6ネットワーク機器とサービスノードとの間にSRv6プロキシを設ける必要がある。SRv6ネットワークドメインは、SRHにおけるサービスノードカプセル化リストに基づいて、トラフィックを対応するサービスノードに順次転送して処理する。
このようなサービスチェーンの処理メカニズムは、SRv6ネットワーク上でサービス機能チェーン(Service Function Chain、SFC)を実現し、すなわち、SFCのサービスプレーンNSH(Network Service Header:ネットワークサービスヘッダ)を保持することにより、SRv6ネットワークルーティング及び転送ノードによってSFF(Service Function Forwarder:サービス機能フォワーダ)機能を実現することができ、SRHにはSFFノードリストのみがカプセル化される。このメカニズムの下で、SRv6転送側はSFFルーティングオーケストレーション及び転送を担当し、NSHはサービス機能チェーンのトラフィック転送を担当する。
コンピューティングパワーネットワークのシーンでは、上述のサービスインスタンスはコンピューティングパワーサービスインスタンスであり、違いは、ここでのコンピューティングパワーサービスが多くのシーンでは仮想化されたインスタンスであり、動的に移行でき、しかも同一のコンピューティングパワーサービスのインスタンスが一意ではないことである。
現在のSRv6メカニズムの下で、サービスインスタンスとネットワークL2&L3アドレスは密結合され、コンピューティングパワーネットワークのコンピューティングパワーサービスの動的マルチインスタンスシーンに対応しており、サービスインスタンスとネットワークL2&L3アドレスの分離をサポートするためのSRv6の拡張メカニズムを設計する必要がある。
上位層のコンピューティングパワーアプリケーションはいくつかの基本コンピューティングパワーサービスに分解され、後者は、コンピューティングパワーサービスインスタンスの形でネットワークに分散展開され、クラウド内分散型展開が可能であれば、クラウド間分散型展開も可能である。ネットワークは、アプリケーショントラフィックが対応する基本コンピューティングパワーサービスを順次取得するように、コンピューティングパワーサービスの特徴に基づいてサービストラフィックをルーティング案内する。基本コンピューティングパワーサービスは、Segment識別子の形でオーケストレーションされてSRHにカプセル化される。
上述したSRv6に基づくSFC NSHカプセル化方式は、実現メカニズムがこれと類似しており、違いは、基本コンピューティングパワーサービスがSFとしてNSHにカプセル化され、NSHによってサービストラフィックのルーティング転送を実現することである。
1)SRv6に基づくNSHコンピューティングパワーネットワーク転送ソリューション
コンピューティングパワーサービスは、サービス機能チェーンにおけるサービス機能(SF)としてNSHによってオーケストレーションされ、SRv6ルーティング転送ノードと連携させてコンピューティングパワーサービストラフィックをルーティングする。SRv6は、コンピューティングパワーサービストラフィック伝送トンネルのオーケストレーション及びルーティングを実現し、すなわち、コンピューティングパワーサービストラフィック伝送トンネル経路は、SRHによって実現される。
具体的には、上述したように、実際の展開では、同一のコンピューティングパワーサービス(又は機能)は、動的でかつマルチインスタンスであり、すなわち、具体的な単一のL2&L3層アドレスにハードバインドされなくなり、複数のコンピューティングパワーサービスインスタンスノード、すなわち複数のアドレスに関連付けられる。
したがって、ここでのSRv6転送及びルーティングノードは、SFF機能をサポートすることに加えて、ネットワーク上でサービス可能なコンピューティングパワーサービス(又は機能)ごとに1:N(N≧1)のマッピングテーブルを確立し、NSHにおけるSPI&SIを解析して現在のコンピューティングパワーサービス(又は機能)を決定すると同時に、ローカル配置ポリシー(最短経路、負荷分散、経路遅延など)に基づいて、そのコンピューティングパワーサービスの複数のインスタンスノードから1つのノードを選択してサービストラフィックを転送する必要がある。これにより、分散型コンピューティングパワー機能シーンにおけるサービストラフィックのルーティングを実現する。
SRv6転送及びルーティングノードは、ネットワーク全体の分散型コンピューティングパワーサービス(又は機能)及びそのインスタンスノードのリソース状態ライブラリを作成する必要があり、SRv6ノードのローカルに帰属するコンピューティングパワーサービスインスタンスノードは、アプリケーションメッセージを通じて、SRv6転送及びルーティングノードへコンピューティングパワーサービスインスタンスノードのリソース状態情報を登録する。
SRv6ネットワークノード間のコンピューティングパワーサービスリソース状態情報は、分散型ルーティングプロトコルIGP(Interior Gateway Protocol:内部ゲートウェイプロトコル)&BGP(Border Gateway Protocol:ボーダーゲートウェイプロトコル)、又はDCにおけるコントロールプレーンプロトコルを介して、相互同期及び通知を実現することができるし、ノースバンドインタフェースを介して集中コントローラ又はオーケストレータへ一括して報告し、後者によって転送及びルーティングポリシーのオーケストレーション及び配信を行うこともできる。
2)SRv6に基づくコンピューティングパワーネットワーク転送ソリューション
分散型コンピューティングパワーサービス(又は機能)は、SRv6の1つのSegmentとしてSegmentリストにオーケストレーションされ、同じクラスのコンピューティングパワーサービスは、Segmentリストの特定したインデックスで1回だけ実行されるが、しかし、その分散型インスタンスノードは複数存在する可能性があり、そのリソース状態及び利用可能状態はすべて動的であるため、従来のSRv6 Segment識別子はこのシーンに適していない。本開示は、この問題を解決するために2つのソリューションを設計する。
SRv6コンピューティングパワーサービス識別子ソリューション。
コンピューティングパワーサービスを、SRHにカプセル化されたSRv6 Segment識別子として定義し、サービストラフィックのルーティングに必要な1ホップのサービス機能とする。Segment識別子は、語彙的には、抽象化されたコンピューティングパワーサービスを意味するだけであり、その具体的なインスタンスノードとの間には1対多のマッピング関係がある。
具体的には、1つのコンピューティングパワーサービス(又は機能)が複数のインスタンスに対応するマッピング関係は、次の2つのモードで実現されることができる。
(1)コンピューティングパワーサービスを、エニーキャスト(Anycast)タイプのSegment Identification、すなわちAnycast Segment Identificationとして定義する。
ここで、エニーキャストアドレスが、コンピューティングパワーサービスを標識し、それに関連付けられる複数のメンバーアドレスが、当該コンピューティングパワーサービスのインスタンスを標識する。
(2)コンピューティングパワーサービスSegment Identification、すなわちComputing Segment Identification、略してCIDを定義する。CIDが、1つの動的インスタンスメンバーグループに関連付けられ、各インスタンスが、1つの一意な到達可能アドレスに対応する。異なるメンバーインスタンスが同じDC内に存在してもよいし、異なるDCに分散してもよい。CIDの前ホップは、ネットワークリソース状態及びサービスのネットワークSLAに基づいて、具体的なメンバーインスタンスを選択してサービストラフィックを転送する。
SRv6コンピューティングパワープログラミングソリューション。
SRv6 Segment識別子において原子コンピューティングパワーサービス機能のプログラミングを行い、すなわち、SRv6 SegmentをLocatorとFunctionの2つの部分に分け、ここで、Locatorが、コンピューティングパワーサービスインスタンスノードのIPv6アドレスプレフィックスを標識し、Functionが、原子コンピューティングパワーサービス機能及びオプションの機能パラメータ、例えば行列演算の行及び列などを標識し、両者の組み合わせにより、1つの原子コンピューティングパワー機能及びその全世界に到達可能な1つのインスタンスアドレスを一意に標識する。
同じコンピューティングパワーサービス(又は機能)とその異なるコンピューティングパワーインスタンスノードとの間のマッピング関係は、SRv6転送及びルーティングノードによって維持され、SRv6ドメインヘッドノードは、各インスタンスノードの状態情報に基づいて、サービストラフィックの実際の転送トンネルのオーケストレーションを行い、すなわち、最適なコンピューティングパワーサービスインスタンスノードをSRv6の処理ノードとして選択し、適切な転送及び処理タイミングに従って、上述したLocator+Functionの方式でコンピューティングパワーサービスのプログラミングを行い、SRHをカプセル化する。
(実施例5)
本実施例は、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。SRv6は、本実施例では、コンピューティングパワーサービストラフィックのネットワーク伝送トンネルソリューションとされ、すなわち、SRHは、トラフィックのネットワーク経路のみをカプセル化し、コンピューティングパワーサービスは、NSHによって実現され、すなわち、コンピューティングパワーサービス層機能を実現する。
SRv6ネットワークルーティング及び転送ノードは、SFF転送及びルーティングノードとしても機能し、すなわち、NSHの解析、カプセル化、及び転送能力を備える。これに加えて、コンピューティングパワーサービスとその複数のインスタンスノードとの間のマッピング関係は、このノードによって維持され、ローカルポリシーに基づいて、具体的なメンバーインスタンスノードを選択してコンピューティングパワーアプリケーショントラフィックを転送する必要がある。
図5は、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーションの転送処理方法のフローチャートであり、図5に示すように、この方法は、以下のステップS501~S505を含む。
ステップS501では、コンピューティングパワーノードは、SRv6ノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS502では、SRv6ノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係テーブルを確立し、エニーキャストアドレスAnycast方式を含むが、これに限られない。
ステップS503では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、後者は、NSHを解析し、現在のコンピューティングパワーサービスを識別し、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択して、コンピューティングパワーアプリケーショントラフィックを転送する。
ステップS504では、NSHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS503を繰り返す。NSHによって示される次のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、現在のSRv6ノードは、SRHに基づいてコンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6はNSHを解析し、ステップS503を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。最後のNSHによって標識されるコンピューティングパワーサービスが実行され、SRHは最後のホップまで実行される。
ステップS505では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
(実施例6)
本実施例は、SRv6コンピューティングパワープログラミングに基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。コンピューティングパワーサービスにSegment識別子を割り当て、SRv6ルーティングノードにおいて当該コンピューティングパワーサービス識別子とそのマルチインスタンスのマッピングテーブルを確立する。上述したように、このような1対多のコンピューティングパワーサービスとインスタンスのマッピング関係は、次の2つの方法によって実現されることができるが、これらに限られない。
方法1:コンピューティングパワーサービスをエニーキャストタイプのSegment Identification、すなわちAnycast Segment Identificationとして定義する。ここで、エニーキャストアドレスが、コンピューティングパワーサービスを標識し、それに関連付けられる複数のメンバーアドレスが、当該コンピューティングパワーサービスのインスタンスを標識する。
方式2:コンピューティングパワーサービスSegment Identification、すなわちComputing Segment Identification、略してCIDを定義する。CIDが、1つの動的インスタンスメンバーグループに関連付けられ、各インスタンスが、1つの一意な到達可能アドレスに対応する。異なるメンバーインスタンスが同じDC内に存在してもよいし、異なるDCに分散してもよい。CIDの前ホップは、ネットワークリソース状態及びサービスのネットワークSLAに基づいて、具体的なメンバーインスタンスを選択してサービストラフィックを転送する。
特に、本実施例では、コンピューティングパワーサービスインスタンスノードがSRv6転送をサポートしていなければ、インスタンスノードとSRv6ルーティングノードとの間のSRv6プロキシを介して、コンピューティングパワーサービスインスタンスノードを往復するサービストラフィックのSRHカプセル化及びカプセル化解除を行い、コンピューティングパワーサービスインスタンスノードをプロキシしてSRv6転送を完了する必要がある。
図6は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を示すフローチャートであり、図6に示すように、この方法は、以下のステップS601~ステップS605を含んでもよい。
ステップS601では、SRv6コンピューティングパワーノードは、SRv6ルーティングノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ルーティングノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS602では、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間にマッピング関係テーブルを確立する。
ステップS603では、コンピューティングパワーアプリケーショントラフィックがSRv6ルーティングノードに到達すると、SRHによって示される次ホップがコンピューティングパワーサービスであれば、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択し、コンピューティングパワーアプリケーショントラフィックを転送する。SRHによって示される次ホップがSRv6ルーティングノードであれば、コンピューティングパワーアプリケーショントラフィックを直接、次ホップにルーティングする。
ステップS604では、SRHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS603を繰り返す。SRHによって示される次のコンピューティングパワーサービスがローカルに存在しなければ、現在のSRv6ルーティングノードは、コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6は、SRHを解析し、ステップS603を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。SRHは最後のホップまで実行される。
ステップS605では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
(実施例7)
本実施例は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。
コンピューティングパワーサービス(機能)にコンピューティングパワーサービスSegment識別子を割り当て、この識別子に対して原子コンピューティングパワーサービス機能のプログラミングを行い、すなわち、Locator+Function+Argumentの組み合わせによりコンピューティングパワーサービス識別子を標示し、ここで、Locatorは、コンピューティングパワーサービスノードのIPv6アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータである。
Locatorは、対応するコンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピングテーブルを維持し、SRv6イングレスノードでは、コンピューティングパワーデータベースに基づいて、特定したコンピューティングパワーサービスインスタンスを選択してコンピューティングパワーサービスのソースルーティングオーケストレーションを行う。
特に、本実施例では、コンピューティングパワーサービスインスタンスノードがSRv6転送をサポートしていなければ、インスタンスノードとSRv6ルーティングノードとの間のSRv6プロキシを介して、コンピューティングパワーサービスインスタンスノードを往復するサービストラフィックのSRHカプセル化及びカプセル化解除を行い、コンピューティングパワーサービスインスタンスノードをプロキシしてSRv6転送を完了する必要がある。
図7は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を示すフローチャートであり、図7に示すように、この方法は、以下のステップS701~ステップS705を含む。
ステップS701では、SRv6コンピューティングパワーノードは、SRv6ルーティングノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ルーティングノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を、隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS702では、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間にマッピング関係テーブルを確立する。
ステップS703では、コンピューティングパワーアプリケーショントラフィックがSRv6イングレスルーティングノードに到達すると、このノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、上述したコンピューティングパワーサービスインスタンスノード識別子のプログラミングを行う。
SRHによって示される次ホップがコンピューティングパワーサービスであれば、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択し、コンピューティングパワーアプリケーショントラフィックを転送する。SRHによって示される次ホップがSRv6ルーティングノードであれば、コンピューティングパワーアプリケーショントラフィックを直接、次ホップにルーティングする。
ステップS704では、SRHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS703を繰り返す。SRHによって示される次のコンピューティングパワーサービスがローカルに存在しなければ、現在のSRv6ルーティングノードは、コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6は、SRHを解析し、ステップS703を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。SRHは最後のホップまで実行される。
ステップS705では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
本開示の実施例は、実行されると、上述したいずれかの方法の実施例におけるステップを実行するように構成されるコンピュータプログラムを格納したコンピュータ読取可能な記憶媒体をさらに提供する。
1つの例示的な実施例では、上記コンピュータ読取可能な記憶媒体は、USBフラッシュディスク、リードオンリーディスク(Read-Only Memory、略してROM)、ランダムアクセスメモリ(Random Access Memory、略してRAM)、携帯型ハードディスク、磁気ディスク又は光ディスクなど、コンピュータプログラムを記憶可能な様々な媒体を含むことができるが、これらに限られない。
本開示の実施例は、コンピュータプログラムを格納したメモリと、上述したいずれかの方法の実施例におけるステップを実行するためにコンピュータプログラムを実行するように構成されるプロセッサと、を含む電子装置をさらに提供する。
1つの例示的な実施例では、上記電子装置は、上記プロセッサと接続される伝送デバイスと、上記プロセッサと接続される入出力デバイスと、をさらに含んでもよい。
本実施例における具体例は、上述した実施例及び例示的な実施形態に説明される例を参照することができるが、本実施例においてここではその説明を省略する。
明らかに、上述した本開示の各モジュール又は各ステップは汎用の計算装置によって実現されることができ、単独の計算装置に集成させることができれば、複数の計算装置から構成されるネットワークに分布させることもでき、計算装置で実行可能なプログラムコードによって実現してもよいので、それらを記憶装置に格納して計算装置によって実行することができ、そして場合によって、示した又は説明したステップを上述と異なる手順で実行することができ、それぞれ集積回路モジュールに製作したり、これらのうち複数のモジュール又はステップを単独の集積回路モジュールに製作したりして実現することができることは、当業者に理解されるところである。このように、本開示は、如何なる特定したハードウェアとソフトウェアの組み合わせには限定されない。
以上は、本開示の好適な実施例に過ぎず、本開示を限定することは意図していない。当業者にとって、本開示に様々な変更や変形が可能である。本開示の原則内の如何なる修正、均等の置き換え、改良なども、本開示の保護範囲内に含まれるべきである。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHから現在のコンピューティングパワーサービスを解析するステップの前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
本実施例のステップS102の前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例のステップS202の前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。

Claims (18)

  1. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化されるステップと、
    前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、
    前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む、
    コンピューティングパワーアプリケーショントラフィックの転送方法。
  2. 前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの後に、
    前記コンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRHにおける伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む、
    請求項1に記載の方法。
  3. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの前に、
    前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む、
    請求項1に記載の方法。
  4. 前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、
    前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、
    前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、
    前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む、
    請求項3に記載の方法。
  5. 前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、
    前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む、
    請求項1に記載の方法。
  6. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化されるステップと、
    前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、
    前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む、
    コンピューティングパワーアプリケーショントラフィックの転送方法。
  7. 前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの後に、
    前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む、
    請求項6に記載の方法。
  8. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、
    前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む、
    請求項6に記載の方法。
  9. 前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、
    前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、
    前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、
    前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む、
    請求項8に記載の方法。
  10. 前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、
    前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む、
    請求項6に記載の方法。
  11. 前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、
    エニーキャストAnycastセグメントルーティングSRv6識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、
    コンピューティングパワーサービスセグメントルーティングSRv6識別子CIDを定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちの1つを含む、
    請求項6に記載の方法。
  12. 前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了するステップをさらに含む、
    請求項6に記載の方法。
  13. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達する前に、
    前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、原子コンピューティングパワーサービス機能のプログラミングを行うステップをさらに含む、
    請求項6に記載の方法。
  14. 原子コンピューティングパワーサービス機能のプログラミングを行うステップは、
    Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能を標示するステップであって、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータであるステップを含む、
    請求項13に記載の方法。
  15. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成される第1の解析モジュールであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される第1の解析モジュールと、
    前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第1の選択モジュールと、
    前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第1の転送モジュールと、を含む、
    コンピューティングパワーアプリケーショントラフィックの転送装置。
  16. コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成される第2の解析モジュールであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される第2の解析モジュールと、
    前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第2の選択モジュールと、
    前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第2の転送モジュールと、を含む、
    コンピューティングパワーアプリケーショントラフィックの転送装置。
  17. プロセッサによって実行されると、請求項1から14のいずれか1項に記載の方法のステップを実現する、
    コンピュータプログラムを格納したコンピュータ読取可能な記憶媒体。
  18. メモリと、プロセッサと、前記メモリに格納され、前記プロセッサ上で実行可能なコンピュータプログラムと、を含み、前記プロセッサは、前記コンピュータプログラムを実行すると、請求項1から14のいずれか1項に記載の方法のステップを実現する、
    電子装置。
JP2023534687A 2020-12-07 2021-08-11 コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 Pending JP2023553086A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011420427.9 2020-12-07
CN202011420427.9A CN112751826B (zh) 2020-12-07 2020-12-07 算力应用流量转发方法及装置
PCT/CN2021/112131 WO2022121349A1 (zh) 2020-12-07 2021-08-11 算力应用流量转发方法及装置

Publications (1)

Publication Number Publication Date
JP2023553086A true JP2023553086A (ja) 2023-12-20

Family

ID=75649044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023534687A Pending JP2023553086A (ja) 2020-12-07 2021-08-11 コンピューティングパワーアプリケーショントラフィックの転送方法及び装置

Country Status (5)

Country Link
US (1) US20240022650A1 (ja)
EP (1) EP4258598A4 (ja)
JP (1) JP2023553086A (ja)
CN (1) CN112751826B (ja)
WO (1) WO2022121349A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112491739A (zh) * 2020-07-10 2021-03-12 中兴通讯股份有限公司 一种业务流量处理方法及装置
CN112751826B (zh) * 2020-12-07 2024-04-30 中兴通讯股份有限公司 算力应用流量转发方法及装置
CN115378829A (zh) * 2021-05-17 2022-11-22 中国移动通信有限公司研究院 资源请求方法、装置、算力网元节点及终端设备
CN115550234B (zh) * 2021-06-30 2024-04-02 中国移动通信有限公司研究院 一种信息通告方法、控制器及存储介质
CN115567530A (zh) * 2021-07-02 2023-01-03 中国移动通信有限公司研究院 算力通告的发送方法、装置及算力网元节点
CN114070854B (zh) * 2021-11-26 2023-06-27 中国联合网络通信集团有限公司 算力网络中算力感知和路由方法、系统、设备及介质
CN115065631A (zh) * 2022-03-02 2022-09-16 广东云下汇金科技有限公司 一种算力调度方法、系统及数据中心
CN114697400A (zh) * 2022-04-13 2022-07-01 中国电信股份有限公司 服务调度方法、系统及vtep
CN117134925A (zh) * 2022-05-18 2023-11-28 中国移动通信有限公司研究院 一种网络编程技术处理方法、系统及存储介质
CN117667366A (zh) * 2022-08-24 2024-03-08 中国电信股份有限公司 业务处理方法、装置、电子设备及存储介质
CN115914402B (zh) * 2022-11-09 2024-03-19 中国联合网络通信集团有限公司 算力资源节点的确定方法、装置、设备以及存储介质
CN116132195B (zh) * 2023-04-04 2023-06-09 中通服建设有限公司 一种算力网络安全传输保障系统及其方法
CN116346938B (zh) * 2023-05-25 2023-08-18 新华三技术有限公司 一种算力访问方法、装置、电子设备及存储介质
CN116708294B (zh) * 2023-08-08 2023-11-21 三峡科技有限责任公司 基于apn6网络实现智能应用感知及报文转发的方法
CN116743878B (zh) * 2023-08-14 2023-10-27 新华三技术有限公司 算力注册方法、装置、计算机设备及存储介质
CN116846818B (zh) * 2023-09-01 2023-12-01 北京邮电大学 一种算力网络流量调度方法、系统、装置及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10158568B2 (en) * 2016-02-12 2018-12-18 Huawei Technologies Co., Ltd. Method and apparatus for service function forwarding in a service domain
US20190140863A1 (en) * 2017-11-06 2019-05-09 Cisco Technology, Inc. Dataplane signaled bidirectional/symmetric service chain instantiation for efficient load balancing
US10812374B2 (en) * 2018-09-21 2020-10-20 Cisco Technology, Inc. Segment routing with fast reroute for container networking
US10880368B2 (en) * 2019-01-29 2020-12-29 Cisco Technology, Inc. Identifying edge clouds within networks
US11201818B2 (en) * 2019-04-04 2021-12-14 Cisco Technology, Inc. System and method of providing policy selection in a network
CN110532092A (zh) * 2019-08-21 2019-12-03 云湾科技(嘉兴)有限公司 资源匹配方法、装置及设备
CN111865658B (zh) * 2020-06-05 2022-06-07 烽火通信科技股份有限公司 基于vCPE多租户的租户业务识别映射方法及系统
CN111866775B (zh) * 2020-07-28 2021-10-15 中国联合网络通信集团有限公司 一种业务编排方法及装置
CN111988395B (zh) * 2020-08-18 2022-05-17 深圳信息职业技术学院 一种服务功能链构建系统及方法
CN112751826B (zh) * 2020-12-07 2024-04-30 中兴通讯股份有限公司 算力应用流量转发方法及装置

Also Published As

Publication number Publication date
CN112751826B (zh) 2024-04-30
WO2022121349A1 (zh) 2022-06-16
EP4258598A1 (en) 2023-10-11
CN112751826A (zh) 2021-05-04
EP4258598A4 (en) 2024-06-12
US20240022650A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
JP2023553086A (ja) コンピューティングパワーアプリケーショントラフィックの転送方法及び装置
US11095559B1 (en) Segment routing (SR) for IPV6 (SRV6) techniques for steering user plane (UP) traffic through a set of user plane functions (UPFS) with traffic handling information
US11563669B2 (en) Method for implementing network virtualization and related apparatus and communications system
US10021172B2 (en) Software driven long-term-evolution core network for mobile access
EP4329258A1 (en) Notification method and apparatus for computing power resources, storage medium, and electronic apparatus
CN111149330B (zh) 软件定义网络中的拓扑感知控制器关联
US10630508B2 (en) Dynamic customer VLAN identifiers in a telecommunications network
CN106713137B (zh) 基于分段路由和sdn技术的vpn方法、装置及系统
US20230275834A1 (en) Service Traffic Processing Method and Apparatus
CN105553680A (zh) 基于网络特征创建虚拟接口的系统和方法
CN104106242A (zh) 分片网络中委托转发和地址解析
JP5993817B2 (ja) キャリア網における経路制御システム及び方法
CN113037527B (zh) 网络切片创建方法、报文转发方法及其装置
CN113973082A (zh) 一种报文处理方法及网络设备
CN114374634A (zh) 报文转发方法以及网络设备
CN105515816B (zh) 检测层次信息的处理方法及装置
CN112511427A (zh) 段路由业务处理方法、装置、路由设备及存储介质
US20140185607A1 (en) Communication system, communication path establishing method and management server
CN117118886A (zh) 报文转发方法、头端设备、控制器、设备及存储介质
CN107294849B (zh) 业务路径的建立方法、装置及系统
WO2022007702A1 (zh) 一种报文处理方法及网络设备
CN114124793A (zh) 转发报文、发布转发指示信息和通告报文的方法及设备
CN108075973A (zh) 一种设备通信方法和装置
EP4075739B1 (en) Service chain forwarding control methods and devices
WO2024104007A1 (zh) 报文发送方法、装置、存储介质及电子装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608