JP2023553086A - コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 - Google Patents
コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 Download PDFInfo
- Publication number
- JP2023553086A JP2023553086A JP2023534687A JP2023534687A JP2023553086A JP 2023553086 A JP2023553086 A JP 2023553086A JP 2023534687 A JP2023534687 A JP 2023534687A JP 2023534687 A JP2023534687 A JP 2023534687A JP 2023553086 A JP2023553086 A JP 2023553086A
- Authority
- JP
- Japan
- Prior art keywords
- computing power
- node
- srv6
- service
- power service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000013507 mapping Methods 0.000 claims abstract description 61
- 230000006870 function Effects 0.000 claims description 61
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000005538 encapsulation Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 14
- 238000012546 transfer Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000003672 processing method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005111 flow chemistry technique Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/22—Parsing or analysis of headers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/34—Source routing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2101/00—Indexing scheme associated with group H04L61/00
- H04L2101/60—Types of network addresses
- H04L2101/604—Address structures or formats
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2101/00—Indexing scheme associated with group H04L61/00
- H04L2101/60—Types of network addresses
- H04L2101/618—Details of network addresses
- H04L2101/659—Internet protocol version 6 [IPv6] addresses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2101/00—Indexing scheme associated with group H04L61/00
- H04L2101/60—Types of network addresses
- H04L2101/668—Internet protocol [IP] address subnets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L61/00—Network arrangements, protocols or services for addressing or naming
- H04L61/50—Address allocation
- H04L61/5069—Address allocation for group communication, multicast communication or broadcast communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本開示の実施例は、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置を提供する。この方法は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSH又はIPv6ソースルーティング拡張ヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSH内にカプセル化されるか、又はIPv6ソースルーティング拡張ヘッダSRH内に直接カプセル化されるステップと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む。本開示では、NSHにおけるコンピューティングパワー機能SF又はIPv6ソースルーティング拡張ヘッダSRHにおけるコンピューティングパワー機能Segment識別子を抽象化し、そして、原子コンピューティングパワー機能の動的マルチインスタンスをサポートするために、そのマルチインスタンスとマッピング関係を確立し、これにより、SRv6転送メカニズムに基づいてコンピューティングパワーサービスのスケジューリングを実現する。【選択図】図1
Description
(関連出願の相互参照)
本開示は、2020年12月07日に出願された中国特許出願CN202011420427.9に基づくものであって、当該特許出願の優先権を主張しており、その内容の全ては参照により本願に組み込まれる。
本開示は、2020年12月07日に出願された中国特許出願CN202011420427.9に基づくものであって、当該特許出願の優先権を主張しており、その内容の全ては参照により本願に組み込まれる。
本開示の実施例は、通信分野に関し、具体的には、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置に関する。
ビデオ、ゲーム、自動車のインターネット化などの高帯域幅で低遅延のサービスが急速に発展し、サービストラフィックに占める割合がますます高くなるにつれ、コンピューティングパワー及びストレージリソースは、従来の集中型展開から分散型展開へと進化し始める。
ネットワークを介して端末、エッジノード及びクラウドノードのコンピューティングパワーリソースを接続し、ネットワークと連携させてサービストラフィックをスケジューリングする、すなわち、サービストラフィックを現在の最適なコンピューティングパワーノードにルーティングして処理することは、業界内でますます大きな注目を浴びている。サービストラフィックは、様々な異なるサービスニーズに基づいて、対応するコンピューティングパワーノードにルーティングされ処理される。
これは、コンピューティングパワーネットワークの主流のサービスシーン及びサービスニーズとなる。
コンピューティングパワーネットワークでは、ネットワークは、コンピューティングパワー分散リソースに基づいてサービストラフィックのルーティング決定を行う必要があり、すなわち、サービスを現在の最適なコンピューティングパワーノードにルーティングして処理し、分散型コンピューティングパワーリソースのプール化の優位性を発揮することで、コンピューティングパワーリソースの利用率を高めると同時に、サービスのコンピューティングパワー及びネットワークのニーズをより正確に満たす。
現在のネットワーク、特にレイヤ2及びレイヤ3のネットワークに対して、転送処理の粒度は、パケット又はタイプフローであり、それに対して、対応する帯域幅、キュー、及びキャッシュリソースなどを配置する。コンピューティングパワーネットワークにおけるノードのコンピューティングパワーリソースは、処理の対象がもはやパケット及びフローではなく、アプリケーションであるため、現在のネットワークパケット及びフローの処理メカニズムがコンピューティングパワーネットワークに適合しなくなる結果となる。
本開示の実施例は、関連技術では現在のネットワークパケット及びフローの処理メカニズムがコンピューティングパワーネットワークに適合しなくなるという問題を少なくとも解決するために、コンピューティングパワーアプリケーショントラフィックの転送方法及び装置を提供する。
コンピューティングパワーネットワークでは、ネットワークは、特定したアプリケーション又はサービスを、最適にマッチングするコンピューティングパワーノードと直接マッチングさせ、対応するサービストラフィックのルーティングを行う必要があり、ネットワーク及びコンピューティングパワーリソースに基づいて、アプリケーションフローを連携させてルーティングの最適化を行うことが求められるようになり、ルーティング決定プロセスには、アプリケーション情報が直接参加する必要がある。
実際の展開では、ネットワークがすべての上位層アプリケーションを識別することは不可能であるため、アプリケーションをいくつかの基本的な原子機能の組み合わせ、例えばフーリエ変換、行列演算、コーデックアルゴリズムなどに分解する必要があり、ネットワーク層は、これらの原子機能に対して最適なコンピューティングパワーマッチングを行い、対応するルーティング決定を行う。
コンピューティングパワーネットワークは、現在のネットワークアーキテクチャに基づいて、2つのコア機能を実行する必要がある。1つ目は、コンピューティングパワーへの認識であり、サービス可能なコンピューティングパワーの粒度は、CPU、GPUなどの基本的なコンピューティングパワーであってもよく、基本的な原子コンピューティングパワー機能インスタンスであってもよく、粒度のより大きい汎用コンピューティングパワーサービスインスタンスであってもよい。
いずれの粒度にしても、ネットワークにとって、コンピューティングパワーサービスである。2つ目は、上位層アプリケーションのコンピューティングパワーニーズに基づいて、ネットワークによる現在のネットワーク全体のコンピューティングパワーリソース状態への認識に合わせて、ネットワークはアプリケーション及びサービスフローを適切な順序に従って最適なコンピューティングパワーサービスノードに正確にルーティングして処理することである。
本開示の一実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6(Segment Routing over IPv6:IPv6上のセグメントルーティング)ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSH(Network Service Header)からコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SF(Service Function)として前記NSHにカプセル化されるステップと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含むコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの後に、前記方法は、前記現在のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRH(Segment Routing Header)における伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHから現在のコンピューティングパワーサービスを解析するステップの前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化されるステップと、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含むコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの後に、前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む。
1つの例示的な実施例では、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、エニーキャスト(Anycast)セグメントルーティング(SR)識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、コンピューティングパワーサービスセグメント識別子CID(Computing Segment Identification)を定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちの1つを含む。
1つの例示的な実施例では、前記方法は、前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了するステップをさらに含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達する前に、前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、原子コンピューティングパワーサービス機能のプログラミングを行うステップをさらに含む。
1つの例示的な実施例では、原子コンピューティングパワーサービス機能のプログラミングを行うステップは、Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能識別子を標示するステップであって、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能のグローバルに一意な識別子であり、Argumentは、Functionのオプションパラメータであるステップを含む。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成される第1の解析モジュールであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される第1の解析モジュールと、前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第1の選択モジュールと、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第1の転送モジュールと、を含むコンピューティングパワーアプリケーショントラフィックの転送装置を提供する。
本開示の別の実施例によれば、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成される第2の解析モジュールであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される第2の解析モジュールと、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第2の選択モジュールと、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第2の転送モジュールと、を含むコンピューティングパワーアプリケーショントラフィックの転送装置を提供する。
本開示のさらなる実施例によれば、実行されると、上述したいずれかの方法の実施例におけるステップを実現するコンピュータプログラムを格納したコンピュータ読取可能な記憶媒体をさらに提供する。
本開示のさらなる実施例によれば、コンピュータプログラムを格納したメモリと、上述したいずれかの方法の実施例におけるステップを実行するために前記コンピュータプログラムを実行するように構成されるプロセッサと、を含む電子装置をさらに提供する。
以下、図面を参照し、実施例に即して本開示の実施例を詳しく説明する。
なお、本開示の明細書及び特許請求の範囲並びに上述の図面における「第1」、「第2」などの用語は、特定した順序又は優先順位を記述するものではなく、類似したものを区別するように構成されるものである。
(実施例1)
本実施例では、コンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図1は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図1に示すように、このフローは、以下のステップS102~ステップS106を含む。
本実施例では、コンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図1は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図1に示すように、このフローは、以下のステップS102~ステップS106を含む。
ステップS102では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析する。ここで、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される。
ステップS104では、前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択する。
ステップS106では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送する。
本実施例のステップS104では、前記現在のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRHにおける伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングする。
本実施例のステップS102の前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信する。前記SRv6ノードは、IGP&BGP(Interior Gateway Protocol&Border Gateway Protocol:内部ゲートウェイプロトコル&ボーダーゲートウェイプロトコル)プロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成する。
又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにする。前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立する。
本実施例では、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択する。
本開示の上述の実施例では、SRv6転送メカニズムに基づいて、コンピューティングパワーサービスのスケジューリングを実現し、NSHにおけるコンピューティングパワー機能SF又はIPv6ソースルーティング拡張ヘッダSRHにおけるコンピューティングパワー機能Segment識別子を抽象化し、そして、原子コンピューティングパワー機能の動的マルチインスタンスをサポートするために、そのマルチインスタンスとマッピング関係を確立する。
(実施例2)
本実施例では、別のコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図2は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図2に示すように、この方法は、以下のステップS202~ステップS206を含む。
本実施例では、別のコンピューティングパワーアプリケーショントラフィックの転送方法を提供する。図2は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送方法のフローチャートであり、図2に示すように、この方法は、以下のステップS202~ステップS206を含む。
ステップS202では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析する。ここで、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される。
ステップS204では、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択する。
ステップS206では、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送する。
本実施例のステップS204では、前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含んでもよい。
本実施例のステップS202の前に、前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信する。前記SRv6ノードは、IGP&BGP(Interior Gateway Protocol&Border Gateway Protocol:内部ゲートウェイプロトコル&ボーダーゲートウェイプロトコル)プロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成する。
又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにする。前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立する。
本実施例では、前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択することができる。
本実施例では、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、エニーキャスト(Anycast)セグメントルーティング(SR)識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、コンピューティングパワーサービスセグメント識別子CIDを定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちのいずれか1つを含む。
本実施例では、前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了する。
本実施例では、前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベース及びコンピューティングパワーサービスと各原子コンピューティングパワーサービスとの間の関係に基づいて、コンピューティングパワーサービストラフィックのソースルーティングオーケストレーションを行い、原子コンピューティングパワーサービス機能のプログラミングを行う。
本実施例では、Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能を標示することができ、ここで、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータである。
以上の実施形態で説明したように、上述した実施例による方法は、ソフトウェア及び必要な汎用ハードウェアフラップフォームを介して実現されることができ、もちろんハードウェアによって実現されることもできるが、多くの場合、前者がより適切な実施形態であることは、当業者にとって明らかである。このような理解に基づいて、本開示の技術的構成は、本質上、又は、関連技術に貢献する部分が、ソフトウェア製品の形で体現されることができ、このコンピュータソフトウェア製品は、端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であってもよい)に本開示の各実施例に記載の方法を実行させるための若干の命令を含む記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶される。
本実施例では、上述した実施例及び好適な実施形態を実現するように構成されるコンピューティングパワーアプリケーショントラフィックの転送装置をさらに提供するが、既に説明したものは省略する。以下で使用されるように、「モジュール」という用語は、所定の機能を実現可能なソフトウェア及び/又はハードウェアの組み合わせである。以下の実施例で説明される装置は、ソフトウェアで実現されることが好ましいが、ハードウェア、又はソフトウェアとハードウェアとの組み合わせで実現することも可能であり、想定される。
(実施例3)
図3は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図3に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第1の解析モジュール10と、第1の選択モジュール20と、第1の転送モジュール30と、を含む。
(実施例3)
図3は、本開示の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図3に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第1の解析モジュール10と、第1の選択モジュール20と、第1の転送モジュール30と、を含む。
第1の解析モジュール10は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成され、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される。
第1の選択モジュール20は、前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される。
第1の転送モジュール30は、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される。
(実施例4)
図4は、本開示の別の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図4に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第2の解析モジュール40と、第2の選択モジュール50と、第2の転送モジュール60と、を含む。
図4は、本開示の別の実施例によるコンピューティングパワーアプリケーショントラフィックの転送装置の構成ブロック図であり、図4に示すように、このコンピューティングパワーアプリケーショントラフィックの転送装置は、第2の解析モジュール40と、第2の選択モジュール50と、第2の転送モジュール60と、を含む。
第2の解析モジュール40は、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成され、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される。
第2の選択モジュール50は、前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される。
第2の転送モジュール60は、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される。
なお、上記各モジュールは、ソフトウェア又はハードウェアによって実現されることができ、後者の場合、以下の方式で実現されることができるが、これらに限られない。上記モジュールは、すべて同一のプロセッサに位置するか、又は、上記各モジュールは、任意に組み合わせる形でそれぞれ異なるプロセッサに位置する。
本開示により提供される技術的構成の理解を容易にするために、以下、具体的なシーンの実施例に即して詳しく説明する。
本開示の実施例では、SRv6に基づくコンピューティングパワーネットワークのオーケストレーション及び転送メカニズムを提案する。SRv6は、IPv6拡張ヘッダSRH(Segment Routing Header:セグメントルーティングヘッダ)において、サービス(Service)の処理順序に従ってサービス識別子のカプセル化及びオーケストレーションを行う。ここで、サービス識別子が位置するノードは、通常、ネットワークルーティング及び転送デバイスノードとは異なるため、サービスノードがSRv6をサポートする場合とSRv6をサポートしない場合とに分けられ、後者の場合、SRv6ネットワーク機器とサービスノードとの間にSRv6プロキシを設ける必要がある。SRv6ネットワークドメインは、SRHにおけるサービスノードカプセル化リストに基づいて、トラフィックを対応するサービスノードに順次転送して処理する。
このようなサービスチェーンの処理メカニズムは、SRv6ネットワーク上でサービス機能チェーン(Service Function Chain、SFC)を実現し、すなわち、SFCのサービスプレーンNSH(Network Service Header:ネットワークサービスヘッダ)を保持することにより、SRv6ネットワークルーティング及び転送ノードによってSFF(Service Function Forwarder:サービス機能フォワーダ)機能を実現することができ、SRHにはSFFノードリストのみがカプセル化される。このメカニズムの下で、SRv6転送側はSFFルーティングオーケストレーション及び転送を担当し、NSHはサービス機能チェーンのトラフィック転送を担当する。
コンピューティングパワーネットワークのシーンでは、上述のサービスインスタンスはコンピューティングパワーサービスインスタンスであり、違いは、ここでのコンピューティングパワーサービスが多くのシーンでは仮想化されたインスタンスであり、動的に移行でき、しかも同一のコンピューティングパワーサービスのインスタンスが一意ではないことである。
現在のSRv6メカニズムの下で、サービスインスタンスとネットワークL2&L3アドレスは密結合され、コンピューティングパワーネットワークのコンピューティングパワーサービスの動的マルチインスタンスシーンに対応しており、サービスインスタンスとネットワークL2&L3アドレスの分離をサポートするためのSRv6の拡張メカニズムを設計する必要がある。
上位層のコンピューティングパワーアプリケーションはいくつかの基本コンピューティングパワーサービスに分解され、後者は、コンピューティングパワーサービスインスタンスの形でネットワークに分散展開され、クラウド内分散型展開が可能であれば、クラウド間分散型展開も可能である。ネットワークは、アプリケーショントラフィックが対応する基本コンピューティングパワーサービスを順次取得するように、コンピューティングパワーサービスの特徴に基づいてサービストラフィックをルーティング案内する。基本コンピューティングパワーサービスは、Segment識別子の形でオーケストレーションされてSRHにカプセル化される。
上述したSRv6に基づくSFC NSHカプセル化方式は、実現メカニズムがこれと類似しており、違いは、基本コンピューティングパワーサービスがSFとしてNSHにカプセル化され、NSHによってサービストラフィックのルーティング転送を実現することである。
1)SRv6に基づくNSHコンピューティングパワーネットワーク転送ソリューション
コンピューティングパワーサービスは、サービス機能チェーンにおけるサービス機能(SF)としてNSHによってオーケストレーションされ、SRv6ルーティング転送ノードと連携させてコンピューティングパワーサービストラフィックをルーティングする。SRv6は、コンピューティングパワーサービストラフィック伝送トンネルのオーケストレーション及びルーティングを実現し、すなわち、コンピューティングパワーサービストラフィック伝送トンネル経路は、SRHによって実現される。
コンピューティングパワーサービスは、サービス機能チェーンにおけるサービス機能(SF)としてNSHによってオーケストレーションされ、SRv6ルーティング転送ノードと連携させてコンピューティングパワーサービストラフィックをルーティングする。SRv6は、コンピューティングパワーサービストラフィック伝送トンネルのオーケストレーション及びルーティングを実現し、すなわち、コンピューティングパワーサービストラフィック伝送トンネル経路は、SRHによって実現される。
具体的には、上述したように、実際の展開では、同一のコンピューティングパワーサービス(又は機能)は、動的でかつマルチインスタンスであり、すなわち、具体的な単一のL2&L3層アドレスにハードバインドされなくなり、複数のコンピューティングパワーサービスインスタンスノード、すなわち複数のアドレスに関連付けられる。
したがって、ここでのSRv6転送及びルーティングノードは、SFF機能をサポートすることに加えて、ネットワーク上でサービス可能なコンピューティングパワーサービス(又は機能)ごとに1:N(N≧1)のマッピングテーブルを確立し、NSHにおけるSPI&SIを解析して現在のコンピューティングパワーサービス(又は機能)を決定すると同時に、ローカル配置ポリシー(最短経路、負荷分散、経路遅延など)に基づいて、そのコンピューティングパワーサービスの複数のインスタンスノードから1つのノードを選択してサービストラフィックを転送する必要がある。これにより、分散型コンピューティングパワー機能シーンにおけるサービストラフィックのルーティングを実現する。
SRv6転送及びルーティングノードは、ネットワーク全体の分散型コンピューティングパワーサービス(又は機能)及びそのインスタンスノードのリソース状態ライブラリを作成する必要があり、SRv6ノードのローカルに帰属するコンピューティングパワーサービスインスタンスノードは、アプリケーションメッセージを通じて、SRv6転送及びルーティングノードへコンピューティングパワーサービスインスタンスノードのリソース状態情報を登録する。
SRv6ネットワークノード間のコンピューティングパワーサービスリソース状態情報は、分散型ルーティングプロトコルIGP(Interior Gateway Protocol:内部ゲートウェイプロトコル)&BGP(Border Gateway Protocol:ボーダーゲートウェイプロトコル)、又はDCにおけるコントロールプレーンプロトコルを介して、相互同期及び通知を実現することができるし、ノースバンドインタフェースを介して集中コントローラ又はオーケストレータへ一括して報告し、後者によって転送及びルーティングポリシーのオーケストレーション及び配信を行うこともできる。
2)SRv6に基づくコンピューティングパワーネットワーク転送ソリューション
分散型コンピューティングパワーサービス(又は機能)は、SRv6の1つのSegmentとしてSegmentリストにオーケストレーションされ、同じクラスのコンピューティングパワーサービスは、Segmentリストの特定したインデックスで1回だけ実行されるが、しかし、その分散型インスタンスノードは複数存在する可能性があり、そのリソース状態及び利用可能状態はすべて動的であるため、従来のSRv6 Segment識別子はこのシーンに適していない。本開示は、この問題を解決するために2つのソリューションを設計する。
分散型コンピューティングパワーサービス(又は機能)は、SRv6の1つのSegmentとしてSegmentリストにオーケストレーションされ、同じクラスのコンピューティングパワーサービスは、Segmentリストの特定したインデックスで1回だけ実行されるが、しかし、その分散型インスタンスノードは複数存在する可能性があり、そのリソース状態及び利用可能状態はすべて動的であるため、従来のSRv6 Segment識別子はこのシーンに適していない。本開示は、この問題を解決するために2つのソリューションを設計する。
SRv6コンピューティングパワーサービス識別子ソリューション。
コンピューティングパワーサービスを、SRHにカプセル化されたSRv6 Segment識別子として定義し、サービストラフィックのルーティングに必要な1ホップのサービス機能とする。Segment識別子は、語彙的には、抽象化されたコンピューティングパワーサービスを意味するだけであり、その具体的なインスタンスノードとの間には1対多のマッピング関係がある。
具体的には、1つのコンピューティングパワーサービス(又は機能)が複数のインスタンスに対応するマッピング関係は、次の2つのモードで実現されることができる。
(1)コンピューティングパワーサービスを、エニーキャスト(Anycast)タイプのSegment Identification、すなわちAnycast Segment Identificationとして定義する。
ここで、エニーキャストアドレスが、コンピューティングパワーサービスを標識し、それに関連付けられる複数のメンバーアドレスが、当該コンピューティングパワーサービスのインスタンスを標識する。
(2)コンピューティングパワーサービスSegment Identification、すなわちComputing Segment Identification、略してCIDを定義する。CIDが、1つの動的インスタンスメンバーグループに関連付けられ、各インスタンスが、1つの一意な到達可能アドレスに対応する。異なるメンバーインスタンスが同じDC内に存在してもよいし、異なるDCに分散してもよい。CIDの前ホップは、ネットワークリソース状態及びサービスのネットワークSLAに基づいて、具体的なメンバーインスタンスを選択してサービストラフィックを転送する。
SRv6コンピューティングパワープログラミングソリューション。
SRv6 Segment識別子において原子コンピューティングパワーサービス機能のプログラミングを行い、すなわち、SRv6 SegmentをLocatorとFunctionの2つの部分に分け、ここで、Locatorが、コンピューティングパワーサービスインスタンスノードのIPv6アドレスプレフィックスを標識し、Functionが、原子コンピューティングパワーサービス機能及びオプションの機能パラメータ、例えば行列演算の行及び列などを標識し、両者の組み合わせにより、1つの原子コンピューティングパワー機能及びその全世界に到達可能な1つのインスタンスアドレスを一意に標識する。
同じコンピューティングパワーサービス(又は機能)とその異なるコンピューティングパワーインスタンスノードとの間のマッピング関係は、SRv6転送及びルーティングノードによって維持され、SRv6ドメインヘッドノードは、各インスタンスノードの状態情報に基づいて、サービストラフィックの実際の転送トンネルのオーケストレーションを行い、すなわち、最適なコンピューティングパワーサービスインスタンスノードをSRv6の処理ノードとして選択し、適切な転送及び処理タイミングに従って、上述したLocator+Functionの方式でコンピューティングパワーサービスのプログラミングを行い、SRHをカプセル化する。
(実施例5)
本実施例は、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。SRv6は、本実施例では、コンピューティングパワーサービストラフィックのネットワーク伝送トンネルソリューションとされ、すなわち、SRHは、トラフィックのネットワーク経路のみをカプセル化し、コンピューティングパワーサービスは、NSHによって実現され、すなわち、コンピューティングパワーサービス層機能を実現する。
本実施例は、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。SRv6は、本実施例では、コンピューティングパワーサービストラフィックのネットワーク伝送トンネルソリューションとされ、すなわち、SRHは、トラフィックのネットワーク経路のみをカプセル化し、コンピューティングパワーサービスは、NSHによって実現され、すなわち、コンピューティングパワーサービス層機能を実現する。
SRv6ネットワークルーティング及び転送ノードは、SFF転送及びルーティングノードとしても機能し、すなわち、NSHの解析、カプセル化、及び転送能力を備える。これに加えて、コンピューティングパワーサービスとその複数のインスタンスノードとの間のマッピング関係は、このノードによって維持され、ローカルポリシーに基づいて、具体的なメンバーインスタンスノードを選択してコンピューティングパワーアプリケーショントラフィックを転送する必要がある。
図5は、SRv6に基づくNSHコンピューティングパワーネットワークアプリケーションの転送処理方法のフローチャートであり、図5に示すように、この方法は、以下のステップS501~S505を含む。
ステップS501では、コンピューティングパワーノードは、SRv6ノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS502では、SRv6ノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係テーブルを確立し、エニーキャストアドレスAnycast方式を含むが、これに限られない。
ステップS503では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、後者は、NSHを解析し、現在のコンピューティングパワーサービスを識別し、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択して、コンピューティングパワーアプリケーショントラフィックを転送する。
ステップS504では、NSHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS503を繰り返す。NSHによって示される次のコンピューティングパワーサービスが他のSRv6ノードに帰属すれば、現在のSRv6ノードは、SRHに基づいてコンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6はNSHを解析し、ステップS503を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。最後のNSHによって標識されるコンピューティングパワーサービスが実行され、SRHは最後のホップまで実行される。
ステップS505では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
(実施例6)
本実施例は、SRv6コンピューティングパワープログラミングに基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。コンピューティングパワーサービスにSegment識別子を割り当て、SRv6ルーティングノードにおいて当該コンピューティングパワーサービス識別子とそのマルチインスタンスのマッピングテーブルを確立する。上述したように、このような1対多のコンピューティングパワーサービスとインスタンスのマッピング関係は、次の2つの方法によって実現されることができるが、これらに限られない。
本実施例は、SRv6コンピューティングパワープログラミングに基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。コンピューティングパワーサービスにSegment識別子を割り当て、SRv6ルーティングノードにおいて当該コンピューティングパワーサービス識別子とそのマルチインスタンスのマッピングテーブルを確立する。上述したように、このような1対多のコンピューティングパワーサービスとインスタンスのマッピング関係は、次の2つの方法によって実現されることができるが、これらに限られない。
方法1:コンピューティングパワーサービスをエニーキャストタイプのSegment Identification、すなわちAnycast Segment Identificationとして定義する。ここで、エニーキャストアドレスが、コンピューティングパワーサービスを標識し、それに関連付けられる複数のメンバーアドレスが、当該コンピューティングパワーサービスのインスタンスを標識する。
方式2:コンピューティングパワーサービスSegment Identification、すなわちComputing Segment Identification、略してCIDを定義する。CIDが、1つの動的インスタンスメンバーグループに関連付けられ、各インスタンスが、1つの一意な到達可能アドレスに対応する。異なるメンバーインスタンスが同じDC内に存在してもよいし、異なるDCに分散してもよい。CIDの前ホップは、ネットワークリソース状態及びサービスのネットワークSLAに基づいて、具体的なメンバーインスタンスを選択してサービストラフィックを転送する。
特に、本実施例では、コンピューティングパワーサービスインスタンスノードがSRv6転送をサポートしていなければ、インスタンスノードとSRv6ルーティングノードとの間のSRv6プロキシを介して、コンピューティングパワーサービスインスタンスノードを往復するサービストラフィックのSRHカプセル化及びカプセル化解除を行い、コンピューティングパワーサービスインスタンスノードをプロキシしてSRv6転送を完了する必要がある。
図6は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を示すフローチャートであり、図6に示すように、この方法は、以下のステップS601~ステップS605を含んでもよい。
ステップS601では、SRv6コンピューティングパワーノードは、SRv6ルーティングノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ルーティングノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS602では、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間にマッピング関係テーブルを確立する。
ステップS603では、コンピューティングパワーアプリケーショントラフィックがSRv6ルーティングノードに到達すると、SRHによって示される次ホップがコンピューティングパワーサービスであれば、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択し、コンピューティングパワーアプリケーショントラフィックを転送する。SRHによって示される次ホップがSRv6ルーティングノードであれば、コンピューティングパワーアプリケーショントラフィックを直接、次ホップにルーティングする。
ステップS604では、SRHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS603を繰り返す。SRHによって示される次のコンピューティングパワーサービスがローカルに存在しなければ、現在のSRv6ルーティングノードは、コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6は、SRHを解析し、ステップS603を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。SRHは最後のホップまで実行される。
ステップS605では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
(実施例7)
本実施例は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。
本実施例は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を提供する。本実施例では、コンピューティングパワーサービス(機能)は、SRv6 Segmentリストにおける1ホップとして、SRHにカプセル化され、SRv6メカニズムに従ってコンピューティングパワーアプリケーショントラフィックをルーティング転送する。
コンピューティングパワーサービス(機能)にコンピューティングパワーサービスSegment識別子を割り当て、この識別子に対して原子コンピューティングパワーサービス機能のプログラミングを行い、すなわち、Locator+Function+Argumentの組み合わせによりコンピューティングパワーサービス識別子を標示し、ここで、Locatorは、コンピューティングパワーサービスノードのIPv6アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータである。
Locatorは、対応するコンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピングテーブルを維持し、SRv6イングレスノードでは、コンピューティングパワーデータベースに基づいて、特定したコンピューティングパワーサービスインスタンスを選択してコンピューティングパワーサービスのソースルーティングオーケストレーションを行う。
特に、本実施例では、コンピューティングパワーサービスインスタンスノードがSRv6転送をサポートしていなければ、インスタンスノードとSRv6ルーティングノードとの間のSRv6プロキシを介して、コンピューティングパワーサービスインスタンスノードを往復するサービストラフィックのSRHカプセル化及びカプセル化解除を行い、コンピューティングパワーサービスインスタンスノードをプロキシしてSRv6転送を完了する必要がある。
図7は、SRv6コンピューティングパワーサービス識別子に基づくコンピューティングパワーネットワークアプリケーショントラフィックの転送処理方法を示すフローチャートであり、図7に示すように、この方法は、以下のステップS701~ステップS705を含む。
ステップS701では、SRv6コンピューティングパワーノードは、SRv6ルーティングノードへコンピューティングパワーサービス及びそのインスタンスリソース状態情報を登録し、SRv6ルーティングノードは、IGP&BGPプロトコルを介して、ローカルに登録したコンピューティングパワーリソース状態情報を、隣接ノードへ通知することにより、グローバルコンピューティングパワーリソース状態データベースを作成する。また、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ一括して報告し、後者によってグローバルコンピューティングパワーリソース状態データベースを作成することもできる。
ステップS702では、SRv6ルーティングノードは、コンピューティングパワーサービスとそのマルチインスタンスとの間にマッピング関係テーブルを確立する。
ステップS703では、コンピューティングパワーアプリケーショントラフィックがSRv6イングレスルーティングノードに到達すると、このノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、上述したコンピューティングパワーサービスインスタンスノード識別子のプログラミングを行う。
SRHによって示される次ホップがコンピューティングパワーサービスであれば、当該コンピューティングパワーサービスとそのマルチインスタンスとの間のマッピング関係に基づいて、ローカルポリシーに従って、適切なインスタンスノードを選択し、コンピューティングパワーアプリケーショントラフィックを転送する。SRHによって示される次ホップがSRv6ルーティングノードであれば、コンピューティングパワーアプリケーショントラフィックを直接、次ホップにルーティングする。
ステップS704では、SRHによって示される次のコンピューティングパワーサービスがローカルノードに帰属すれば、ステップS703を繰り返す。SRHによって示される次のコンピューティングパワーサービスがローカルに存在しなければ、現在のSRv6ルーティングノードは、コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングし、次ホップのSRv6は、SRHを解析し、ステップS703を繰り返し、コンピューティングパワーアプリケーショントラフィックのローカル転送処理を行う。SRHは最後のホップまで実行される。
ステップS705では、コンピューティングパワーアプリケーションサービス全体の実行が完了する。
本開示の実施例は、実行されると、上述したいずれかの方法の実施例におけるステップを実行するように構成されるコンピュータプログラムを格納したコンピュータ読取可能な記憶媒体をさらに提供する。
1つの例示的な実施例では、上記コンピュータ読取可能な記憶媒体は、USBフラッシュディスク、リードオンリーディスク(Read-Only Memory、略してROM)、ランダムアクセスメモリ(Random Access Memory、略してRAM)、携帯型ハードディスク、磁気ディスク又は光ディスクなど、コンピュータプログラムを記憶可能な様々な媒体を含むことができるが、これらに限られない。
本開示の実施例は、コンピュータプログラムを格納したメモリと、上述したいずれかの方法の実施例におけるステップを実行するためにコンピュータプログラムを実行するように構成されるプロセッサと、を含む電子装置をさらに提供する。
1つの例示的な実施例では、上記電子装置は、上記プロセッサと接続される伝送デバイスと、上記プロセッサと接続される入出力デバイスと、をさらに含んでもよい。
本実施例における具体例は、上述した実施例及び例示的な実施形態に説明される例を参照することができるが、本実施例においてここではその説明を省略する。
明らかに、上述した本開示の各モジュール又は各ステップは汎用の計算装置によって実現されることができ、単独の計算装置に集成させることができれば、複数の計算装置から構成されるネットワークに分布させることもでき、計算装置で実行可能なプログラムコードによって実現してもよいので、それらを記憶装置に格納して計算装置によって実行することができ、そして場合によって、示した又は説明したステップを上述と異なる手順で実行することができ、それぞれ集積回路モジュールに製作したり、これらのうち複数のモジュール又はステップを単独の集積回路モジュールに製作したりして実現することができることは、当業者に理解されるところである。このように、本開示は、如何なる特定したハードウェアとソフトウェアの組み合わせには限定されない。
以上は、本開示の好適な実施例に過ぎず、本開示を限定することは意図していない。当業者にとって、本開示に様々な変更や変形が可能である。本開示の原則内の如何なる修正、均等の置き換え、改良なども、本開示の保護範囲内に含まれるべきである。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHから現在のコンピューティングパワーサービスを解析するステップの前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
1つの例示的な実施例では、コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む。
1つの例示的な実施例では、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む。
本実施例のステップS102の前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
本実施例のステップS202の前に、前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含んでもよい。
Claims (18)
- コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化されるステップと、
前記コンピューティングパワーサービスが前記SRv6ノードに帰属すれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、
前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む、
コンピューティングパワーアプリケーショントラフィックの転送方法。 - 前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの後に、
前記コンピューティングパワーサービスが他のSRv6ノードに帰属すれば、前記SRv6ノードは、セグメントルーティングヘッダSRHにおける伝送トンネル経路情報に基づいて、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む、
請求項1に記載の方法。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するステップの前に、
前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む、
請求項1に記載の方法。 - 前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、
前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、
前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、
前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む、
請求項3に記載の方法。 - 前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、
前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む、
請求項1に記載の方法。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化されるステップと、
前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップと、
前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するステップと、を含む、
コンピューティングパワーアプリケーショントラフィックの転送方法。 - 前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの後に、
前記SRHによって示される次ホップが他のSRv6ノードであれば、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックを次ホップにルーティングするステップをさらに含む、
請求項6に記載の方法。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記SRv6ノードは、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するステップの前に、
前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップをさらに含む、
請求項6に記載の方法。 - 前記SRv6ルーティングノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録を行い、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係を作成するステップは、
前記SRv6ノードは、ローカルに帰属するコンピューティングパワーサービスノードのコンピューティングパワーサービス登録要求及びインスタンスノードのリソース状態情報を受信するステップと、
前記SRv6ノードは、ローカルに登録したコンピューティングパワーリソース状態情報を隣接ノードへ通知し、グローバルコンピューティングパワーリソース状態データベースを作成するか、又は、コンピューティングパワーリソース状態情報を、ノースバンドインタフェースを介して集中コントローラへ報告して、前記集中コントローラが前記グローバルコンピューティングパワーリソース状態データベースを作成するようにするステップと、
前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスノードとの間にマッピング関係を確立するステップと、を含む、
請求項8に記載の方法。 - 前記SRv6ノードは、前記コンピューティングパワーサービスと複数のインスタンスとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するステップは、
前記SRv6ノードは、最短経路、負荷分散、経路遅延のうちの少なくとも1つのローカル配置ポリシーに基づいて、前記複数のインスタンスノードから対応するインスタンスノードを選択するステップを含む、
請求項6に記載の方法。 - 前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係は、
エニーキャストAnycastセグメントルーティングSRv6識別子を定義するモードであって、エニーキャストアドレスが、前記コンピューティングパワーサービスを標識し、前記コンピューティングパワーサービスに関連付けられる複数のメンバーアドレスが、前記コンピューティングパワーサービスの前記複数のインスタンスノードを標識するモードと、
コンピューティングパワーサービスセグメントルーティングSRv6識別子CIDを定義するモードであって、前記CIDが、1つの動的インスタンスノードメンバーグループに関連付けられ、各インスタンスノードが、1つの一意な到達可能アドレスに対応するモードと、のうちの1つを含む、
請求項6に記載の方法。 - 前記インスタンスノードがSRv6転送をサポートしていなければ、前記インスタンスノードと前記SRv6ノードとの間のSRv6プロキシを介して、前記コンピューティングパワーアプリケーショントラフィックのSRHカプセル化及びカプセル化解除を行い、前記インスタンスノードをプロキシしてコンピューティングパワーアプリケーショントラフィックの転送を完了するステップをさらに含む、
請求項6に記載の方法。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達する前に、
前記コンピューティングパワーアプリケーショントラフィックがSRv6イングレスノードに到達すると、前記SRv6イングレスノードは、グローバルコンピューティングパワーリソース状態データベースに基づいて、各コンピューティングパワーサービスのインスタンスノードを選択し、原子コンピューティングパワーサービス機能のプログラミングを行うステップをさらに含む、
請求項6に記載の方法。 - 原子コンピューティングパワーサービス機能のプログラミングを行うステップは、
Locator+Function+Argumentの組み合わせにより原子コンピューティングパワーサービス機能を標示するステップであって、Locatorは、コンピューティングパワーサービスインスタンスノードの共通アドレスプレフィックスであり、Functionは、原子コンピューティングパワーサービス機能識別子であり、Argumentは、Functionのオプションパラメータであるステップを含む、
請求項13に記載の方法。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのネットワークサービスヘッダNSHからコンピューティングパワーサービスを解析するように構成される第1の解析モジュールであって、前記コンピューティングパワーサービスが、サービス機能SFとして前記NSHにカプセル化される第1の解析モジュールと、
前記コンピューティングパワーサービスが前記SRv6ノードに帰属する場合、前記コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第1の選択モジュールと、
前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第1の転送モジュールと、を含む、
コンピューティングパワーアプリケーショントラフィックの転送装置。 - コンピューティングパワーアプリケーショントラフィックがSRv6ノードに到達すると、前記コンピューティングパワーアプリケーショントラフィックのセグメントルーティングヘッダSRHからコンピューティングパワーサービスを解析するように構成される第2の解析モジュールであって、前記コンピューティングパワーサービスが、SRv6セグメントリストにおける1ホップとして前記SRHにカプセル化される第2の解析モジュールと、
前記SRHによって示される次ホップがコンピューティングパワーサービスであれば、前記SRv6ノードは、当該コンピューティングパワーサービスと複数のインスタンスノードとの間のマッピング関係に基づいて、対応するインスタンスノードを選択するように構成される第2の選択モジュールと、
前記コンピューティングパワーアプリケーショントラフィックを、選択した前記インスタンスノードに転送するように構成される第2の転送モジュールと、を含む、
コンピューティングパワーアプリケーショントラフィックの転送装置。 - プロセッサによって実行されると、請求項1から14のいずれか1項に記載の方法のステップを実現する、
コンピュータプログラムを格納したコンピュータ読取可能な記憶媒体。 - メモリと、プロセッサと、前記メモリに格納され、前記プロセッサ上で実行可能なコンピュータプログラムと、を含み、前記プロセッサは、前記コンピュータプログラムを実行すると、請求項1から14のいずれか1項に記載の方法のステップを実現する、
電子装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011420427.9 | 2020-12-07 | ||
CN202011420427.9A CN112751826B (zh) | 2020-12-07 | 2020-12-07 | 算力应用流量转发方法及装置 |
PCT/CN2021/112131 WO2022121349A1 (zh) | 2020-12-07 | 2021-08-11 | 算力应用流量转发方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023553086A true JP2023553086A (ja) | 2023-12-20 |
Family
ID=75649044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023534687A Pending JP2023553086A (ja) | 2020-12-07 | 2021-08-11 | コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240022650A1 (ja) |
EP (1) | EP4258598A4 (ja) |
JP (1) | JP2023553086A (ja) |
CN (1) | CN112751826B (ja) |
WO (1) | WO2022121349A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112491739A (zh) * | 2020-07-10 | 2021-03-12 | 中兴通讯股份有限公司 | 一种业务流量处理方法及装置 |
CN112751826B (zh) * | 2020-12-07 | 2024-04-30 | 中兴通讯股份有限公司 | 算力应用流量转发方法及装置 |
CN115378829A (zh) * | 2021-05-17 | 2022-11-22 | 中国移动通信有限公司研究院 | 资源请求方法、装置、算力网元节点及终端设备 |
CN115550234B (zh) * | 2021-06-30 | 2024-04-02 | 中国移动通信有限公司研究院 | 一种信息通告方法、控制器及存储介质 |
CN115567530A (zh) * | 2021-07-02 | 2023-01-03 | 中国移动通信有限公司研究院 | 算力通告的发送方法、装置及算力网元节点 |
CN114070854B (zh) * | 2021-11-26 | 2023-06-27 | 中国联合网络通信集团有限公司 | 算力网络中算力感知和路由方法、系统、设备及介质 |
CN115065631A (zh) * | 2022-03-02 | 2022-09-16 | 广东云下汇金科技有限公司 | 一种算力调度方法、系统及数据中心 |
CN114697400A (zh) * | 2022-04-13 | 2022-07-01 | 中国电信股份有限公司 | 服务调度方法、系统及vtep |
CN117134925A (zh) * | 2022-05-18 | 2023-11-28 | 中国移动通信有限公司研究院 | 一种网络编程技术处理方法、系统及存储介质 |
CN117667366A (zh) * | 2022-08-24 | 2024-03-08 | 中国电信股份有限公司 | 业务处理方法、装置、电子设备及存储介质 |
CN115914402B (zh) * | 2022-11-09 | 2024-03-19 | 中国联合网络通信集团有限公司 | 算力资源节点的确定方法、装置、设备以及存储介质 |
CN116132195B (zh) * | 2023-04-04 | 2023-06-09 | 中通服建设有限公司 | 一种算力网络安全传输保障系统及其方法 |
CN116346938B (zh) * | 2023-05-25 | 2023-08-18 | 新华三技术有限公司 | 一种算力访问方法、装置、电子设备及存储介质 |
CN116708294B (zh) * | 2023-08-08 | 2023-11-21 | 三峡科技有限责任公司 | 基于apn6网络实现智能应用感知及报文转发的方法 |
CN116743878B (zh) * | 2023-08-14 | 2023-10-27 | 新华三技术有限公司 | 算力注册方法、装置、计算机设备及存储介质 |
CN116846818B (zh) * | 2023-09-01 | 2023-12-01 | 北京邮电大学 | 一种算力网络流量调度方法、系统、装置及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10158568B2 (en) * | 2016-02-12 | 2018-12-18 | Huawei Technologies Co., Ltd. | Method and apparatus for service function forwarding in a service domain |
US20190140863A1 (en) * | 2017-11-06 | 2019-05-09 | Cisco Technology, Inc. | Dataplane signaled bidirectional/symmetric service chain instantiation for efficient load balancing |
US10812374B2 (en) * | 2018-09-21 | 2020-10-20 | Cisco Technology, Inc. | Segment routing with fast reroute for container networking |
US10880368B2 (en) * | 2019-01-29 | 2020-12-29 | Cisco Technology, Inc. | Identifying edge clouds within networks |
US11201818B2 (en) * | 2019-04-04 | 2021-12-14 | Cisco Technology, Inc. | System and method of providing policy selection in a network |
CN110532092A (zh) * | 2019-08-21 | 2019-12-03 | 云湾科技(嘉兴)有限公司 | 资源匹配方法、装置及设备 |
CN111865658B (zh) * | 2020-06-05 | 2022-06-07 | 烽火通信科技股份有限公司 | 基于vCPE多租户的租户业务识别映射方法及系统 |
CN111866775B (zh) * | 2020-07-28 | 2021-10-15 | 中国联合网络通信集团有限公司 | 一种业务编排方法及装置 |
CN111988395B (zh) * | 2020-08-18 | 2022-05-17 | 深圳信息职业技术学院 | 一种服务功能链构建系统及方法 |
CN112751826B (zh) * | 2020-12-07 | 2024-04-30 | 中兴通讯股份有限公司 | 算力应用流量转发方法及装置 |
-
2020
- 2020-12-07 CN CN202011420427.9A patent/CN112751826B/zh active Active
-
2021
- 2021-08-11 WO PCT/CN2021/112131 patent/WO2022121349A1/zh active Application Filing
- 2021-08-11 JP JP2023534687A patent/JP2023553086A/ja active Pending
- 2021-08-11 EP EP21902059.1A patent/EP4258598A4/en active Pending
- 2021-08-11 US US18/039,759 patent/US20240022650A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN112751826B (zh) | 2024-04-30 |
WO2022121349A1 (zh) | 2022-06-16 |
EP4258598A1 (en) | 2023-10-11 |
CN112751826A (zh) | 2021-05-04 |
EP4258598A4 (en) | 2024-06-12 |
US20240022650A1 (en) | 2024-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023553086A (ja) | コンピューティングパワーアプリケーショントラフィックの転送方法及び装置 | |
US11095559B1 (en) | Segment routing (SR) for IPV6 (SRV6) techniques for steering user plane (UP) traffic through a set of user plane functions (UPFS) with traffic handling information | |
US11563669B2 (en) | Method for implementing network virtualization and related apparatus and communications system | |
US10021172B2 (en) | Software driven long-term-evolution core network for mobile access | |
EP4329258A1 (en) | Notification method and apparatus for computing power resources, storage medium, and electronic apparatus | |
CN111149330B (zh) | 软件定义网络中的拓扑感知控制器关联 | |
US10630508B2 (en) | Dynamic customer VLAN identifiers in a telecommunications network | |
CN106713137B (zh) | 基于分段路由和sdn技术的vpn方法、装置及系统 | |
US20230275834A1 (en) | Service Traffic Processing Method and Apparatus | |
CN105553680A (zh) | 基于网络特征创建虚拟接口的系统和方法 | |
CN104106242A (zh) | 分片网络中委托转发和地址解析 | |
JP5993817B2 (ja) | キャリア網における経路制御システム及び方法 | |
CN113037527B (zh) | 网络切片创建方法、报文转发方法及其装置 | |
CN113973082A (zh) | 一种报文处理方法及网络设备 | |
CN114374634A (zh) | 报文转发方法以及网络设备 | |
CN105515816B (zh) | 检测层次信息的处理方法及装置 | |
CN112511427A (zh) | 段路由业务处理方法、装置、路由设备及存储介质 | |
US20140185607A1 (en) | Communication system, communication path establishing method and management server | |
CN117118886A (zh) | 报文转发方法、头端设备、控制器、设备及存储介质 | |
CN107294849B (zh) | 业务路径的建立方法、装置及系统 | |
WO2022007702A1 (zh) | 一种报文处理方法及网络设备 | |
CN114124793A (zh) | 转发报文、发布转发指示信息和通告报文的方法及设备 | |
CN108075973A (zh) | 一种设备通信方法和装置 | |
EP4075739B1 (en) | Service chain forwarding control methods and devices | |
WO2024104007A1 (zh) | 报文发送方法、装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230608 |