CN105099847B - 一种多归属接入方法和装置 - Google Patents
一种多归属接入方法和装置 Download PDFInfo
- Publication number
- CN105099847B CN105099847B CN201410186598.8A CN201410186598A CN105099847B CN 105099847 B CN105099847 B CN 105099847B CN 201410186598 A CN201410186598 A CN 201410186598A CN 105099847 B CN105099847 B CN 105099847B
- Authority
- CN
- China
- Prior art keywords
- address
- nve
- network packet
- downlink port
- mac
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/46—Interconnection of networks
- H04L12/4633—Interconnection of networks using encapsulation techniques, e.g. tunneling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/64—Hybrid switching systems
- H04L12/6418—Hybrid transport
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/24—Multipath
- H04L45/245—Link aggregation, e.g. trunking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/64—Routing or path finding of packets in data switching networks using an overlay routing layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/66—Layer 2 routing, e.g. in Ethernet based MAN's
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明提供了一种多归属接入方法和装置,技术方案为:将一个主机通过同一链路聚合组连接到多个NVE,为该链路聚合组生成一虚拟NVE并分配对应的IP地址,将该IP地址下发到所述多个NVE,使得每个NVE基于该IP地址执行以太网报文的封装发送、以及封装报文的接收和解封装处理。本发明可以支持NVE下挂的设备多归属上行部署方式,以实现主机与NVE之间流量的高可靠性和负载分担。
Description
技术领域
本申请涉及通信技术领域,特别涉及一种多归属接入方法和装置。
背景技术
在数据中心网络中,服务器的虚拟化应用越来越广泛,服务器虚拟化之后,一台物理服务器可以支持多台虚拟机(Virtual Machine,VM),每台虚拟机独立运行。利用服务器虚拟化技术,同一数据中心可以为不同租户提供数据托管等业务。租户是数据中心资源的使用者,为了确保租户的数据安全,不同租户之间需要通过虚拟网络进行流量隔离,这就要求数据中心内部物理网络能够划分为不同的虚拟网络。
为实现数据中心内部物理网络中不同虚拟网络的划分,现有技术提供了三层网络虚拟化(Network Virtualization Over Layer3,NVO3)技术。NVO3是一种叠加网络技术,通过引入隧道技术,对虚拟网络的报文进行隧道封装,从而将不同虚拟网络通过不同的虚拟网络标识加以区分。NVO3使用MAC in IP的隧道封装,通过采用24bit的虚拟网络标识,使租户可以创建最大数量为16M相互隔离的虚拟网络。如图1所示的NVO3的数据中心网络结构示意图,在数据中心网络中引入网络虚拟化边缘节点(Network Virtualization Edge,NVE),负责连接和管理租户终端系统(租户终端系统为一主机,具体可以是虚拟机VM、物理计算机或服务器等)。从租户终端系统发出的报文首先到达NVE,由NVE查找MAC转发表;如果确定报文需跨越IP网络,则由NVE对报文进行OVERLAY封装,封装后报文的外层目的IP地址为隧道对端的IP地址;OVERLAY封装报文在IP网络中根据外层目的IP地址逐跳转发,到达目的NVE后进行解封装并发送至目的租户终端系统。
现有实现中,NVE由网络虚拟化集中控制节点(NVA)进行集中的管理和控制。NVO3协议未对NVE作为下挂的设备多归属接入设备的相关功能进行规定,因此目前NVE不支持下挂的设备多归属上行的部署方式,亦即,不允许下挂的设备多归属接入到多个NVE,因此,无法充分利用NVE下挂设备与NVE间的多个数据通道。
发明内容
有鉴于此,本发明的目的在于提供一种多归属接入方法和装置,支持NVE的多归属上行部署方式。
为实现上述目的,本发明提供的技术方案为:
一种多归属接入方法,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE,所述NVA执行下述步骤:
为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
将该IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接到所述主机的端口。
另一种多归属接入方法,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到多个NVE,每个NVE执行下述步骤:
接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址,并将该IP地址配置在自身的下行端口;
在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网;
在从IP骨干网接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并将该原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接所述主机的端口。
一种多归属接入装置,所述装置应用于包括有自身、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE;所述装置包括:分配单元、下发单元;
所述分配单元,用于为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
所述下发单元,用于将所述分配单元为所述虚拟NVE分配的IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE上通过所述链路聚合组的成员链路连接到所述主机的端口。
另一种多归属接入装置,所述装置应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个所述装置的网络中,所述主机通过同一链路聚合组的不同成员链路连接到多个所述装置;所述装置包括:接收单元、配置单元、处理单元、发送单元;
所述接收单元,用于接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址;通过所述装置的下行端口接收需要通过IP网络转发的以太网报文;以及接收IP骨干网下发的OVERLAY封装报文;
所述配置单元,用于将所述接收单元接收到的IP地址配置在所述装置的下行端口;
所述处理单元,用于在所述接收单元接收到以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装,并通知发送单元将封装后得到的OVERLAY封装报文发送到IP骨干网;以及用于在所述接收单元接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并通知发送单元将该原始以太网报文从自身的下行端口发送出去;
其中,所述装置的下行端口为所述装置上通过所述链路聚合组的成员链路连接到所述主机的端口。
综上所述,本发明中,将一个主机通过同一链路聚合组的不同成员链路连接到多个NVE,NVA为该链路聚合组生成一虚拟NVE并分配对应的IP地址,然后下发到所述多个NVE的连接所述主机的端口,使得每个NVE在连接所述主机的端口接收到的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并从IP骨干网接收到的目的IP地址为该IP地址的OVERLAY封装报文,将解封后得到的原始以太网报文从连接所述主机的端口发送出去,从而实现主机多归属接入网络,进而实现了主机与NVE之间流量的高可靠性和负载分担,因此,本发明可以支持NVE下挂的设备多归属上行部署方式。
附图说明
图1是现有技术NVO3的数据中心网络结构示意图;
图2是本发明实施例多归属接入叠加网络的组网示意图;
图3是本发明实施例一多归属接入方法流程图;
图4是本发明实施例二多归属接入方法流程图;
图5是本发明实施例一多归属接入装置的结构示意图;
图6是本发明实施例二多归属接入装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明所述方案作进一步地详细说明。
本发明实施例中,可以使用服务器、虚拟机VM、物理计算机等各种类型的主机实现网络的多归属接入,例如网络为叠加网络等,其实现原理相同,为描述方便,下面以服务器为例进行说明。
参见图2,图2是某应用场景下,本发明实施例中服务器多归属接入叠加网络的组网示意图,如图2所示,包括一个用于管理和控制NVE的网络虚拟化控制节点(NVA)、4个NVE:NVE1、NVE2、NVE3、NVE4、和至少一台服务器,为了实现服务器与NVE之间流量的高可靠性和负载分担,4个NVE均作为所述服务器的多归属接入设备,这样,将服务器同时接入4个NVE,实现多归属接入。由于目前的技术中NVE不支持所述服务器多归属接入,因此,图2所示组网方式在现有技术中无法实现。
为实现图2所示组网,本发明实施例中,将与服务器相连接的4个NVE的端口均加入到同一链路聚合组,使得服务器分别与4个NVE之间的连接链路成为该链路聚合组的成员链路。为了便于叙述,以下将各NVE上通过同一链路聚合组的成员链路连接到服务器的端口称为该NVE的下行端口,例如,NVE1上连接服务器的端口Port1、NVE2上连接服务器的端口Port2、NVE3上连接服务器的端口Port3、以及NVE4上连接服务器的端口Port4。
需要说明的是,在主机为物理计算机时,其组网结构与上述组网结构相同;在主机为VM时,其组网结构与上述组网结构类似,与之不同的是,NVE连接VM的端口为虚拟端口。
进一步地,通过对图2所示组网采用如下操作将服务器多归属接入到由NVA和NVE构成的叠加网络:
分别在NVE1、NVE2、NVE3、NVE4与服务器相连的下行端口上配置相同的域ID,以此标识这4个NVE分别通过同一链路聚合组的不同成员链路与同一设备(也即图2中的服务器)相连。
具体实现时,可以由NVA基于所述链路聚合组为NVE1、NVE2、NVE3、NVE4分配一个域ID,并将域ID分别下发到NVE1、NVE2、NVE3、NVE4与服务器相连的下行端口,NVE1、NVE2、NVE3、NVE4接收到NVA下发的域ID后,均将域ID配置在自身与服务器相连的下行端口。
NVA还为所述链路聚合组生成一个虚拟NVE并分配对应的IP地址(假设为IPi),将该IP地址分别下发到NVE1、NVE2、NVE3、NVE4与服务器相连的下行端口,NVE1、NVE2、NVE3、NVE4接收到NVA下发的该IP地址后,将该IP地址配置在自身与服务器相连的下行端口。至此,各NVE除了自身的IP地址(假设为NVE1、NVE2、NVE3、NVE4的IP地址分别为IP1、IP2、IP3、IP4)外,还拥有所述链路聚合组对应的虚拟NVE的IP地址,即IPi。
当NVE1、NVE2、NVE3、NVE4中的任一NVE在自身与服务器相连的下行端口接收到来自服务器的以太网报文时,当需要跨越IP网络进行转发时,需以所述虚拟NVE的IP地址为源IP地址,对以太网报文进行OVERLAY封装后发送到IP骨干网。
下面以NVE1为例详细说明本发明实现方案:
现有技术中,一个虚拟网络实例代表一个虚拟网络,具有对应的虚拟网络实例标识,以及用于单播报文发送的虚拟网络单播标识和用于组播报文发送的虚拟网络组播标识。通常在端口上将各VLAN划归到不同的虚拟网络并配置对应的虚拟网络实例(VirtualNetwork Instance,VNI)信息,例如端口1上配置了VLAN1到VLAN5,其中,将VLAN1到VLAN3划归到一个虚拟网络(对应于虚拟网络实例1)并配置对应的虚拟网络实例1的相关信息,将VLAN4到VLAN5划归到另一虚拟网络(对应于虚拟网络实例2),并配置对应的虚拟网络实例2的相关信息。这样,当接收到以太网报文时,可以根据接收端口和以太网报文所属VLAN确定对应的虚拟网络实例VNI,从而根据该虚拟网络实例VNI信息对以太网报文进行封装和转发。
当NVE1在自身与服务器相连的下行端口Port1接收到来自服务器的以太网报文时,先根据接收端口(也即NVE1的下行端口Port1)和以太网报文所属VLAN确定对应的虚拟网络实例,然后根据以太网报文类型对报文进行下述处理:
(1)以太网报文为已知单播报文。
当NVE1在下行端口Port1接收到来自服务器的以太网报文为已知单播报文时,在所述虚拟网络实例对应的单播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并根据查找到的转发表项的具体内容对报文进行下述处理:
A1、转发表项中的出端口信息为一物理出端口,表明需对报文进行本地转发,此时,将报文从该物理出端口转发,具体转发流程为现有技术,在此不再详述。
A2、转发表项中的出端口信息为远端NVE的IP地址,表明需要通过IP网络转发报文,在这种情况下,以所述虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址对以太网报文进行基于所述虚拟网络实例的OVERLAY封装,然后转发封装得到的OVERLAY封装报文到IP骨干网,OVERLAY封装报文最终被传输到远端NVE。
这里,以虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址对以太网报文进行基于所述虚拟网络实例的OVERLAY封装,是指:在对以太网报文进行OVERLAY封装时,将所述虚拟NVE的IP地址、该转发表项中的远端NVE的IP地址、所述虚拟网络实例对应的用于发送单播报文的虚拟网络标识分别作为封装后得到的OVERLAY封装报文的源IP地址、目的IP地址、虚拟网络标识。
(2)以太网报文为已知组播报文。
当NVE1在下行端口Port1接收到的来自服务器的以太网报文为已知组播报文时,在所述虚拟网络实例对应的组播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并根据查找到的转发表项的具体内容对报文进行以下两种转发处理:
B1、转发表项的出端口信息中包括一个或多个物理出端口,表明需对报文进行本地转发,此时,将报文从所述一个或多个物理出端口转发,具体转发流程为现有技术,在此不再详述。
B2、转发表项的出端口信息中包括远端NVE的IP地址,表明需要通过IP网络转发报文,此时,只需以所述虚拟NVE的IP地址为源IP地址、以所述虚拟网络实例的组播组地址为目的IP地址对以太网报文进行基于所述虚拟网络实例的OVERLAY封装,然后转发封装得到的OVERLAY封装报文到IP骨干网,OVERLAY封装报文最终被传输到存在组播接收者的所有远端NVE。
(3)以太网报文为未知单播报文、未知组播报文、或广播报文。
当NVE1在下行端口Port1接收到的来自服务器的以太网报文为未知单播报文、未知组播报文、或广播报文时,需要将以太网报文组播方式泛洪到所述虚拟网络实例的所有远端NVE。
具体地,在本发明实施例中,对于这三种报文的转发处理方法为:以所述虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址对以太网报文进行基于所述虚拟网络实例的OVERLAY封装,然后转发封装得到的OVERLAY封装报文到IP骨干网,OVERLAY封装报文最终被传输到存在组播接收者的所有远端NVE。
上述以虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址对以太网报文进行基于所述虚拟网络实例的OVERLAY封装,是指:在对以太网报文进行OVERLAY封装时,将所述虚拟NVE的IP地址、所述虚拟网络实例的组播组地址、所述虚拟网络实例对应的用于发送组播报文的虚拟网络标识分别作为封装后得到的OVERLAY封装报文的源IP地址、目的IP地址、虚拟网络标识。
需要说明的是,上述(1)、(2)、(3)中,对于NVE1来说,所述远端NVE可以是NVE2、NVE3、NVE4、或其他NVE。
当NVE1、NVE2、NVE3、NVE4中的任一NVE从IP骨干网接收到来自远端NVE的OVERLAY封装报文时,需要根据OVERLAY封装报文的源IP地址、目的IP地址的不同对OVERLAY封装报文进行不同的处理。
下面以NVE1为例进行说明:
当NVE1从IP骨干网接收到OVERLAY封装报文时,根据OVERLAY封装报文的源IP地址、目的IP地址的不同,可分为以下三种情况进行处理:
(4)OVERLAY封装报文的源IP地址为所述虚拟NVE的IP地址(IPi)。
如果NVE1从IP骨干网接收到的OVERLAY封装报文的源IP地址为IPi,则说明该OVERLAY封装报文是从NVE1、NVE2、NVE3、或NVE4发出的报文,此前已经做了转发处理,因此不需对该OVERLAY封装报文进行进一步处理,丢弃即可。
(5)OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址(IPi)。
如果NVE1从IP骨干网接收到的OVERLAY封装报文的目的IP地址为IPi,说明该报文是远端NVE以单播方式发送且需要发往NVE1的下行端口(下行端口配置了IPi)的,因此,只需解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并将原始以太网报文从NVE1的下行端口发送到服务器。
(6)OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址。
如果NVE1从IP骨干网接收到的OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址,说明该报文是远端NVE以组播方式发送的,此时可解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并根据虚拟网络实例信息转发原始以太网报文。
其中,根据虚拟网络实例信息转发原始以太网报文的方法为:如果原始以太网报文为单播报文,则在该虚拟网络实例对应的单播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;如果该原始以太网报文为组播报文,则在该虚拟网络实例对应的组播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的所有出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;如果原始以太网报文为广播报文,则对原始以太网报文进行泛洪。
图2所示本发明实施例中,由于服务器通过同一链路聚合组的4成员链路分别连接到4个NVE:NVE1、NVE2、NVE3、NVE4,根据聚合链路组的特性,其中的每个NVE在自身下行端口学习到MAC地址时,需将该MAC地址同步到其他3个NVE的下行端口,从而使得NVE1、NVE2、NVE3、NVE4在各自的下行端口上学习到相同MAC地址,这样在各NVE接收到目的MAC地址为该相同MAC地址的以太网报文时,将以太网报文从本NVE的下行端口发送出去。
MAC地址同步过程可借助NVA实现,具体实现中,任一NVE在自身的下行端口学习到MAC地址时,可以将该MAC地址信息上送到NVA,其中MAC地址信息中应包括该MAC地址和配置在所述任一NVE的下行端口的域ID;NVA根据域ID信息查找到下行端口配置了同样域ID的其它3个NVE,并将该MAC地址信息下发到该3个NVE,该3个NVE接收到该MAC地址信息后,均将该MAC地址信息中包含的MAC地址学习到本NVE的下行端口。
在NVE的下行端口学习到的MAC地址为单播MAC地址(接收到单播报文时学习到的源MAC地址)或组播MAC地址(接收到组播加入报文时学习到的MAC地址)。根据MAC地址类型不同,将MAC地址学习到本NVE的下行端口的方法也不相同。具体包括:当一MAC地址是单播MAC地址时,将该MAC地址学习到本NVE的下行端口的方法为:生成以该MAC地址为目的MAC地址、以本NVE的下行端口为出端口的单播MAC转发表项;当一MAC地址是组播MAC地址时,将该MAC地址学习到本NVE的下行端口的方法为:将本NVE的下行端口加入到该MAC地址对应的组播MAC转发表项。
以上对本发明实施例多归属接入方法进行了原理性说明,基于上述原理性说明,本发明提供了一种应用于NVE的多归属接入方法和一种应用于NVA的多归属接入方法,还提供了一种应用于NVE的多归属接入装置和一种应用于NVA的多归属接入装置,下面分别结合图3、图4、图5、图6进行说明。
参见图3、图3是本发明实施例一多归属接入方法流程图,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机(这里的主机可以是服务器、虚拟机VM、物理计算机)的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE,所述NVA执行下述步骤:
步骤301、为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
步骤302、将该IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接到所述主机的端口。
图3所示方法中,所述NVA还执行下述步骤:
同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口,以使所述多个NVE在各自的下行端口学习到相同MAC地址,并从各自的下行端口转发目的MAC地址为该相同MAC地址的以太网报文。
图3所示方法中,所述NVA还执行下述步骤:
预先基于所述链路聚合组为所述多个NVE分配一个域ID,并将该域ID下发到所述多个NVE的下行端口;
所述NVA执行同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口的步骤,具体包括:
所述NVA接收所述任一NVE在自身的下行端口学习到MAC地址后通告的MAC地址信息,查找与所述任一NVE具有相同域ID的其它所有NVE,将该MAC地址信息下发到查找到的各NVE的下行端口。
参见图4、图4是本发明实施例二多归属接入方法流程图,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机(这里的主机可以是服务器、虚拟机VM、物理计算机)的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到多个NVE,每个NVE执行下述步骤:
步骤401、接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址,并将该IP地址配置在自身的下行端口;
步骤402、在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网;
步骤403、在从IP骨干网接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并将该原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接所述主机的端口。
图4所示方法中,每个NVE还执行下述步骤:
在解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文之前,如果确定出OVERLAY封装报文的源IP地址为所述虚拟NVE的IP地址,则丢弃OVERLAY封装报文。
图4所示方法中,
每个NVE在自身的下行端口接收到以太网报文后,执行以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装的步骤,具体包括:
根据自身的下行端口和以太网报文所属VLAN确定对应的虚拟网络实例;
如果以太网报文为已知单播报文,则在所述虚拟网络实例对应的单播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并以所述虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装;
如果以太网报文为未知单播报文、组播报文或广播报文,则以所述虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装。
图4所示方法中,每个NVE还执行下述步骤:
如果确定出从IP骨干网接收到的OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址,则解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并根据虚拟网络实例信息转发原始以太网报文。
图4所示方法中,
每个NVE执行根据虚拟网络实例信息转发原始以太网报文的步骤,具体包括:
如果原始以太网报文为单播报文,则在该虚拟网络实例对应的单播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果该原始以太网报文为组播报文,则在该虚拟网络实例对应的组播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的所有出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果原始以太网报文为广播报文,则对原始以太网报文进行泛洪。
图4所示方法中,每个NVE还执行下述步骤:
在自身的下行端口学习到MAC地址时,将学习到的MAC地址经由所述NVA同步到所述多个NVE中其它各NVE的下行端口,以使其它各NVE接收到目的MAC为该MAC地址的以太网报文时,从其下行端口转发以太网报文;
如果接收到所述多个NVE中任一其它NVE经由NVA同步来的MAC地址,则将该MAC地址学习到自身的下行端口,并在接收到目的MAC地址为该MAC地址的以太网报文时,从自身的下行端口转发以太网报文。
图4所示方法中,
在每个NVE的下行端口学习到的MAC地址为单播MAC地址或组播MAC地址;
每个NVE执行将该MAC地址学习到自身的下行端口的步骤,具体包括:
当该MAC地址是单播MAC地址时,生成以该MAC地址为目的MAC地址、以自身的下行端口为出端口的单播MAC转发表项;
当该MAC地址是组播MAC地址时,将自身的下行端口加入到该MAC地址对应的组播MAC转发表项。
参见图5,图5是本发明实施例一多归属接入装置的结构示意图,所述装置应用于包括有自身、以及连接到同一主机(这里的主机可以是服务器、虚拟机VM、物理计算机)的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE;所述装置包括:分配单元501、下发单元502;其中,
分配单元501,用于为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
下发单元502,用于将所述分配单元501为所述虚拟NVE分配的IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE上通过所述链路聚合组的成员链路连接到所述主机的端口。
图5所示装置还包括同步单元503;
所述同步单元503,用于同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口,以使所述多个NVE在各自的下行端口学习到相同MAC地址,并从各自的下行端口转发目的MAC地址为该相同MAC地址的以太网报文。
图5所示装置中,
所述分配单元501,进一步用于预先基于所述链路聚合组为所述多个NVE分配一个域ID;
所述下发单元502,进一步用于将所述分配单元501为所述多个NVE分配的域ID下发到所述多个NVE的下行端口;
所述同步单元503,具体用于:接收所述任一NVE在自身的下行端口学习到MAC地址后通告的MAC地址信息,查找与所述任一NVE具有相同域ID的其它所有NVE,通知下发单元502将该MAC地址信息下发到查找到的各NVE的下行端口。
参见图6,图6是本发明实施例二多归属接入装置的结构示意图,所述装置应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机(这里的主机可以是服务器、虚拟机VM、物理计算机)的多个所述装置的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个所述装置;所述装置包括:接收单元601、配置单元602、处理单元603、发送单元604;其中,
接收单元601,用于接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址;通过所述装置的下行端口接收需要通过IP网络转发的以太网报文;以及接收IP骨干网下发的OVERLAY封装报文;
配置单元602,用于将所述接收单元601接收到的IP地址配置在所述装置的下行端口;
处理单元603,用于在所述接收单元601接收到以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装,并通知发送单元604将封装后得到的OVERLAY封装报文发送到IP骨干网;以及用于在所述接收单元601接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并通知发送单元604将该原始以太网报文从自身的下行端口发送出去;
其中,所述装置的下行端口为所述装置上通过所述链路聚合组的成员链路连接到所述主机的端口。
图6所示装置中,
所述处理单元603,进一步用于在解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文之前,如果确定出OVERLAY封装报文的源IP地址为所述虚拟NVE的IP地址,则丢弃OVERLAY封装报文。
图6所示装置中,
所述处理单元603,具体用于根据所述装置的下行端口和以太网报文所属VLAN确定对应的虚拟网络实例;
如果以太网报文为已知单播报文,则在所述虚拟网络实例对应的单播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并以所述虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装;
如果以太网报文为未知单播报文、组播报文或广播报文,则以所述虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装。
图6所示装置中,
所述处理单元603,进一步用于:如果确定出所述接收单元601接收到的OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址,则解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并通知所述发送单元604根据虚拟网络实例信息转发原始以太网报文。
图6所示装置中,
所述发送单元604,具体用于:
如果原始以太网报文为单播报文,则在该虚拟网络实例对应的单播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果该原始以太网报文为组播报文,则在该虚拟网络实例对应的组播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的所有出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果原始以太网报文为广播报文,则对原始以太网报文进行泛洪。
图6所示装置中,还包括学习单元605;
所述接收单元601,进一步用于接收多个所述装置中任一其它装置经由NVA同步来的MAC地址;
所述学习单元605,用于在所述装置的下行端口学习到MAC地址时,通知所述发送单元604将该MAC地址经由所述NVA同步到多个所述装置中其它各装置的下行端口,以使其它各装置接收到目的MAC为该MAC地址的以太网报文时,从其下行端口转发以太网报文;以及用于将所述接收单元601接收到的MAC地址学习到所述装置的下行端口,并在所述接收单元601接收到目的MAC地址为该MAC地址的以太网报文时,通知所述发送单元604从所述装置的下行端口转发以太网报文。
图6所示装置中,
所述学习单元605学习到的MAC地址为单播MAC地址或组播MAC地址;
所述学习单元605,具体用于在学习到的MAC地址是单播MAC地址时,生成以该MAC地址为目的MAC地址、以所述装置的下行端口为出端口的单播MAC转发表项;在学习到的MAC地址是组播MAC地址时,将所述装置的下行端口加入到该MAC地址对应的组播MAC转发表项。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (20)
1.一种多归属接入方法,其特征在于,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE,所述NVA执行下述步骤:
为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
将该IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接到所述主机的端口。
2.根据权利要求1所述的方法,其特征在于,所述NVA还执行下述步骤:
同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口,以使所述多个NVE在各自的下行端口学习到相同MAC地址,并从各自的下行端口转发目的MAC地址为该相同MAC地址的以太网报文。
3.根据权利要求2所述的方法,其特征在于,所述NVA还执行下述步骤:
预先基于所述链路聚合组为所述多个NVE分配一个域ID,并将该域ID下发到所述多个NVE的下行端口;
所述NVA执行同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口的步骤,具体包括:
所述NVA接收所述任一NVE在自身的下行端口学习到MAC地址后通告的MAC地址信息,查找与所述任一NVE具有相同域ID的其它所有NVE,将该MAC地址信息下发到查找到的各NVE的下行端口。
4.一种多归属接入方法,其特征在于,所述方法应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到多个NVE,每个NVE执行下述步骤:
接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址,并将该IP地址配置在自身的下行端口;
在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网;
在从IP骨干网接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并将该原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE通过所述链路聚合组的成员链路连接所述主机的端口。
5.根据权利要求4所述的方法,其特征在于,每个NVE还执行下述步骤:
在解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文之前,如果确定出OVERLAY封装报文的源IP地址为所述虚拟NVE的IP地址,则丢弃OVERLAY封装报文。
6.根据权利要求4所述的方法,其特征在于,每个NVE在自身的下行端口接收到以太网报文后,执行以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装的步骤,具体包括:
根据自身的下行端口和以太网报文所属VLAN确定对应的虚拟网络实例;
如果以太网报文为已知单播报文,则在所述虚拟网络实例对应的单播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并以所述虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装;
如果以太网报文为未知单播报文、组播报文或广播报文,则以所述虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装。
7.根据权利要求6所述的方法,其特征在于,每个NVE还执行下述步骤:
如果确定出从IP骨干网接收到的OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址,则解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并根据虚拟网络实例信息转发原始以太网报文。
8.根据权利要求7所述的方法,其特征在于,每个NVE执行根据虚拟网络实例信息转发原始以太网报文的步骤,具体包括:
如果原始以太网报文为单播报文,则在该虚拟网络实例对应的单播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果该原始以太网报文为组播报文,则在该虚拟网络实例对应的组播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的所有出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果原始以太网报文为广播报文,则对原始以太网报文进行泛洪。
9.根据权利要求4-8中任一权项所述的方法,其特征在于,每个NVE还执行下述步骤:
在自身的下行端口学习到MAC地址时,将学习到的MAC地址经由所述NVA同步到所述多个NVE中其它各NVE的下行端口,以使其它各NVE接收到目的MAC地址为该MAC地址的以太网报文时,从其下行端口转发以太网报文;
如果接收到所述多个NVE中任一其它NVE经由NVA同步来的MAC地址,则将该MAC地址学习到自身的下行端口,并在接收到目的MAC地址为该MAC地址的以太网报文时,从自身的下行端口转发以太网报文。
10.根据权利要求9所述的方法,其特征在于,每个NVE的下行端口学习到的MAC地址为单播MAC地址或组播MAC地址;
每个NVE执行将该MAC地址学习到自身的下行端口的步骤,具体包括:
当该MAC地址是单播MAC地址时,生成以该MAC地址为目的MAC地址、以自身的下行端口为出端口的单播MAC转发表项;
当该MAC地址是组播MAC地址时,将自身的下行端口加入到该MAC地址对应的组播MAC转发表项。
11.一种多归属接入装置,其特征在于,所述装置应用于包括有自身、以及连接到同一主机的多个网络虚拟化边缘节点NVE的网络中,所述主机通过同一链路聚合组的不同成员链路连接到所述多个NVE;所述装置包括:分配单元、下发单元;
所述分配单元,用于为所述链路聚合组生成虚拟NVE且分配对应的IP地址;
所述下发单元,用于将所述分配单元为所述虚拟NVE分配的IP地址下发到所述多个NVE的下行端口,以使每个NVE在自身的下行端口接收到需要通过IP网络转发的以太网报文时,以该IP地址为源IP地址对以太网报文进行OVERLAY封装后发送到IP骨干网,并在从所述IP骨干网接收到OVERLAY封装报文,且确定出OVERLAY封装报文的目的IP地址为该IP地址时,将解封装OVERLAY封装报文得到的原始以太网报文从自身的下行端口发送出去;
其中,每个NVE的下行端口为每个NVE上通过所述链路聚合组的成员链路连接到所述主机的端口。
12.根据权利要求11所述的装置,其特征在于,该装置还包括同步单元;
所述同步单元,用于同步所述多个NVE中任一NVE在自身的下行端口学习到的MAC地址到其它各NVE的下行端口,以使所述多个NVE在各自的下行端口学习到相同MAC地址,并从各自的下行端口转发目的MAC地址为该相同MAC地址的以太网报文。
13.根据权利要求12所述的装置,其特征在于,
所述分配单元,进一步用于预先基于所述链路聚合组为所述多个NVE分配一个域ID;
所述下发单元,进一步用于将所述分配单元为所述多个NVE分配的域ID下发到所述多个NVE的下行端口;
所述同步单元,具体用于接收所述任一NVE在自身的下行端口学习到MAC地址后通告的MAC地址信息,查找与所述任一NVE具有相同域ID的其它所有NVE,通知下发单元将该MAC地址信息下发到查找到的各NVE的下行端口。
14.一种多归属接入装置,其特征在于,所述装置应用于包括有网络虚拟化集中控制节点NVA、以及连接到同一主机的多个所述装置的网络中,所述主机通过同一链路聚合组的不同成员链路连接到多个所述装置;所述装置包括:接收单元、配置单元、处理单元、发送单元;
所述接收单元,用于接收所述NVA为所述链路聚合组生成一虚拟NVE并分配对应的IP地址后下发的该IP地址;通过所述装置的下行端口接收需要通过IP网络转发的以太网报文;以及接收IP骨干网下发的OVERLAY封装报文;
所述配置单元,用于将所述接收单元接收到的IP地址配置在所述装置的下行端口;
所述处理单元,用于在所述接收单元接收到以太网报文时,以所述虚拟NVE的IP地址为源IP地址对以太网报文进行OVERLAY封装,并通知发送单元将封装后得到的OVERLAY封装报文发送到IP骨干网;以及用于在所述接收单元接收到OVERLAY封装报文时,如果确定出OVERLAY封装报文的目的IP地址为所述虚拟NVE的IP地址,则解封装OVERLAY封装报文得到原始以太网报文,并通知发送单元将该原始以太网报文从自身的下行端口发送出去;
其中,所述装置的下行端口为所述装置上通过所述链路聚合组的成员链路连接到所述主机的端口。
15.根据权利要求14所述的装置,其特征在于,
所述处理单元,进一步用于在解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文之前,如果确定出OVERLAY封装报文的源IP地址为所述虚拟NVE的IP地址,则丢弃OVERLAY封装报文。
16.根据权利要求14所述的装置,其特征在于,
所述处理单元,具体用于根据所述装置的下行端口和以太网报文所属VLAN确定对应的虚拟网络实例;
如果以太网报文为已知单播报文,则在所述虚拟网络实例对应的单播MAC转发表中查找以太网报文的目的MAC地址对应的转发表项,并以所述虚拟NVE的IP地址为源IP地址、以该转发表项中的IP地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装;
如果以太网报文为未知单播报文、组播报文或广播报文,则以所述虚拟NVE的IP地址为源IP地址、所述虚拟网络实例的组播组地址为目的IP地址,对以太网报文进行基于所述虚拟网络实例的OVERLAY封装。
17.根据权利要求16所述的装置,其特征在于,
所述处理单元,进一步用于:如果确定出所述接收单元接收到的OVERLAY封装报文的目的IP地址为一虚拟网络实例的组播组地址,则解封装OVERLAY封装报文得到虚拟网络实例信息和原始以太网报文,并通知所述发送单元根据虚拟网络实例信息转发原始以太网报文。
18.根据权利要求17所述的装置,其特征在于,
所述发送单元,具体用于:
如果原始以太网报文为单播报文,则在该虚拟网络实例对应的单播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果该原始以太网报文为组播报文,则在该虚拟网络实例对应的组播MAC转发表中查找原始以太网报文的目的MAC地址对应的转发表项,如果查找到,则从该转发表项的所有出端口发送原始以太网报文,如果未查找到,则对原始以太网报文进行泛洪;
如果原始以太网报文为广播报文,则对原始以太网报文进行泛洪。
19.根据权利要求14-18中任一权项所述的装置,其特征在于,该装置还包括学习单元;
所述接收单元,进一步用于接收多个所述装置中任一其它装置经由NVA同步来的MAC地址;
所述学习单元,用于在所述装置的下行端口学习到MAC地址时,通知所述发送单元将该MAC地址经由所述NVA同步到多个所述装置中其它各装置的下行端口,以使其它各装置接收到目的MAC地址为该MAC地址的以太网报文时,从其下行端口转发以太网报文;以及用于将所述接收单元接收到的MAC地址学习到所述装置的下行端口,并在所述接收单元接收到目的MAC地址为该MAC地址的以太网报文时,通知所述发送单元从所述装置的下行端口转发以太网报文。
20.根据权利要求19所述的装置,其特征在于,
所述学习单元学习到的MAC地址为单播MAC地址或组播MAC地址;
所述学习单元,具体用于在学习到的MAC地址是单播MAC地址时,生成以该MAC地址为目的MAC地址、以所述装置的下行端口为出端口的单播MAC转发表项;在学习到的MAC地址是组播MAC地址时,将所述装置的下行端口加入到该MAC地址对应的组播MAC转发表项。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410186598.8A CN105099847B (zh) | 2014-05-05 | 2014-05-05 | 一种多归属接入方法和装置 |
US15/309,343 US10523464B2 (en) | 2014-05-05 | 2015-05-05 | Multi-homed access |
PCT/CN2015/078262 WO2015169206A1 (en) | 2014-05-05 | 2015-05-05 | Multi-homed access |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410186598.8A CN105099847B (zh) | 2014-05-05 | 2014-05-05 | 一种多归属接入方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105099847A CN105099847A (zh) | 2015-11-25 |
CN105099847B true CN105099847B (zh) | 2019-01-08 |
Family
ID=54392147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410186598.8A Active CN105099847B (zh) | 2014-05-05 | 2014-05-05 | 一种多归属接入方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10523464B2 (zh) |
CN (1) | CN105099847B (zh) |
WO (1) | WO2015169206A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016116939A1 (en) * | 2015-01-19 | 2016-07-28 | Hewlett-Packard Development Company, L.P. | Engines to prune overlay network traffic |
US10187218B2 (en) * | 2015-09-15 | 2019-01-22 | Google Llc | Systems and methods for processing packets in a computer network |
CN106936939B (zh) * | 2015-12-31 | 2020-06-02 | 华为技术有限公司 | 一种报文处理方法、相关装置及nvo3网络系统 |
CN107294857B (zh) * | 2016-04-05 | 2021-04-30 | 中兴通讯股份有限公司 | 组播的分发处理方法、装置及系统 |
CN107547344B (zh) * | 2017-06-30 | 2020-11-27 | 新华三技术有限公司 | Vxlan报文处理方法及装置 |
CN109327397A (zh) * | 2017-08-01 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 数据发送、数据重发、数据处理方法与装置 |
US10938819B2 (en) * | 2017-09-29 | 2021-03-02 | Fisher-Rosemount Systems, Inc. | Poisoning protection for process control switches |
US20190182202A1 (en) * | 2017-12-12 | 2019-06-13 | Nokia Solutions And Networks Oy | System and method for route optimization in a multichasiss link aggregation configuration |
CN111049752B (zh) * | 2019-12-17 | 2023-01-10 | 锐捷网络股份有限公司 | 多传输线路的负载均衡方法及装置 |
CN113141290B (zh) * | 2020-01-19 | 2023-12-19 | 华为技术有限公司 | 一种报文传输方法、装置及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101170512A (zh) * | 2007-11-21 | 2008-04-30 | 中兴通讯股份有限公司 | 报文业务处理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100539529C (zh) * | 2006-03-14 | 2009-09-09 | 华为技术有限公司 | 共享接入网的通讯系统及其进行业务报文交互的方法 |
CN101247299B (zh) * | 2007-02-14 | 2010-11-17 | 华为技术有限公司 | 一种实现多归属网络接入的方法和多归属网络系统 |
CN101039277A (zh) | 2007-04-12 | 2007-09-19 | 华为技术有限公司 | 一种负载分担方法及装置 |
WO2012122166A2 (en) * | 2011-03-07 | 2012-09-13 | Clean Ethics, Llc | Cleaning formulations and uses thereof |
US20140006585A1 (en) * | 2012-06-29 | 2014-01-02 | Futurewei Technologies, Inc. | Providing Mobility in Overlay Networks |
WO2014052485A1 (en) * | 2012-09-26 | 2014-04-03 | Huawei Technologies Co. Ltd. | Overlay virtual gateway for overlay networks |
US9686178B2 (en) * | 2013-07-22 | 2017-06-20 | Vmware, Inc. | Configuring link aggregation groups to perform load balancing in a virtual environment |
US10120729B2 (en) * | 2014-02-14 | 2018-11-06 | Vmware, Inc. | Virtual machine load balancing |
-
2014
- 2014-05-05 CN CN201410186598.8A patent/CN105099847B/zh active Active
-
2015
- 2015-05-05 US US15/309,343 patent/US10523464B2/en active Active
- 2015-05-05 WO PCT/CN2015/078262 patent/WO2015169206A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101170512A (zh) * | 2007-11-21 | 2008-04-30 | 中兴通讯股份有限公司 | 报文业务处理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170078115A1 (en) | 2017-03-16 |
WO2015169206A1 (en) | 2015-11-12 |
US10523464B2 (en) | 2019-12-31 |
CN105099847A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105099847B (zh) | 一种多归属接入方法和装置 | |
CN109218178B (zh) | 一种报文处理方法及网络设备 | |
US10659358B2 (en) | Method and apparatus for advanced statistics collection | |
CN111147383B (zh) | 报文转发的方法、发送报文的装置和接收报文的装置 | |
CN106936777B (zh) | 基于OpenFlow的云计算分布式网络实现方法、系统 | |
US10693766B2 (en) | Engines to prune overlay network traffic | |
CN104954218B (zh) | 分布式虚拟交换装置及转发方法 | |
US8694664B2 (en) | Active-active multi-homing support for overlay transport protocol | |
US10484303B2 (en) | Replication with dedicated metal deployment in a cloud | |
CN104009926B (zh) | Evi网络中的组播方法及边缘设备ed | |
Naranjo et al. | Underlay and overlay networks: The approach to solve addressing and segmentation problems in the new networking era: VXLAN encapsulation with Cisco and open source networks | |
CN112565046B (zh) | 同步多播路由器能力 | |
US9504016B2 (en) | Optimized multicast routing in a Clos-like network | |
EP3402130B1 (en) | Information transmission method and device | |
CN105187311B (zh) | 一种报文转发方法及装置 | |
US10003518B2 (en) | Span session monitoring | |
WO2020220459A1 (zh) | 基于VXLAN和OpenFlow的虚拟家庭网络共享方法及系统 | |
US9755970B2 (en) | Information processing method, device and system | |
US10104035B2 (en) | Active-active access to transparent interconnection of lots of links (TRILL) edges | |
US9548887B2 (en) | Proactive creation of multicast state in an overlay transport network to achieve fast convergence on failover | |
Naqvi | Overview and Design of VXLAN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 310052 Binjiang District Changhe Road, Zhejiang, China, No. 466, No. Applicant after: Xinhua three Technology Co., Ltd. Address before: 310052 Binjiang District Changhe Road, Zhejiang, China, No. 466, No. Applicant before: Huasan Communication Technology Co., Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |