CN103988483A - 用于网络加速器的动态适应的系统和方法 - Google Patents

用于网络加速器的动态适应的系统和方法 Download PDF

Info

Publication number
CN103988483A
CN103988483A CN201280061431.8A CN201280061431A CN103988483A CN 103988483 A CN103988483 A CN 103988483A CN 201280061431 A CN201280061431 A CN 201280061431A CN 103988483 A CN103988483 A CN 103988483A
Authority
CN
China
Prior art keywords
network
equipment
core
server
wan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280061431.8A
Other languages
English (en)
Other versions
CN103988483B (zh
Inventor
M·穆尔吉亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citrix Systems Inc
Original Assignee
Citrix Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citrix Systems Inc filed Critical Citrix Systems Inc
Publication of CN103988483A publication Critical patent/CN103988483A/zh
Application granted granted Critical
Publication of CN103988483B publication Critical patent/CN103988483B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1025Dynamic adaptation of the criteria on which the server selection is based
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/101Server selection for load balancing based on network conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1029Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers using data related to the state of servers by a load balancer

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Stored Programmes (AREA)

Abstract

本发明的系统和方法通过动态且自动地对变化的网络工作负载做出反应,提供了更优的解决方案。启动缓慢的系统,通过仅被动地检查流量或者通过执行次优加速,可以随着时间的过去获悉设备正在服务多少对等WAN优化器、多少流量来自每个对等WAN优化器,以及正被查看的流量的类型。来自该获悉的知识可用于为设备的配置提供更好或改进的基准。在一些实施例中,基于资源(例如CPU、存储器、盘),系统可根据该知识确定应该使用多少WAN优化实例及实例的大小,以及确定应该如何在WAN优化器的实例之间分布负载。

Description

用于网络加速器的动态适应的系统和方法
相关申请
本申请要求在2011年10月14日提交的、标题为“Systems and MethodsFor Dynamic Adaptation of Network Accelerators”、申请号为61/547493的美国临时专利申请的权益和优先权,该美国临时专利申请通过引用被全部包含于此。
技术领域
本公开总的涉及数据通信网络。特别地,本公开涉及用于平台上的网络加速器的动态适应的系统和方法。
背景技术
传统的网络元件已被开发和部署为离散的网络设备和功能。如此,已经以特定的方式来部署它们,并且其大小已被设置为适用于某种网络流量模型。该模型可以是从与“对于这个链路我需要千兆比特速度”一样简单的模型到更加复杂的模型,其中,在确定网络元件的大小的模型中测量和布置流量分析以及峰值负载。
发明内容
随着通常的计算并且特别是网络迁移到更加虚拟化的环境,使用现有模型存在几个问题。由于工作负载变得更为机动和动态,传统的网络工程变成几乎不可用,并且必须使用新的机制来使网络基础设施“适应”所提供的负载。
在一些部署中,可使用负载平衡器来对多个WAN优化器进行负载平衡。在进一步的部署中,可使用虚拟化负载平衡器来对多个虚拟化WAN优化器进行负载平衡。可将负载平衡器配置为使用或应用多个负载平衡方法中的任何一个,例如但不限于最少连接方法、采用代理id持久性的最少连接、静态配置、使用接收带宽的最少累计负载、采用代理id持久性的使用接收带宽的最少累计负载,以及源互联网协议(IP)哈希。这些方法中的每一个可关于对WAN优化器进行负载平衡提供多样的负载平衡效果、压缩历史性能、带宽管理以及简单性。对于所有的部署,可能不存储在通用的解决方案。在部署方便和WAN优化之间可能存在权衡。
本解决方案的系统和方法通过动态且自动地对变化的网络工作负载做出反应,提供了更优的解决方案。启动缓慢的系统,通过仅被动地检查流量或者通过执行次优加速,可以随着时间的过去获悉设备正在服务多少对等WAN优化器、多少流量来自每个对等WAN优化器,以及正被查看的流量的类型。来自该获悉的知识可用于为设备的配置提供更好或改进的基准。在一些实施例中,基于资源(例如CPU、存储器、盘),系统根据该知识可以确定应该使用多少WAN优化实例及实例的大小,以及确定应该如何在WAN优化器的实例之间分布负载。一些示例的规则如下:
1.如果存在少量的对等WAN优化器,则应在设备上提供更少数量的大的WAN优化器实例,这是因为压缩历史将不太零碎且压缩率更高(更好)
2.当对等WAN优化器的大小明显不同时,应在WAN优化器实例之间非平均地分布它们(可能使用不同大小的WAN优化器实例)
随着时间的过去,系统可以持续监控工作负载的变化,并且根据需要改变负载分布,例如因为第一遍压缩(高CPU利用)正被广泛使用,并且压缩历史片段效应会最小,而添加附加的WAN优化器实例。或者,来自远程站点的流量显著增大,并且需要较大的WAN优化器实例来保持压缩历史不被分段。
在一个方面,本解决方案涉及用于管理在中间装置上执行的广域网(WAN)优化器的多个实例的方法。所述方法包括在多个客户机和多个服务器中间的装置上建立广域网(WAN)优化器的多个实例,以对在多个客户机和多个服务器之间的WAN通信进行加速。所述方法包括由所述装置为WAN优化器的多个实例中的每一个监控穿过该装置的网络流量,以及由在所述装置上执行的管理器响应于监控来选择改变负载平衡方案,以对WAN优化器的多个实例进行负载平衡。
所述方法可以由所述装置基于通过监控WAN优化器的多个实例的先前执行所存储的数据,自动建立WAN优化器的多个实例中的每一个的大小的配置。WAN优化器的多个实例中的每一个可执行为虚拟化环境中的虚拟机。
在一些实施例中,所述方法包括由所述装置监控WAN优化器的多个实例中的每一个的压缩历史分配、压缩片段和压缩率。在一些实施例中,所述方法包括由所述装置监控WAN优化器的多个实例中的每一个的下列一个或多个:资源利用、连接数量、所要求的物体的数量以及带宽使用。
在一些实施例中,所述方法包括由所述装置确定通过监控网络流量所计算的指标已经超过阈值,并且响应于该确定由所述装置自动地选择第二负载平衡方案,以对WAN优化器的多个实例进行负载平衡。在一些实施例中,所述方法包括由所述装置在执行WAN优化器的多个实例的同时,从所述负载平衡方案自动转换为所选择的负载平衡方案。在一些实施例中,所述方法包括由所述装置响应于监控,自动地改变在所述装置上执行的WAN优化器的实例的数量。在一些实施例中,所述方法包括由所述装置响应于监控,自动地调整由WAN优化器的多个实例中的一个或多个使用的资源使用的大小。所述方法还包括由所述装置将一个或多个规则应用于通过监控收集的数据,以确定改变下列一个或多个:WAN优化器的实例的数量、一个或多个WAN优化器的大小,以及负载平衡方案。
在一些方面,本解决方案涉及一种用于管理在中间装置上执行的广域网(WAN)优化器的多个实例的系统。所述系统包括在多个客户机和多个服务器中间的装置,以及在所述装置上执行的广域网(WAN)优化器的多个实例,其对在多个客户机和多个服务器之间的WAN通信进行加速。所述系统包括为WAN优化器的多个实例中的每一个监控穿过所述装置的网络流量的监控器;以及在所述装置上执行的管理器,其响应于所述监控器选择改变负载平衡方案,以对WAN优化器的多个实例进行负载平衡。
在一些实施例中,所述管理器基于通过监控WAN优化器的多个实例的先前执行所存储的数据,自动建立WAN优化器的多个实例中的每一个的大小的配置。在一些实施例中,WAN优化器的多个实例中的每一个执行为虚拟化环境中的虚拟机。
在一些实施例中,所述监控器监控WAN优化器的多个实例中的每一个的压缩历史分配、压缩片段和压缩率。在一些实施例中,所述监控器监控WAN优化器的多个实例中的每一个的下列一个或多个:资源利用、连接数量、所要求物体的数量以及带宽使用。
在一些实施例中,所述管理器确定通过监控网络流量所计算的指标已经超过阈值,并且响应于该确定自动地选择第二负载平衡方案,以对WAN优化器的多个实例进行负载平衡。在一些实施例中,所述管理器在执行WAN优化器的多个实例的同时,从当前负载平衡方案自动地转换为所选择的负载平衡方案。在一些实施例中,所述管理器响应于监控,自动地改变在所述装置上执行的WAN优化器的实例的数量。在一些实施例中,所述管理器响应于监控,自动地调整由WAN优化的多个实例中的一个或多个使用的资源使用的大小。在一些实施例中,所述管理器将一个或多个规则应用于通过监控收集的数据,以确定改变下列一个或多个:WAN优化器的实例的数量、一个或多个WAN优化器的大小,以及负载平衡方案。
在下文的附图和具体实施例中描述本发明的各个实施例的细节。
附图说明
通过参考下述结合附图的描述,本发明的前述和其它目的、方面、特征和优点将会更加明显并更易于理解,其中:
图1A是客户机经由一个或多个网络优化设备访问服务器的网络环境的实施例的框图;
图1B是客户机经由一个或多个网络优化设备连同其他网络设备访问服务器的网络环境的另一个实施例的框图;
图1C是客户机经由单独部署或与其他网络设备一起部署的单个网络优化设备访问服务器的网络环境的另一个实施例的框图;
图1D和1E是计算装置的实施例的框图;
图2A是用于处理客户机和服务器之间的通信的设备的实施例的框图;
图2B是部署设备的网络优化特征的客户机和/或服务器的另一个实施例的框图;
图2C是用于处理客户机和服务器之间的通信的设备的实施例的框图;
图3是用于使用网络优化特征与服务器通信的客户机的实施例的框图;
图4A是虚拟化环境的实施例的框图;
图4B是虚拟化环境的又一个实施例的框图;
图4C是虚拟化网络优化引擎的实施例的框图;
图4D是虚拟化应用传送控制器的实施例的框图;
图5A是在多核系统中实现并行机制的方法实施例的框图;
图5B是使用多核系统的系统实施例的框图;
图5C是多核系统的一个方面的另一实施例的框图;
图6A是用于虚拟设备的动态适应的虚拟化平台的实施例的框图;
图6B是用于虚拟设备的负载平衡方法的实施例的流程图;
图6C是用于虚拟设备的动态适应的系统的实施例的框图;
图6D是用于虚拟设备的动态适应的方法的实施例的框图。
从下面结合附图所阐述的详细描述,本发明的特征和优点将更明显,其中,同样的参考标记在全文中标识相应的元素。在附图中,同样的附图标记通常表示相同的、功能上相似的和/或结构上相似的元素。
具体实施方式
为了阅读下文各种实施例的描述,下述对于说明书的部分以及它们各自内容的描述是有用的:
-A部分描述可用于实施本发明的实施例的网络环境和计算环境;
-B部分描述用于将计算环境加速传送到远程用户的系统和设备架构的实施例;
-C部分描述用于加速客户机和服务器之间的通信的客户机代理的实施例;
-D部分描述用于对网络优化引擎进行虚拟化的系统和方法的实施例;
-E部分描述用于提供多核架构和环境的系统和方法的实施例;以及
-F部分描述用于虚拟设备的动态适应的系统和方法的实施例。
A.网络和计算环境
在讨论设备和/或客户机的系统和方法的实施例的细节之前,讨论可在其中部署这样的实施例的网络和计算环境是有帮助的。现在参见图1A,描述了网络环境的实施例。概括来讲,网络环境包括经由一个或多个网络104、104’、104”与一个或多个服务器106a-106n(同样总的称为服务器106,或远程机器106)通信的一个或多个客户机102a-102n(同样总的称为本地机器102,或客户机102)。在一些实施例中,客户机102经由一个或多个网络优化设备200、200’(总的称为设备200)与服务器106通信。在一个实施例中,网络优化设备200被设计为、配置为或适合于优化广域网(WAN)网络流量。在一些实施例中,第一设备200与第二设备200’结合或协同工作来优化网络流量。例如,第一设备200可位于分支机构和WAN连接之间而第二设备200’位于WAN和公司局域网(LAN)之间。设备200、200’可一起工作以优化在分支机构中的客户机和公司LAN上的服务器之间的WAN相关的网络流量。
虽然图1A示出了在客户机102和服务器106之间的网络104、网络104’和网络104”(总的称为网络104),但客户机102和服务器106可以位于同一个的网络104上。网络104、104’、104”可以是相同类型的网络或不同类型的网络。网络104可为局域网(LAN)(例如公司内网),城域网(MAN),或者广域网(WAN)(例如互联网或万维网)。网络104、104’、104”可为专用网络或公网。在一个实施例中,网络104’和网络104”可为专用网而网络104可为公网。在一些实施例中,网络104可为专用网而网络104’和/或网络104”可为公网。在又一个实施例中,网络104、104’、104”可都为专用网。在一些实施例中,客户机102可位于公司企业的分支机构中,经由网络104上的WAN连接与位于公司数据中心中的公司LAN上的服务器106进行通信。
网络104可以是任何类型和/或形式的网络,并且可包括任何下列任何一种网络:点对点网络,广播网络,广域网,局域网,电信网络,数据通信网络,计算机网络,ATM(异步传输模式)网络,SONET(同步光纤网络)网络,SDH(同步数字体系)网络,无线网络和有线网络。在一些实施例中,网络104可以包括诸如红外信道或者卫星频带的无线链路。网络104的拓扑可为总线型、星型或环型网络拓扑。网络104以及网络拓扑可以是本领域普通技术人员所知的能够支持此处描述的操作的任何这样的网络或网络拓扑。
如图1A所示,第一网络优化设备200被显示在网络104和104’之间,并且第二网络优化设备200’也在网络104’和104”之间。在一些实施例中,设备200可位于网络104上。例如,公司企业可在分支机构中部署设备200。在其它实施例中,设备200可以位于网络104’上。在一些实施例中,设备200可以位于网络104’或网络104”上。例如,设备200可位于公司的数据中心。在一个实施例中,设备200和200’在同一网络上,在又一个实施例中,设备200和200’在不同的网络上。
在一个实施例中,设备200是用于加速、优化或者以其他方式改善任何类型和形式的网络流量的性能、操作或服务质量的装置。在一些实施例中,设备200是一个性能增强代理。在其它实施例中,设备200是任何类型和形式的WAN优化或加速装置,有时也被称为WAN优化控制器。在一个实施例中,设备200是由位于佛罗里达州Ft.Lauderdale的Citrix Systems公司出品的被称为WANScaler的产品实施例中的任何一种。在其它实施例中,设备200包括由位于华盛顿州Seattle的F5Networks公司出品的被称为BIG-IP链路控制器和WANjet的产品实施例中的任何一种。在又一个实施例中,设备200包括由位于加利福尼亚州Sunnyvale的Juniper NetWorks公司出品的WX和WXC WAN加速装置平台中的任何一种。在一些实施例中,设备200包括由加利福尼亚州San Francisco的Riverbed Technology公司出品的虹鳟(steelhead)系列WAN优化设备中的任何一种。在其它实施例中,设备200包括由位于新泽西州Roseland的Expand Networks公司出品的WAN相关装置中的任何一种。在一个实施例中,设备200包括由位于加利福尼亚州Cupertino的Packeteer公司出品的任何一种WAN相关设备,例如由Packeteer提供的PacketShaper、iShared和SkyX产品实施例。在又一个实施例中,设备200包括由位于加利福尼亚州San Jose的Cisco Systems公司出品的任何WAN相关设备和/或软件,例如Cisco广域网应用服务软件和网络模块以及广域网引擎设备。
在一些实施例中,设备200为分支机构或远程办公室提供应用和数据加速服务。在一个实施例中,设备200包括广域文件服务(WAFS)的优化。在又一个实施例中,设备200加速文件的传送,例如经由通用互联网文件系统(CIFS)协议。在其它实施例中,设备200在存储器和/或存储装置中提供高速缓存来加速应用和数据的传送。在一个实施例中,设备200在任何级别的网络堆栈或在任何的协议或网络层中提供网络流量的压缩。在又一个实施例中,设备200提供传输层协议优化、流量控制、性能增强或修改和/或管理,以加速WAN连接上的应用和数据的传送。例如,在一个实施例中,设备200提供传输控制协议(TCP)优化。在其它实施例中,设备200提供对于任何会话或应用层协议的优化、流量控制、性能增强或修改和/或管理。在下文的B部分中讨论设备200的架构、操作和优化技术的进一步的细节。
仍参考图1A,网络环境可包括多个逻辑分组的服务器106。在这些实施例中,服务器的逻辑分组可以被称为服务器群38。在这些实施例的一些中,服务器106可为地理上分散的。在一些情况中,群38可以作为单个实体被管理。在其它实施例中,服务器群38包括多个服务器群38。在一个实施例中,服务器群代表一个或多个客户机102执行一个或多个应用程序。
在每个群38中的服务器106可为不同种类。一个或多个服务器106可根据一种类型的操作系统平台(例如,由华盛顿州Redmond的Microsoft公司制造的WINDOWS NT)操作,而一个或多个其它服务器106可根据另一类型的操作系统平台(例如,Unix或Linux)操作。每个群38的服务器106不需要与同一群38内的另一个服务器106物理上接近。因此,被逻辑分组为群38的服务器106组可使用广域网(WAN)连接或城域网(MAN)连接互联。例如,群38可包括物理上位于不同大陆或大陆的不同区域、国家、州、城市、校园或房间的服务器106。如果使用局域网(LAN)连接或一些直连形式来连接服务器106,则可增加群38中的服务器106间的数据传送速度。
服务器106可指文件服务器、应用服务器、web服务器、代理服务器或者网关服务器。在一些实施例中,服务器106可以有作为应用服务器或者作为主应用服务器工作的能力。在一个实施例中,服务器106可包括活动目录。客户端102也可称为客户端节点或端点。在一些实施例中,客户机102可以有作为客户机节点寻求访问服务器上的应用的能力,也可以有作为应用服务器为其它客户机102a-102n提供对寄载的应用的访问的能力。
在一些实施例中,客户端102与服务器106通信。在一个实施例中,客户端102可与群38中的服务器106的其中一个直接通信。在又一个实施例中,客户端102执行程序邻近应用(program neighborhood application)以与群38内的服务器106通信。在又一个实施例中,服务器106提供主节点的功能。在一些实施例中,客户端102通过网络104与群38中的服务器106通信。通过网络104,客户机102例如可以请求执行由群38中的服务器106a-106n寄载的各种应用,并接收应用执行结果的输出进行显示。在一些实施例中,只有主节点提供识别和提供与寄载所请求的应用的服务器106’相关的地址信息所需的功能。
在一个实施例中,服务器106提供web服务器的功能。在又一个实施例中,服务器106a接收来自客户机102的请求,将请求转发到第二服务器106b,并使用来自服务器106b对该请求的响应来对客户机102的请求进行响应。在又一个实施例中,服务器106获得客户机102可用的应用的列举以及与由该应用的列举所识别的应用的服务器106相关的地址信息。在又一个实施例中,服务器106使用web接口将对请求的响应提供给客户机102。在一个实施例中,客户端102直接与服务器106通信以访问所识别的应用。在又一个实施例中,客户机102接收由执行服务器106上所识别的应用而产生的诸如显示数据的应用输出数据。
与其他设备一起部署
现在参考图1B,描述了网络环境的又一个实施例,在其中,网络优化设备200和诸如网关、防火墙或加速设备的一个或多个其他设备205、205’(总的称为设备205或第二设备205)部署在一起。例如,在一个实施例中,设备205是防火墙或安全设备,而设备205’是LAN加速设备。在一些实施例中,客户机102可通过一个或多个第一设备200和一个或多个第二设备205与服务器106通信。
一个或多个设备200和205可以位于在客户机102和服务器106之间的网络或网络通信路径中的任一点处。在一些实施例中,第二设备205可与第一设备200位于同一网络104上。在其他实施例中,第二设备205可位于与第一设备200不同的网络104上。在又一个实施例中,第一设备200和第二设备205在同一网络上,例如网络104,而第一设备200’和第二设备205’在同一网络上,例如网络104’。
在一个实施例中,第二设备205包括任何类型和形式的传输控制协议或传输后终止装置,例如网关或防火墙装置。在一个实施例中,设备205通过与客户机建立第一传输控制协议连接并且与第二设备或服务器建立第二传输控制协议连接来终止传输控制协议。在又一个实施例中,设备205通过改变、管理或控制在客户机和服务器或第二设备之间的传输控制协议连接的行为来终止传输控制协议。例如,设备205可以改变、排队、转发或传输网络分组以有效地终止传输控制协议连接或者起到终止该连接的作用或模拟为终止该连接。
在一些实施例中,第二设备205是性能增强代理。在一个实施例中,设备205提供虚拟专用网(VPN)连接。在一些实施例中,设备205提供安全套接字层VPN(SSL VPN)连接。在其他实施例中,设备205提供基于Ipsec(互联网协议安全)的VPN连接。在一些实施例中,设备205提供任何一个或多个下列功能:压缩、加速、负载平衡、交换/路由、缓存和传输控制协议(TCP)加速。
在一个实施例中,设备205是由位于佛罗里达州Ft.Lauderdale的CitrixSystems公司出品的被称为访问网关、应用防火墙、应用网关或NetScaler的产品实施例中的任何一种。这样,在一些实施例中,设备200包括执行诸如SSL VPN连通、SSL卸载、交换/负载平衡、域名服务解析、LAN加速和应用防火墙的服务或功能的任何逻辑、功能、规则或操作。
在一些实施例中,设备205提供在客户机102和服务器106之间的SSLVPN连接。例如,第一网络104上的客户端102请求建立到第二网络104’上的服务器106的连接。在一些实施例中,第二网络104”是不能从第一网络104路由的。在其它实施例中,客户端102位于公用网络104上,而服务器106位于专用网络104’上,例如公司网。在一个实施例中,客户机代理拦截第一网络104上的客户机102的通信,加密该通信,并且经第一传输层连接发送该通信到设备205。设备205将第一网络104上的第一传输层连接与到第二网络104上的服务器106的第二传输层连接相关联。设备205接收来自客户端代理的被拦截的通信,解密该通信,并且经第二传输层连接发送该通信到第二网络104上的服务器106。第二传输层连接可以是池化的传输层连接。在一个实施例中,设备205为在两个网络104和104’之间的客户机102提供端到端安全传输层连接。
在一个实施例中,设备205寄载虚拟专用网络104上的客户机102的内部网互联网协议或者IntranetIP地址。客户机102具有本地网络标识符,诸如第一网络104上的互联网协议(IP)地址和/或主机名称。当经由设备205连接到第二网络104’时,设备205在第二网络104’上为客户机102建立、分配或者以其它方式提供IntranetIP(内部网IP),其是诸如IP地址和/或主机名称的网络标识符。使用客户机的所建立的IntranetIP,设备205在第二或专用网104’上监听并接收指向该客户机102的任何通信。在一个实施例中,设备205在第二专用网络104上用作或者代表客户机102。
在一些实施例中,设备205具有加密引擎,所述加密引擎提供用于操控诸如SSL或TLS的任何安全相关协议或其中涉及的任何功能的处理的逻辑、商业规则、功能或操作。例如,加密引擎加密并解密通过设备205传输的网络分组,或其任何部分。加密引擎也可代表客户机102a-102n、服务器106a-106n或设备200、205来设置或建立SSL或TLS连接。因此,加密引擎提供SSL处理的卸载和加速。在一个实施例中,加密引擎使用隧道协议来提供在客户机102a-102n和服务器106a-106n间的虚拟专用网络。在一些实施例中,加密引擎使用加密处理器。在其它实施例中,加密引擎包括运行在加密处理器260上的可执行指令。
在一些实施例中,设备205为在客户机102和服务器106之间的通信提供下列一个或多个加速技术:1)压缩、2)解压缩、3)传输控制协议池、4)传输控制协议多路复用、5)传输控制协议缓冲、以及6)高速缓存。在一个实施例中,设备200通过打开与每一服务器106的一个或者多个传输层连接并且维持这些连接以允许由客户机经由互联网的重复数据访问,来为服务器106缓解由重复打开和关闭到客户机102的传输层连接所造成的大量处理负载。该技术此处称为“连接池”。
在一些实施例中,为了经由池化的传输层连接无缝拼接从客户机102到服务器106的通信,设备205通过在传输层协议级修改序列号和确认号来转换或多路复用通信。这被称为“连接多路复用”。在一些实施例中,不需要应用层协议相互作用。例如,在到来的分组(即,自客户机102接收的分组)的情况中,所述分组的源网络地址被改变为设备205的输出端口的网络地址,而目的网络地址被改为目的服务器的网络地址。在发出的分组(即,自服务器106接收的一个分组)的情况中,源网络地址被从服务器106的网络地址改变为设备205的输出端口的网络地址,而目的地址被从设备205的网络地址改变为请求的客户机102的网络地址。分组的序列号和确认号也被转换为到客户机102的设备205的传输层连接上的由客户机102所期待的序列号和确认。在一些实施例中,传输层协议的分组校验和被重新计算以计及这些转换。
在又一个实施例中,设备205为客户机102和服务器106之间的通信提供交换或负载平衡功能。在一些实施例中,设备205根据层4有效载荷或应用层请求数据来分配流量并将客户机请求定向到服务器106。在一个实施例中,尽管网络分组的网络层或者层2标识了目的服务器106,但设备205利用承载为传输层分组的有效载荷的数据和应用信息来确定服务器106以便分发网络分组。在一个实施例中,设备205的健康监控程序监控服务器的健康来确定分发客户机请求到哪个服务器106。在一些实施例中,如果设备205检测到某个服务器106不可用或者具有超过预定阈值的负载,设备205可以将客户机请求定向或者分发到另一个服务器106。
在一些实施例中,设备205用作域名服务(DNS)解析器或以其他方式提供对来自客户机102的DNS请求的解析。在一些实施例中,设备拦截由客户机102发送的DNS请求。在一个实施例中,设备205以设备205的IP地址或其所寄载的IP地址来响应客户机的DNS请求。在此实施例中,客户机102把用于该域名的网络通信发送到设备200。在又一个实施例中,设备200以第二设备200’的或其所寄载的IP地址来响应客户机的DNS请求。在一些实施例中,设备205使用由设备200确定的服务器106的IP地址来响应客户机的DNS请求。
在又一个实施例中,设备205为客户机102和服务器106之间的通信提供应用防火墙功能。在一个实施例中,策略引擎295’提供用于检测和阻断非法请求的规则。在一些实施例中,应用防火墙防御拒绝服务(DoS)攻击。在其它实施例中,设备检查所拦截的请求的内容,以识别和阻断基于应用的攻击。在一些实施例中,规则/策略引擎包括用于提供对多个种类和类型的基于web或互联网的脆弱点的保护的一个或多个应用防火墙或安全控制策略,例如下列的一个或多个:1)缓冲区泄出,2)CGI-BIN参数操纵,3)表单/隐藏字段操纵,4)强制浏览,5)cookie或会话中毒,6)被破坏的访问控制列表(ACLs)或弱密码,7)跨站脚本处理(XSS),8)命令注入,9)SQL注入,10)错误触发敏感信息泄露,11)对加密的不安全使用,12)服务器错误配置,13)后门和调试选项,14)网站涂改,15)平台或操作系统弱点,和16)零天攻击。在一个实施例中,对下列情况的一种或多种,设备的防火墙以检查或分析网络通信的形式来提供HTML格式字段的保护:1)返回所需的字段,2)不允许附加字段,3)只读和隐藏字段强制(enforcement),4)下拉列表和单选按钮字段的一致,以及5)格式字段最大长度强制。在一些实施例中,设备205的应用防火墙确保cookie不被修改。在其它实施例中,设备205通过执行合法的URL来防御强制浏览。
在其他实施例中,应用防火墙设备205保护在网络通信中包含的任何机密信息。设备205可以根据策略引擎的规则或策略来检查或分析任一网络通信以识别在网络分组的任一字段中的任一机密信息。在一些实施例中,应用防火墙在网络通信中识别信用卡号、口令、社会保险号、姓名、病人代码、联系信息和年龄的一次或多次出现。网络通信的编码部分可以包括这些出现或机密信息。基于这些出现,在一个实施例中,应用防火墙可以对网络通信采取策略行动,诸如阻止发送网络通信。在又一个实施例中,应用防火墙可以重写、移动或者以其它方式掩盖该所识别的出现或者机密信息。
尽管总的称为网络优化或第一设备200和第二设备205,但第一设备200和第二设备205可以是相同类型和形式的设备。在一个实施例中,第二设备205可执行与第一设备200相同的功能,或部分相同的功能,反之亦然。例如,第一设备200和第二设备205都可以提供加速技术。在一个实施例中,第一设备200可执行LAN加速而第二设备205执行WAN加速,或者反之亦然。在又一个实施例中,第一设备200也可以与第二设备205一样是传输控制协议终止装置。而且,尽管设备200和205被显示为在网络上单独的装置,但设备200和/或设备205可以是客户机102或服务器106的一部分。
现参考图1C,描述了用于部署设备200的网络环境的其他实施例。在如图1C的上部所描述的又一个实施例中,设备200可以部署为网络104上单个设备或单个代理。例如,设备200可以被设计、构建或调整来执行此处所讨论的WAN优化技术,而不需要第二协同设备200’。在如图1C的下部所描述的其他实施例中,可以将单个设备200与一个或多个第二设备205部署在一起。例如,诸如Citrix WANScaler设备的WAN加速第一设备200可以与LAN加速或应用防火墙第二设备205(例如Citrix NetScaler设备)部署在一起。
计算装置
客户机102、服务器106和设备200和205可以被部署为和/或执行在任何类型和形式的计算装置上,诸如能够在任何类型和形式的网络上通信并执行此处描述的操作的计算机、网络装置或者设备。图1C和1D描述了可用于实施客户机102、服务器106或设备200的实施例的计算装置100的框图。如图1C和1D所示,每个计算装置100包括中央处理单元101和主存储器单元122。如图1C所示,计算装置100可以包括可视显示装置124、键盘126和/或诸如鼠标的指示装置127。每个计算装置100也可包括其它可选元件,例如一个或多个输入/输出装置130a-130b(总的使用附图标记130表示),以及与中央处理单元101通信的高速缓存存储器140。
中央处理单元101是响应并处理从主存储器单元122取出的指令的任何逻辑电路。在许多实施例中,中央处理单元由微处理器单元提供,例如:由加利福尼亚州Mountain View的Intel公司制造的微处理器单元;由伊利诺伊州Schaumburg的Motorola公司制造的微处理器单元;由加利福尼亚州SantaClara的Transmeta公司制造的微处理器单元;由纽约州White Plains的International Business Machines公司制造的RS/6000处理器;或者由加利福尼亚州Sunnyvale的Advanced Micro Devices公司制造的微处理器单元。计算装置100可以基于这些处理器中的任何一种,或者能够按照这里所说明的那样运行的任何其它处理器。
主存储器单元122可以是能够存储数据并允许微处理器101直接访问任何存储位置的一个或多个存储器芯片,例如静态随机存取存储器(SRAM)、突发SRAM或同步突发SRAM(BSRAM)、动态随机存取存储器DRAM、快速页模式DRAM(FPM DRAM)、增强型DRAM(EDRAM)、扩展数据输出RAM(EDO RAM)、扩展数据输出DRAM(EDO DRAM)、突发式扩展数据输出DRAM(BEDO DRAM)、增强型DRAM(EDRAM)、同步DRAM(SDRAM)、JEDEC SRAM、PC100SDRAM、双数据速率SDRAM(DDRSDRAM)、增强型SRAM(ESDRAM)、同步链路DRAM(SLDRAM)、直接Rambus DRAM(DRDRAM)或铁电RAM(FRAM)。主存储器122可以基于上述存储芯片的任何一种,或者能够像这里所说明的那样运行的任何其它可用存储芯片。在图1C中所示的实施例中,处理器101通过系统总线150(在下面进行更详细的描述)与主存储器122进行通信。图1C描述了在其中处理器通过存储器端口103直接与主存储器122通信的计算装置100的实施例。例如,在图1D中,主存储器122可以是DRDRAM。
图1D描述了在其中主处理器101通过第二总线与高速缓存存储器140直接通信的实施例,第二总线有时也称为后端总线。其他实施例中,主处理器101使用系统总线150和高速缓存存储器140通信。高速缓存存储器140通常有比主存储器122更快的响应时间,并且通常由SRAM、BSRAM或EDRAM提供。在图1C中所示的实施例中,处理器101通过本地系统总线150与多个I/O装置130进行通信。可以使用各种不同的总线将中央处理单元101连接到任何I/O装置130,所述总线包括VESA VL总线、ISA总线、EISA总线、微通道架构(MCA)总线、PCI总线、PCI-X总线、PCI-Express总线或NuBus。对于I/O装置是视频显示器124的实施例,处理器101可以使用高级图形端口(AGP)与显示器124通信。图1D说明了主处理器101通过超传输(HyperTransport)、快速I/O或者InfiniBand直接与I/O装置130通信的计算机100的一个实施例。图1D还描述了在其中混合本地总线和直接通信的实施例:处理器101使用本地互连总线与I/O装置130进行通信,同时直接与I/O装置130进行通信。
计算装置100可以支持任何适当的安装装置116,例如用于接收像3.5英寸、5.25英寸磁盘或ZIP磁盘这样的软盘的软盘驱动器、CD-ROM驱动器、CD-R/RW驱动器、DVD-ROM驱动器、多种格式的磁带驱动器、USB装置、硬盘驱动器或适于安装像任何客户机代理120或其部分的软件和程序的任何其它装置。计算装置100还可以包括存储装置128,诸如一个或者多个硬盘驱动器或者独立磁盘冗余阵列,用于存储操作系统和其它相关软件,以及用于存储诸如涉及客户机代理120的任何程序的应用软件程序。或者,可以使用安装装置116的任何一种作为存储装置128。此外,操作系统和软件可从例如可引导CD的可引导介质运行,诸如一种用于GNU/Linux的可引导CD,该可引导CD可自knoppix.net作为GNU/Linux分发获得。
此外,计算装置100可以包括通过多种连接接口到局域网(LAN)、广域网(WAN)或互联网的网络接口118,所述多种连接包括但不限于标准电话线路、LAN或WAN链路(例如802.11,T1,T3、56kb、X.25)、宽带连接(如ISDN、帧中继、ATM)、无线连接、或上述任何或所有连接的一些组合。网络接口118可以包括内置网络适配器、网络接口卡、PCMCIA网络卡、卡总线网络适配器、无线网络适配器、USB网络适配器、调制解调器或适用于将计算装置100接口到能够通信并执行本文所述的操作的任何类型的网络的任何其它设备。计算装置100中可以包括各种I/O装置130a-130n。输入装置包括键盘、鼠标、触控板、轨迹球、麦克风和绘图板。输出装置包括视频显示器、扬声器、喷墨打印机、激光打印机和热升华打印机。如图1C所示,I/O装置130可以由I/O控制器123控制。I/O控制器可以控制一个或多个I/O装置,例如键盘126和指示装置127(如鼠标或光笔)。此外,I/O装置还可以为计算装置100提供存储装置128和/或安装介质116。在其它实施例中,计算装置100可以提供USB连接以接纳手持USB存储装置,例如由位于加利福尼亚州Los Alamitos的Twintech Industry公司制造的USB闪存驱动系列装置。
在一些实施例中,计算装置100可以包括多个显示装置124a-124n或与其相连,这些显示装置各自可以是相同或不同的类型和/或形式。因而,任何一种I/O装置130a-130n和/或I/O控制器123可以包括任一类型和/或形式的适当的硬件、软件或硬件和软件的组合,以支持、允许或提供通过计算装置100连接和使用多个显示装置124a-124n。例如,计算装置100可以包括任何类型和/或形式的视频适配器、视频卡、驱动器和/或库,以与显示装置124a-124n接口、通信、连接或以其他方式使用显示装置。在一个实施例中,视频适配器可以包括多个连接器以与多个显示装置124a-124n接口。在其它实施例中,计算装置100可以包括多个视频适配器,每个视频适配器与显示装置124a-124n中的一个或多个连接。在一些实施例中,计算装置100的操作系统的任一部分都可以被配置用于使用多个显示器124a-124n。在其它实施例中,显示装置124a-124n中的一个或多个可以由一个或多个其它计算装置提供,诸如例如通过网络与计算装置100连接的计算装置100a和100b。这些实施例可以包括被设计和构造为将另一个计算机的显示装置用作计算装置100的第二显示装置124a的任一类型的软件。本领域的普通技术人员会认识和理解可以将计算装置100配置成具有多个显示装置124a-124n的各种方法和实施例。
在进一步的实施例中,I/O装置130可以是系统总线150和外部通信总线之间的桥170,所述外部通信总线例如USB总线、Apple桌面总线、RS-232串行连接、SCSI总线、FireWire总线、FireWire800总线、以太网总线、AppleTalk总线、千兆位以太网总线、异步传输模式总线、HIPPI总线、超级HIPPI总线、SerialPlus总线、SCI/LAMP总线、光纤信道总线或串行SCSI总线。
图1C和1D中描述的那类计算装置100通常在控制任务的调度和对系统资源的访问的操作系统的控制下操作。计算装置100可以运行任何操作系统,如Windows操作系统,不同发行版本的Unix和Linux操作系统,用于Macintosh计算机的任何版本的MAC任何嵌入式操作系统,任何实时操作系统,任何开源操作系统,任何专有操作系统,任何用于移动计算装置的操作系统,或者任何其它能够在计算装置上运行并完成这里所述操作的操作系统。典型的操作系统包括:WINDOWS3.x、WINDOWS95、WINDOWS98、WINDOWS2000、WINDOWS NT3.51、WINDOWS NT4.0、WINDOWS CE和WINDOWS XP,所有这些均由位于华盛顿州Redmond的微软公司出品;由位于加利福尼亚州Cupertino的苹果计算机出品的MacOS;由位于纽约州Armonk的国际商业机器公司出品的OS/2;以及由位于犹他州Salt Lake City的Caldera公司发布的可免费使用的Linux操作系统或者任何类型和/或形式的Unix操作系统,以及其它。
在其它实施例中,计算装置100可以有符合该装置的不同的处理器、操作系统和输入设备。例如,在一个实施例中,计算机100是由Palm公司出品的Treo180、270、1060、600或650智能电话。在该实施例中,Treo智能电话在PalmOS操作系统的控制下操作,并包括指示笔输入装置以及五向导航装置。此外,计算装置100可以是任何工作站、桌面计算机、膝上型或笔记本计算机、服务器、手持计算机、移动电话、任何其它计算机、或能够通信并有足够的处理器能力和存储容量以执行此处所述的操作的其它形式的计算或者电信装置。
B.系统和设备架构
现参考图2A,描述了用于传送和/或操作客户机上的计算环境的设备200的系统环境和架构的实施例。在一些实施例中,服务器106包括用于向一个或多个客户机102传送计算环境或应用和/或数据文件的应用传送系统290。总的来说,客户机102经由网络104和设备200与服务器106通信。例如,客户机102可驻留在公司的远程办公室里,例如分支机构,而服务器106可驻留在公司数据中心。客户机102包括客户机代理120以及计算环境215。计算环境215可执行或操作用于访问、处理或使用数据文件的应用。可经由设备200和/或服务器106传送计算环境215、应用和/或数据文件。
在一些实施例中,设备200向客户机102加速传送计算环境215或者其任何部分。在一个实施例中,设备200通过应用传送系统290加速计算环境15的传送。例如,可使用此处描述的实施例来加速从公司中央数据中心到远程用户位置(例如公司的分支机构)的流应用(streaming application)及该应用可处理的数据文件的传送。在又一个实施例中,设备200加速客户机102和服务器106之间的传输层流量。在又一个实施例中,设备200控制、管理、或调整传输层协议以便加速计算环境的传送。在一些实施例中,设备200使用缓存和/或压缩技术来加速计算环境的传输。
在一些实施例中,基于多个执行方法并且基于通过策略引擎295所应用的任一验证和授权策略,应用传送管理系统290提供将计算环境传送到远程的或者其它的用户的桌面的应用传送技术。使用这些技术,远程用户可以从任何网络连接装置100获取计算环境并且访问存储应用和数据文件的服务器。在一个实施例中,应用传送系统290可驻留在服务器106上或在其上执行。在又一个实施例中,应用传送系统290可驻留在多个服务器106a-106n上或在其上执行。在一些实施例中,应用传送系统290可在服务器群38内执行。在一个实施例中,执行应用传送系统290的服务器106也可存储或提供应用和数据文件。在又一个实施例中,一个或多个服务器106的第一组可执行应用传送系统290,而不同的服务器106n可存储或提供应用和数据文件。在一些实施例中,应用传送系统290、应用和数据文件中的每一个可驻留或位于不同的服务器。在又一个实施例中,应用传送系统290的任何部分可驻留、执行、或被存储于或分发到设备200或多个设备。
客户机102可包括用于执行使用或处理数据文件的应用的计算环境215。客户机102可通过网络104、104’和设备200请求来自服务器106的应用和数据文件。在一个实施例中,设备200可以将来自客户机102的请求转发到服务器106。例如,客户机102可能不具有本地存储或者本地可访问的应用和数据文件。响应于请求,应用传送系统290和/或服务器106可以传送应用和数据文件到客户机102。例如,在一个实施例中,服务器106可以把应用作为应用流来传输,以在客户机102上的计算环境215中操作。
在一些实施例中,应用传送系统290包括Citrix Systems公司的CitrixAccess SuiteTM的任一部分(例如MetaFrame或Citrix Presentation ServerTM),和/或微软公司开发的Windows终端服务中的任何一个。在一个实施例中,应用传送系统290可以通过远程显示协议或者以其它方式通过基于远程计算或者基于服务器计算来传送一个或者多个应用到客户机102或者用户。在又一个实施例中,应用传送系统290可以通过应用流来传送一个或者多个应用到客户机或者用户。
在一个实施例中,应用传送系统290包括策略引擎295,其用于控制和管理对应用的访问、应用执行方法的选择以及应用的传送。在一些实施例中,策略引擎295确定用户或者客户机102可以访问的一个或者多个应用。在又一个实施例中,策略引擎295确定应用应该如何被传送到用户或者客户机102,例如执行的方法。在一些实施例中,应用传送系统290提供多个传送技术,从中选择应用执行的方法,例如基于服务器的计算、本地流式传输或传送应用给客户机120以用于本地执行。
在一个实施例中,客户机102请求应用程序的执行而包括服务器106的应用传送系统290选择执行应用程序的方法。在一些实施例中,服务器106从客户机102接收证书。在又一个实施例中,服务器106从客户机102接收对于可用应用的列举的请求。在一个实施例中,响应该请求或者证书的接收,应用传送系统290列举对于客户机102可用的多个应用程序。应用传送系统290接收执行所列举的应用的请求。应用传送系统290选择预定数量的方法之一来执行所列举的应用,例如响应策略引擎的策略。应用传送系统290可以选择执行应用的方法,使得客户机102接收通过执行服务器106上的应用程序所产生的应用输出数据。应用传送系统290可以选择执行应用的方法,使得本地机器102在检索包括应用的多个应用文件之后本地执行应用程序。在又一个实施例中,应用传送系统290可以选择执行应用的方法,以通过网络104流式传输应用到客户机102。
客户机102可以执行、操作或者以其它方式提供应用,所述应用可为任何类型和/或形式的软件、程序或者可执行指令,例如任何类型和/或形式的web浏览器、基于web的客户机、客户机-服务器应用、瘦客户端计算客户机、ActiveX控件、或者Java程序、或者可以在客户机102上执行的任何其它类型和/或形式的可执行指令。在一些实施例中,应用可以是代表客户机102在服务器106上执行的基于服务器或者基于远程的应用。在一个实施例中,服务器106可以使用任何瘦-客户端或远程显示协议来显示输出到客户机102,所述瘦-客户端或远程显示协议例如由位于佛罗里达州Ft.Lauderdale的Citrix Systems公司出品的独立计算架构(ICA)协议或由位于华盛顿州Redmond的微软公司出品的远程桌面协议(RDP)。应用可使用任何类型的协议,并且它可为,例如,HTTP客户机、FTP客户机、Oscar客户机或Telnet客户机。在其它实施例中,应用包括和VoIP通信相关的任何类型的软件,例如软IP电话。在进一步的实施例中,应用包括涉及到实时数据通信的任一应用,例如用于流式传输视频和/或音频的应用。
在一些实施例中,服务器106或服务器群38可运行一个或多个应用,例如提供瘦客户端计算或远程显示表示应用的应用。在一个实施例中,服务器106或服务器群38作为一个应用来执行Citrix Systems Inc.的Citrix AccessSuiteTM的任一部分(例如MetaFrame或Citrix Presentation ServerTM),和/或微软公司开发的Windows终端服务中的任何一个。在一个实施例中,该应用是位于佛罗里达州Fort Lauderdale的Citrix Systems Inc.开发的ICA客户机。在其它实施例中,该应用包括由位于华盛顿州Redmond的Microsoft公司开发的远程桌面(RDP)客户机。另外,服务器106可以运行一个应用,例如,其可以是提供电子邮件服务的应用服务器,例如由位于华盛顿州Redmond的Microsoft公司制造的Microsoft Exchange,web或Internet服务器,或者桌面共享服务器,或者协作服务器。在一些实施例中,任一应用可以包括任一类型的所寄载的服务或产品,例如位于加利福尼亚州SantaBarbara的Citrix Online Division提供的GoToMeetingTM,位于加利福尼亚州Santa Clara的WebEx Inc.提供的WebExTM,或者位于华盛顿州Redmond的Microsoft公司提供的Microsoft Office Live Meeting。
示例设备架构
图2A也示出设备200的示例实施例。仅通过示例来提供图2A的设备200的架构并且不意于以任一方式受限。设备200可包括任何类型和形式的计算装置100,例如上文结合图1D和1E所讨论的任何元件或部分。概括来讲,设备200具有用于经由网络104接收和/或传输通信的一个或多个网络堆栈267A-267N和一个或多个网络端口266A-266N。设备200还具有用于优化、加速或以其他方式改善经过设备200的任何网络流量或通信的质量、操作或性能。
设备200包括操作系统或在操作系统的控制之下。设备200的操作系统可以是任何类型和/或形式的Unix操作系统,尽管本发明并未这样限制。这样,设备200可以运行任何操作系统,如任何版本的Windows操作系统、不同版本的Unix和Linux操作系统、用于Macintosh计算机的任何版本的Mac任何的嵌入式操作系统、任何的网络操作系统、任何的实时操作系统、任何的开放源操作系统、任何的专用操作系统、用于移动计算装置或网络装置的任何操作系统、或者能够运行在设备200上并执行此处所描述的操作的任何其它操作系统。
设备200的操作系统分配、管理或以其他方式将可用的系统存储器分离到被称为内核或系统空间和用户或应用空间中。通常保留内核空间用于运行内核,所述内核包括任何设备驱动器,内核扩展或其他内核相关软件。就像本领域技术人员所知的,内核是操作系统的核心,并提供对设备200的资源和硬件相关的元件的访问、控制和管理。根据设备200的实施例,内核空间也包括与网络优化引擎250或其任何部分协同工作的多个网络服务或进程。另外,内核的实施例将依赖于通过设备200安装、配置或以其他方式使用的操作系统的实施例。与内核空间不同,用户空间是由用户模式应用或以其他方式运行于用户模式的程序所使用的操作系统的存储区域或部分。用户模式应用不能直接访问内核空间而使用服务调用以访问内核服务。操作系统使用用户或应用空间来执行或运行应用以及供应用户级程序、服务、进程和/或任务。
设备200具有一个或多个网络端口266,用于通过网络104传输和接收数据。网络端口266提供在计算装置和网络104或另一个装置100之间的物理和/或逻辑接口,用于传输和接收网络通信。网络端口266的类型和形式取决于网络的类型和形式以及用于连接到网络的介质的类型。而且,网络端口266和网络堆栈267的、为其供应的或者其使用的任何软件可运行在内核空间或用户空间。
在一个实施例中,设备200具有一个网络堆栈267,例如基于TCP/IP的堆栈,用于在网络105上与客户机102和/或服务器106通信。在一个实施例中,网络堆栈267用于与诸如网络104第一网络以及第二网络104’通信。在又一个实施例中,设备200可具有两个或多个网络堆栈,例如第一网络堆栈267A和第二网络堆栈267N。第一网络堆栈267A可与第一网络端口266A联合使用以在第一网络104上通信。第二网络堆栈可与第二网络端口266N联合使用以在第二网络104’上通信。在一个实施例中,网络堆栈267包括用于为由设备200产生的一个或多个网络分组进行排队的一个或多个缓冲器。
网络堆栈267可包括任何类型和形式的软件、或硬件或其组合,用于提供与网络的连接和通信。在一个实施例中,网络堆栈267包括用于网络协议组的软件实现。网络堆栈267可包括一个或多个网络层,例如为本领域技术人员所公认和了解的开放式系统互联(OSI)通信模型的任何网络层。这样,网络堆栈267可包括用于下列OSI模型的任何一层的任何类型和形式的协议:1)物理链路层;2)数据链路层;3)网络层;4)传输层;5)会话层);6)表示层,以及7)应用层。在一个实施例中,网络堆栈267可包括在互联网协议(IP)的网络层协议上的传输控制协议(TCP),通常称为TCP/IP。在一些实施例中,可在以太网协议上承载TCP/IP协议,所述以太网协议可包括IEEE广域网(WAN)或局域网(LAN)协议的任何族,例如被IEEE802.3覆盖的这些协议。在一些实施例中,网络堆栈267包括任何类型和形式的无线协议,例如IEEE802.11和/或移动互联网协议。
考虑到基于TCP/IP的网络,可使用任何基于TCP/IP的协议,包括消息应用编程接口(MAPI)(email)、文件传输协议(FTP)、超文本传输协议(HTTP)、通用互联网文件系统(CIFS)协议(文件传输)、独立计算架构(ICA)协议、远程桌面协议(RDP)、无线应用协议(WAP)、移动IP协议,以及IP语音(VoIP)协议。在又一个实施例中,网络堆栈267包括任何类型和形式的传输控制协议,诸如修改的传输控制协议,例如事务TCP(T/TCP),带有选择确认的TCP(TCP-SACK),带有大窗口的TCP(TCP-LW),例如TCP-Vegas协议的拥塞预测协议,以及TCP欺骗协议。在其他实施例中,网络堆栈267可使用诸如IP上UDP的任何类型和形式的用户数据报协议(UDP),例如用于语音通信或实时数据通信。
另外,网络堆栈267可包括支持一个或多个层的一个或多个网络驱动器,例如TCP驱动器或网络层驱动器。网络层驱动器可作为计算装置100的操作系统的一部分或者作为计算装置100的任何网络接口卡或其它网络访问组件的一部分被包括。在一些实施例中,网络堆栈267的任何网络驱动器可被定制、修改或调整以提供支持此处描述的任何技术网络堆栈267的定制或修改部分。
在一个实施例中,设备200使用单个网络堆栈267来提供或维持在客户机102和服务器106之间的传输层连接。在一些实施例中,设备200通过改变、管理或控制在客户机和服务器之间的传输控制协议连接的行为来有效地终止传输层连接。在这些实施例中,设备200可使用单个网络堆栈267。在其他实施例中,设备200终止第一传输层连接,例如客户机102的TCP连接,并建立客户机102使用的或代表客户机102的到服务器106的第二传输层连接,例如,终止在设备200和服务器106的第二传输层连接。可通过单个网络堆栈267建立第一和第二传输层连接。在其他实施例中,设备200可使用多个网络堆栈,例如267A和267N。在这些实施例中,在第一网络堆栈267A可建立或终止第一传输层连接,且在第二网络堆栈267N可建立或者终止第二传输层连接。例如,一个网络堆栈可用于在第一网络上接收和传输网络分组,并且另一个网络堆栈可用于在第二网络上接收和传输网络分组。
如图2A所示,网络优化引擎250包括一个或多个下列元件、组件或模块:网络分组处理引擎250、LAN/WAN检测器210、流控制器220、Qos引擎236、协议加速器234、压缩引擎238、高速缓存管理器232和策略引擎295’。网络优化引擎250或其任何部分可包括软件、硬件或软件和硬件的任何组合。而且网络引擎250的、为其供应的或由其使用的任何软件可运行在内核空间或用户空间。例如,在一个实施例中,网络优化引擎250可运行在内核空间。在又一个实施例中,网络优化引擎250可运行在用户空间。在又一个实施例中,网络优化引擎250的第一部分可运行在内核空间而网络优化引擎250的第二部分可运行在用户空间。
网络分组处理引擎
网络分组引擎240,通常也称为分组处理引擎,或分组引擎,负责控制和管理对由设备200通过网络端口266和网络堆栈267接收和传输的分组的处理。网络分组引擎240可操作在网络堆栈267的任一层。在一个实施例中,网络分组引擎240操作在网络堆栈267的层2和层3。在一些实施例中,分组引擎240在网络层(例如,TCP/IP实施例中的IP层)拦截或以其他方式接收分组。在又一个实施例中,分组引擎240操作在网络堆栈267的层4。例如,在一些实施例中,分组引擎240在传输层拦截或以其他方式接收分组,例如在TCP/IP实施例中的TCP层拦截分组。在其他实施例中,分组引擎240操作在层4之上的任何会话或应用层。例如,在一个实施例中,分组引擎240在传输层协议层之上拦截或以其他方式接收的网络分组,例如在TCP实施例中的TCP分组的有效载荷。
分组引擎240可包括用于在例如接收网络分组或者传输网络分组的处理期间排队一个或多个网络分组的缓冲器。另外,分组引擎240与一个或多个网络堆栈267通信以通过网络端口266发送和接收网络分组。分组引擎240包括分组处理定时器。在一个实施例中,分组处理定时器提供一个或多个时间间隔以触发输入的(即,接收的)或输出的(即,传输的)网络分组的处理。在一些实施例中,分组引擎240响应于定时器来处理网络分组。分组处理定时器向分组引擎240提供任何类型和形式的信号以通知、触发或传输时间相关的事件、间隔或发生。在许多实施例中,分组处理定时器以毫秒级操作,例如100ms、50ms、25ms、10ms、5ms或1ms。
在操作期间,分组引擎240可与诸如LAN/WAN检测器210、流控制器220、Qos引擎236、协议加速器234、压缩引擎238、高速缓存管理器232和/或策略引擎295’的网络优化引擎250的任一部分接口、集成或通信。因此,可响应于分组处理定时器和/或分组引擎240来执行LAN/WAN检测器210、流控制器220、Qos引擎236、协议加速器234、压缩引擎238、高速缓存管理器232和策略引擎295’的任何逻辑、功能或操作。在一些实施例中,在由分组处理定时器提供的时间间隔粒度(例如,少于或等于10ms的时间间隔),可执行加密引擎234、高速缓存管理器232、策略引擎236以及多协议压缩引擎238的任何逻辑、功能或操作。例如,在一个实施例中,高速缓存管理器232可响应于集成分组引擎240和/或分组处理定时器242来执行任何高速缓存的对象的终止。在又一个实施例中,高速缓存的对象的终止或无效时间被设定为与分组处理定时器的时间间隔相同的粒度级,例如每10ms。
高速缓存管理器
高速缓存管理器232可包括软件、硬件或软件和硬件的任何组合,以将数据、信息和对象存储到在存储器或存储中的高速缓存、提供高速缓存访问以及控制和管理高速缓存。由高速缓存管理器232处理和存储的数据、对象或内容可包括任何格式(例如标记语言)的数据,或者通过任何协议的通信的任何类型的数据。在一些实施例中,高速缓存管理器232复制存储在其他地方的原始数据或先前计算、生成或传输的数据,其中相对于读高速缓存存储器或存储元件,需要更长的访问时间以取得、计算或以其他方式得到原始数据。一旦数据被存储在高速缓存中,通过访问高速缓存的副本而不是重新获得或重新计算原始数据即可进行后续操作,因此而减少了访问时间。在一些实施例中,高速缓存可以包括设备200的存储器中的数据对象。在又一个实施例中,高速缓存可以包括设备200的任一类型和形式的存储元件,诸如硬盘的一部分。在一些实施例中,装置的处理单元可提供由高速缓存管理器232使用的高速缓存存储器。在又一个实施例中,高速缓存管理器232可使用存储器、存储区或处理单元的任何部分和组合来高速缓存数据、对象或其它内容。
另外,高速缓存管理器232包括用于执行设备200的任何高速缓存技术的任何逻辑、功能、规则或操作。在一些实施例中,高速缓存管理器232可作为应用、库、程序、服务、进程、线程或任务而操作。在一些实施例中,高速缓存管理器232可包括任何类型的通用处理器(GPP),或者任何其他类型的集成电路,例如现场可编程门阵列(FPGA),可编程逻辑设备(PLD),或者专用集成电路(ASIC)。
策略引擎
策略引擎295’包括用于提供和应用一个或多个策略或规则到设备200的任一部分的功能、操作或配置的任何逻辑、功能或操作。策略引擎295’可包括例如智能统计引擎或其它可编程应用。在一个实施例中,策略引擎295’提供配置机制以允许用户识别、指定、定义或配置用于网络优化引擎250或其任何部分的策略。例如,策略引擎295’可提供用于缓存哪些数据、何时缓存该数据、为谁缓存该数据、何时终止高速缓存中的对象或刷新高速缓存的策略。在其他实施例中,除了对安全、网络流量、网络访问、压缩或由设备200执行的任何其它功能或操作的访问、控制和管理之外,策略引擎236可包括任何逻辑、规则、功能或操作以确定和提供对设备200所高速缓存的对象、数据、或内容的访问、控制和管理。
在一些实施例中,策略引擎295’可基于下列的任何一个或多个来提供和应用一个或多个策略:用户、客户机的标识、服务器的标识、连接的类型、连接的时间、网络的类型或网络流量的内容。在一个实施例中,策略引擎295’基于网络分组的任何协议层的字段或首部来提供和应用策略。在又一个实施例中,策略引擎295’基于网络分组的任一有效载荷来提供和应用策略。例如,在一个实施例中,策略引擎295’基于对被承载为传输层分组的有效载荷的应用层协议内容的特定部分的识别来应用策略。在又一个实施例中,策略引擎295’基于由客户机、服务器或用户证书识别的任何信息来应用策略。在又一个实施例中,策略引擎295’基于例如通过任何类型和形式的端点检测(参见下面所描述的客户机代理的收集代理示例)所获得的关于客户机102的任何属性或特征来应用策略。
在一个实施例中,策略引擎295’和应用传送系统290的策略引擎295联合或协同工作。在一些实施例中,策略引擎295’是应用传送系统290的策略引擎295的一个分布式的部分。在又一个实施例中,应用传送系统290的策略引擎295被部署于或执行在设备200上。在一些实施例中,策略引擎295、295’都操作在设备200上。在又一个实施例中,设备200的策略引擎295’或其一部分操作在服务器106上。
多协议和多层压缩引擎
压缩引擎238包括用于压缩一个或多个协议的网络分组(例如由设备200的网络堆栈267使用的任何协议)的任何逻辑、商业规则、功能或操作。压缩引擎238也可被称为多协议压缩引擎238,这是由于其可以被设计、构建为或能够压缩多个协议。在一个实施例中,压缩引擎238使用对上下文不敏感的压缩,其可在不了解数据类型的情况下对数据进行压缩。在又一个实施例中,压缩引擎238使用对上下文敏感的压缩。在该实施例中,压缩引擎238利用数据类型的知识来从一系列合适的算法中选择特定的压缩算法。在一些实施例中,使用特定协议的知识来执行上下文敏感的压缩。在一个实施例中,设备200或压缩引擎238可使用端口号(例如,公知端口),以及来自连接本身的数据来确定要使用的合适的压缩算法。一些协议仅使用一种类型的数据,仅要求当连接建立时可被选择的单个压缩算法。其他协议在不同的时间包含不同类型的数据。例如,POP、IMSP、SMTP和HTTP都移动夹杂其他协议数据的任意类型的文件。
在一个实施例中,压缩引擎238使用增量型压缩算法。在又一个实施例中,压缩引擎238使用首地点压缩以及搜索在高速缓存、存储器或盘中存储的数据间的重复模式。在一些实施例中,压缩引擎238使用无损压缩算法。在其他实施例中,压缩引擎238使用有损压缩算法。在一些情况下,数据类型的知识和有时来自用户的许可被要求使用有损压缩算法。压缩不限于协议的有效载荷。协议本身的控制字段也可以被压缩。在一些实施例中,压缩引擎238使用与用于有效载荷的算法不同的算法。
在一些实施例中,压缩引擎238在网络堆栈267的一个或多个层进行压缩。在一个实施例中,压缩引擎238在传输层协议处进行压缩。在又一个实施例中,压缩引擎238在应用层协议处进行压缩。在一些实施例中,压缩引擎238在层2-4协议处进行压缩。在其他实施例中,压缩引擎238在层5-7协议处进行压缩。在又一个实施例中,压缩引擎238压缩传输层协议和应用层协议。在一些实施例中,压缩引擎238压缩层2-4协议和层5-7协议。
在一些实施例中,压缩引擎238使用基于存储器的压缩、基于高速缓存的压缩或基于盘的压缩或上述的任一组合。这样,压缩引擎238也可以被称为多层压缩引擎。在一个实施例中,压缩引擎238使用在存储器(例如RAM)中存储的数据历史。在又一个实施例中,压缩引擎238使用在高速缓存(例如处理器的L2高速缓存)中存储的数据历史。在其他实施例中,压缩引擎238使用存储到盘或存储单元的数据历史。在一些实施例中,压缩引擎238使用基于高速缓存的、基于存储器的和基于盘的数据历史的分层结构。压缩引擎238可首先使用基于高速缓存的数据来确定用于压缩的一个或多个数据匹配,然后可检查基于存储器的数据以确定用于压缩的一个或多个数据匹配。在另一种情况下,压缩引擎238可在检查基于高速缓存的和/或基于存储器的数据历史之后检查盘存储来找出用于压缩的数据匹配。
在一个实施例中,多协议压缩引擎238双向压缩在客户机102a-102n和服务器106a-106n间任一基于TCP/IP的协议,包括消息应用编程接口(MAPI)(电子邮件)、文件传输协议(FTP)、超文本传输协议(HTTP)、通用互联网文件系统(CIFS)协议(文件传输)、独立计算架构(ICA)协议、远程桌面协议(RDP)、无线应用协议(WAP)、移动IP协议以及IP上语音(VoIP)协议。在其它实施例中,多协议压缩引擎238提供基于超文本标记语言(HTML)的协议的压缩,并且在一些实施例中,提供任何标记语言的压缩,例如可扩展标记语言(XML)。在一个实施例中,多协议压缩引擎238提供任何高性能协议的压缩,例如设计用于设备200到设备200通信的任何协议。在又一个实施例中,多协议压缩引擎238使用修改的传输控制协议来压缩任何通信的任何载荷或任何通信,例如事务TCP(T/TCP)、带有选择确认的TCP(TCP-SACK)、带有大窗口的TCP(TCP-LW)、诸如TCP-Vegas协议的拥塞预报协议以及TCP欺骗协议(TCP spoofing protocol)。
同样的,多协议压缩引擎238为用户加速经由桌面客户机以及甚至移动客户机访问应用的性能。所述桌面客户机例如Micosoft Outlook和非web瘦客户机,例如由像Oracle、SAP和Siebel的通用企业应用所启动的任何客户机,所述移动客户机例如掌上电脑。在一些实施例中,通过与访问网络堆栈267的分组处理引擎240集成,多协议压缩引擎能够压缩由传输层协议携带的任何协议,例如任何应用层协议。
LAN/WAN检测器
LAN/WAN检测器238包括用于自动检测慢速侧连接(例如,诸如内部网的广域网(WAN)连接)和关联端口267,以及快速侧连接(例如,局域网(LAN)连接)和关联端口267的任何逻辑、商业规则、功能或操作。在一些实施例中,LAN/WAN检测器238监控设备200的网络端口267上的网络流量以便检测同步分组(有时被称为“加标记的”网络分组)。同步分组识别网络流量的类型或速度。在一个实施例中,同步分组识别WAN的速度或WAN类型的连接。LAN/WAN检测器238也识别对加标记的同步分组的确认分组的接收以及其在哪个端口上被接收。接着,设备200将自身配置为操作所识别的、加标记的同步分组到达的端口以使得该端口上的速度被设置为与连接到该端口的网络相关联的速度。那么,另一个端口被设置为与连接到该端口的网络相关联的速度。
为了本文讨论的方便,“快速”侧可参考关于与广域网(WAN)(例如,互联网)的连接,并且以该WAN的网络速度操作。类似地,“慢速”侧可参考关于与局域网(LAN)的连接并且以LAN的网络速度操作。然而,应指出网络的“快速”和“慢速”侧可以在每连接的基础上改变并且是对于网络连接的速度或者网络拓扑类型的相关术语。这样的配置可以用在复杂的网络拓扑中,其中网络仅在与相邻网络比较时是“快速”或“慢速”,而不是绝对的“快速”或“慢速”。
在一个实施例中,LAN/WAN检测器238可用于使设备200自动发现其所连接的网络。在又一个实施例中,LAN/WAN检测器238可用于检测在网络104中部署的第二设备200’的存在或在场。例如,根据图1A的操作中的自动发现机制起到以下作用:将设备200和200’置于与链接客户机102和服务器106的连接在一条线上。设备200和200’处于连接两个LAN的低速链路(例如,互联网)的端点处。在一个示例实施例中,设备200和200’各自包括两个端口,一个端口与“较低”速度的链路连接而另一个端口与“较高”速度的链路(例如,LAN)连接。到达一个端口的任一分组被复制到另一个端口。因此,设备200和200’各自被配置为充当两个网络104之间的桥。
当诸如客户机102的端节点打开与诸如服务器106的另一个端节点的新的TCP连接时,客户机102向服务器106发送具有同步(SYN)首部位组的TCP分组或SYN分组。在本例中,客户机102打开到服务器106的传输层连接。当SYN分组穿过设备200时,设备200给该分组插入、附加或以其他方式提供特有的TCP首部选项,以宣告其存在。如果该分组穿过第二设备(在该示例中设备200’),第二设备记录该SYN分组中的首部选项。服务器106用同步确认(SYN-ACK)分组来响应该SYN分组。当SYN-ACK分组穿过设备200’时,TCP首部选项被标记(例如,附加、插入或添加)到该SYN-ACK分组以便向设备200宣告设备200’的存在。当设备200收到该分组时,设备200,200’此时互相察觉并且该连接可以被适当地加速。
关于LAN/WAN检测器238的操作,描述了使用SYN分组来检测网络的“快速”侧和“慢速”侧的方法或过程。在客户机102和服务器106之间建立传输层连接的期间,设备200通过LAN/WAN检测器238确定SYN分组是否被加了确认(ACK)标记。如果其被加了标记,设备200将接收加标记的SYN分组(SYN-ACK)的端口标识或配置为“慢速”侧。在一个实施例中,设备200可选择在将该分组复制到另一个端口之前ACK标记从该分组删除。如果LAN/WAN检测器238确定该分组未加标记,那么设备200将接收未加标记的分组的端口标识或配置为“快速”侧。设备200接着给该SYN分组加上ACK标记并将该分组复制到另一个端口。
在又一个实施例中,LAN/WAN检测器238使用SYN-ACK分组来检测网络的快速侧和慢速侧。设备200通过LAN/WAN检测器238确定SYN-ACK分组是否被加了确认(ACK)标记。如果其被加了标记,设备200将接收加标记的SYN分组(SYN-ACK)的端口标识或配置为“慢速”侧。在一个实施例中,设备200可选择在将该分组复制到另一个端口之前从该分组删除ACK标记。如果LAN/WAN检测器238确定该分组未加标记,那么设备200将接收未加标记的分组的端口标识或配置为“快速”侧。LAN/WAN检测器238确定SYN分组是否被加了标记。如果该SYN分组没有被加标记,那么设备200将该分组复制到另一个端口。如果该SYN分组被加了标记,那么该设备在将该分组拷贝到另一个端口之前给SYN-ACK分组加标记。
设备200、200’可以添加、插入、修改、附加或以其他方式提供TCP选项首部中的任何信息或数据,以提供关于网络连接、网络流量或者设备200的配置或操作的任何信息、数据或特征。在这种方式中,设备200不仅向另一个设备200’宣告其存在或者标记较高或较低速度的连接,该设备200还通过TCP选项首部提供关于该设备或该连接的其他信息和数据。TCP选项首部信息可能是对设备有用的或由设备用于控制、管理、优化、加速或改善经过设备200的网络流量,或者以其他方式配置其自身或网络端口的操作。
尽管通常LAN/WAN检测器238被结合检测网络连接的速度或设备的存在来描述,但LAN/WAN检测器238可被用于将设备200的任何类型的功能、逻辑或操作应用到网络流量的端口、连接或流。更具体地,每当设备在不同的端口执行不同的功能时都可以自动分配端口,其中给任务分配端口可以在该单元操作期间,和/或每个端口的网络段的性质可被设备200发现。
流控制
流控制器220包括用于优化、加速或以其他方式改善网络分组的传输层通信的性能、操作或服务质量或者在传输层的分组的发送的任何逻辑、商业规则、功能或操作。流控制器(有时也被称为流控制模块)调节、管理和控制数据传输速率。在一些实施例中,流控制器220被部署在或连接在网络104中的带宽瓶颈处。在一个实施例中,流控制器220有效地调节、管理和控制带宽的使用或利用。在其他实施例中,流控制模块也可以被部署在延迟转换(从低延迟到高延迟)的网络上的位置和具有介质损失的链路(例如无线或卫星链路)上的位置。
在一些实施例中,流控制器220可包括用于控制网络传输的接收速率的接收器侧流控制模块和用于控制网络分组的传输速率的发送器侧流控制模块。在其他实施例中,第一流控制器220包括接收器侧流控制模块并且第二流控制器220’包括发送器侧流控制模块。在一些实施例中,第一流控制器220被部署在第一设备200上并且第二流控制器220’被部署在第二设备200’上。同样,在一些实施例中,第一设备200控制接收器侧上的数据流而第二设备200'控制来自发送器侧的数据流。在又一个实施例中,单个设备200包括用于经过设备200的网络通信的接收器侧和发送器侧的流控制。
在一个实施例中,配置流控制模块220以使瓶颈处的带宽被更充分地利用,以及在一些实施例中,配置流控制模块220以使瓶颈处的带宽不被过度利用。在一些实施例中,流控制模块220透明地缓冲(或者重新缓冲例如发送器已经缓冲的数据)经过具有相关联的流控制模块220的节点间的网络会话。当会话经过两个或多个流控制模块220时,一个或多个流控制模块控制会话的速率。
在一个实施例中,用有关瓶颈带宽的预定数据来配置流控制模块200。在又一个实施例中,流控制模块220可被配置为检测瓶颈带宽或与其关联的数据。与诸如TCP的传统网络协议不同,接收器侧流控制模块220控制数据传输速率。接收器侧流控制模块220通过将传输速率限制转发到发送器侧流控制模块220来控制发送器侧流控制模块(例如,220)的数据传输速率。在一个实施例中,接收器侧流控制模块220在由接收器(例如服务器106)向发送器(例如客户机102)发送的确认(ACK)分组(或信号)上捎带这些传输速率限制。接收器侧流控制模块220响应于由发送器侧流控制模块220'发送的速率控制请求来执行这一工作。可以在由发送器106发送的数据分组上捎带来自发送器侧流控制模块220’的请求。
在一些实施例中,流控制器220操纵、调整、模拟、改变、改进或以其他方式修改传输层协议的行为以便提供传输层的传送、数据速率和/或带宽利用的改善的性能或操作。流控制器220可在传输层实现多个数据流控制技术,包括但不限于1)预确认,2)窗口虚拟化,3)重新拥塞技术,3)本地重传技术,4)波前检测和消除二义性,5)传输控制协议选择性确认,6)事务边界检测技术和7)重新分组。
尽管此处通常将发送器描述为客户机102,将接收器描述为服务器106,但发送器可以是诸如网络104上任一计算装置100或者服务器106的任一端点。同样地,接收器可以是客户机102或者网络104上的任何其他计算装置。
预确认
概括来讲预确认流控制技术,在一些实施例中,流控制器220处理确认并为发送器重传确认,有效地终止发送器与网络连接的下游部分的连接。参考图1B,描述用来实现该特征的,设备200在网络架构中的一个可能的部署。在该示例实施例中,发送计算机或者客户机102在网络104上例如经由交换机传输数据,其确定该数据发往VPN设备205。由于所选择的网络拓扑,发往VPN设备205的所有数据穿过设备200,使得设备200可以将任一必要的算法应用到该数据。
进一步在该示例中,客户机102传输由设备200接收的分组。当设备200接收从客户机102向接收者传输的经过VPN设备205的分组时,设备200保留分组的副本并且将该分组向下游转发到VPN设备205。设备200接着生成确认分组(ACK)并且将ACK分组发送回客户机102或者发送端点。该ACK(即预确认)使发送器102相信分组已经被成功传输、释放发送器的资源用于后续的处理。在要求重传分组的事件中,设备200保留该分组的副本,使得发送器102不必处理数据的重传。提前生成确认可以被称为“提前确认(preack)”。
如果要求重传分组,设备200将分组重传到发送器。设备200可以确定当发送器处于传统系统中时是否需要重传,例如,在预定时间段之后对于该分组如果没有接收到确认则确定分组丢失。为此,设备200监控由例如服务器106(或者任何其他下游网络实体)的接收端点生成的确认,以便其可以确定是否已经成功传送分组或者需要重传分组。如果设备200确定分组已经被成功传送,则设备200能够自由地丢弃所保存的分组数据。设备200还可以禁止转发对已经由发送端点接收的分组的确认。
在上述实施例中,设备200经由流控制器220通过预确认(也称为“提取确认”)的传送来控制发送器102,如同设备200是接收端点本身一样。由于设备200不是端点并且实际上不消耗数据,所以设备200包括用于给发送端点提供溢出控制的机制。如果没有溢出机制,设备200将耗尽存储器,因为设备200存储已经向发送端点提取确认的但还没有被确认为由接收端点接收的分组。因此,在发送器102传输分组到设备200快于设备200向下游转发分组的情况下,设备200中可用于存储未被确认的分组数据的存储器将迅速填满。用于溢出控制的机制允许设备200控制来自发送器的分组的传输以避免该问题。
在一个实施例中,设备200或者流控制器220包括固有的“自同步(self-clocking)”溢出控制机制。该自同步归因于这样的顺序,其中设备200可以被设计为向下游传输分组并向发送器102或者106发送ACK。在一些实施例中,设备200直到其向下游传输分组后为才提前确认分组。以此方式,发送器102将以设备200能够传输分组的速率而不是以设备200从发送器100接收分组的速率来接收ACK。这有助于调节来自发送器102的分组的传输。
窗口虚拟化
设备200可以实现的另一个溢出控制机制是使用TCP窗口大小参数,其告知发送器接收器允许该发送器填满多少缓冲区。预确认中的非零窗口大小(例如至少一个最大段大小(MSS)的大小)允许发送端点继续向设备传输数据,而零窗口大小禁止进一步的数据传输。相应地,设备200可以例如当设备200的缓冲区变满时通过适当地设置每一预确认中的TCP窗口大小来调节来自发送器的分组的流量。
另一项用来降低该附加开销的技术是应用滞后作用(hysteresis)。当设备200将数据传送到较慢侧时,设备299中的溢出控制机制可以在向发送器发送非零窗口通告之前要求可用的最小数量的空间。在一个实施例中,设备200在发送非零窗口分组(例如,四个分组的窗口大小)之前进行等待直到存在最小的预定数量的分组(诸如四个分组)的可用空间为止。由于对于四个数据分组的每个组仅发送两个ACK分组,而不是对于四个数据分组要发送八个ACK分组,因此这将开销降低到大约原来的四分之一。
设备200或流控制器220可用于溢出控制的另一技术是TCP延迟ACK机制,其跳过ACK来降低网络流量。TCP延迟ACK自动延迟ACK的发送,直到接收到两个分组或直到发生固定的超时为止。该机制单独导致开销减半,而且,通过将分组的数量增加到两个以上,降低了附加的开销。但是仅延迟ACK本身不足以控制溢出,并且设备200还可以使用在ACK上的通告窗口机制来控制发送器。当这样做时,在一个实施例中,设备200通过延迟ACK很长时间来避免触发发送器的超时机制。
在一个实施例中,流控制器220不对一组分组的最后一个分组进行提取确认。通过不提取确认最后一个分组或者该组中分组的至少一个,设备避免对一组分组的错误确认。例如,如果设备将发送对最后一个分组的预确认而该分组随后丢失,那么发送器在分组没有被传送时已经欺骗认为其被传送。考虑到分组已被传送,发送器将丢弃该数据。如果设备也丢失该分组,那么不能将该分组重传到接收者。通过不对一组分组的最后一个分组进行提前确认,发送器直到该分组被传送时才将其丢弃。
在又一个实施例中,流控制器220可以使用窗口虚拟化技术来控制网络连接的带宽利用或者流速。虽然根据检查诸如RFC1323的传统文献其可能不是直接明显的,但是用于诸如TCP的传输层协议的发送窗口是有效的。由于发送窗口消耗缓冲区空间(尽管在发送器上),所以发送窗口类似于接收窗口。发送器的发送窗口包括还没有被接收器确认的、由应用发送的所有数据。在要求重传的情况下,必须在存储器中保留该数据。由于存储器是共享资源,所以一些TCP堆栈的实现限制了该数据的大小。当发送窗口满时,应用程序尝试发送更多的数据导致阻塞应用程序直到空间可用为止。随后接收的确认将释放发送窗口存储器并且不再阻塞应用程序。在一些实施例中,该窗口大小就是一些TCP实现中的套接字缓冲区大小。
在一个实施例中,流控制模块220被配置为提供对增加的窗口(或缓冲区)大小的访问。该配置还可以被称为窗口虚拟化。在作为传输层协议的TCP的实施例中,TCP首部可以包括对应窗口比例(window scale)的位串。在一个实施例中,“窗口”可以在发送、接收或二者的上下文中提及。
窗口虚拟化的一个实施例是将预确认设备200插入到TCP会话中。参考图1A和1B的任何一个环境,建立例如客户机102(为讨论方便,现称为源节点102)的源节点与例如服务器106(为讨论方便,现称之为目标节点106)的目标节点之间数据通信会话的初始化。对于TCP通信,源节点102最初将同步信号(“SYN”)通过其局域网104传输到第一流控制模块220。第一流控制模块220将配置标识符插入到TCP首部选项区域中。该配置标识符将数据路径中的该点识别为流控制模块。
尽管具有例如16k字节的小缓冲区大小的端节点,但设备200经由流控制模块220提供窗口(或缓冲区)来允许提高会话内的数据缓冲能力。然而,RFC1323要求对大于64k字节的任何缓冲区大小进行窗口缩放(windowscaling),其必须在会话初始化(SYN、SYN-ACK信号)时设置。此外,窗口缩放对应于数据路径中的最小公分母,经常是具有小的缓冲区大小的端节点。该窗口比例通常是0或1的比例,其对应于高达64k或者128k字节的缓冲区大小。注意到,由于窗口大小被限定为每一分组中的、随窗口比例改变的窗口字段,窗口比例建立缓冲区的上限,但并不保证该缓冲区实际上就那么大。每个分组在窗口字段中指示接收器处当前可用的缓冲区空间。
在使用窗口虚拟化技术进行缩放的一个实施例中,在连接建立(即,会话初始化)期间,当第一流控制模块220从源节点102接收SYN信号(或者分组)时,流控制模块220源节点102(其是之前的节点)的窗口比例或者如果之前的节点的比例丢失则为窗口比例存储0。第一流控制模块220还在SYN-FCM信号中修改该比例,例如将该比例从0或者1增加到4。当第二流控制模块220接收SYN信号时,其存储来自第一流控制信号的增加的比例并且将该SYN信号中的比例重置为源节点103的比例值以用于到目标节点106的传输。当第二流控制器220接收到来自目标节点106的SYN-ACK信号时,其存储来自目标节点106的比例(例如,0或1)的比例并且将其修改为与SYN-ACK-FCM信号一起发送的增加的比例。第一流控制节点220接收并且记录所接收的窗口比例并且将被发回源节点102的窗口比例修订为降回到初始比例(例如0或者1)。基于上面在连接建立期间的窗口变换对话,会话的每个后续分组(例如TCP分组)的中的窗口字段必须随窗口变换对话而改变。
如上所述,窗口比例表示出大于64k的缓冲区大小,并且可以不需要窗口虚拟化。因此,窗口比例的变换可以用于表示在每个流控制模块220中的增加的缓冲区容量。该缓冲区容量的增加可作为窗口(或缓冲区)虚拟化而被提及。该缓冲区大小的增加允许更大的分组从各自的端节点102和106进出。注意到,TCP中的缓冲区大小典型地以字节表示,但是为了讨论的方便,由于“分组”和虚拟化相关,在此处描述中可以使用“分组”。
通过举例描述由流控制器220执行的窗口(或缓存区)虚拟化。在该示例中,源节点102和目标节点106被配置为与具有16k字节的有限的缓存区容量的传统端节点相似,其大约等于10个数据分组。通常,端节点102、106在能够传输下一组分组之前必须进行等待,直到该分组被传输并且收到确认为止。在一个实施例中,使用在流控制模块220中的增加的缓冲区容量,当源节点103传输其数据分组时,第一流控制模块220接收该分组,将该分组存储在其较大容量的缓存区(例如512个分组容量)中,并且立即将指示分组接收的确认信号(“REC-ACK”)发送回到源节点102。源节点102接着可以“刷新”其当前缓冲区,将10个新的数据分组载入到缓存区,并且将这些传输到第一流控制模块220上。再次,第一流控制模块220将REC-ACK信号发送回到源节点102,并且源节点102刷新其缓冲区并且对其载入10个更新的分组用于传输。
当第一流控制模块220接收到来自源节点的数据分组时,其相应地将该数据分组载入到缓冲区中。当其准备好时,第一流控制模块220可以开始将数据分组传输到第二流控制模块230,其也具有增加的缓存区大小,例如以便接收512个分组。第二流控制模块220’接收数据分组并且开始每次传输10个分组到目标节点106。在第二流控制节点220处接收的、来自目标节点106的每个REC-ACK致使又有10个分组被传输到目标节点106,直到所有的数据分组被传送为止。因此,本发明能够通过利用装置之间的流控制模块220、220’的较大的缓冲区来增加在源节点(发送器)102和目标节点(接收器)106之间的数据传输吞吐量。
注意到通过之前描述的“预确认”数据的传输,发送器(或源节点102)被允许传输比没有预确认时可能传输的数据更多的数据,因此造成更大的窗口大小。例如,在一个实施例中,流控制模块220、220’处于缺乏大窗口的节点(例如,源节点102或者目标节点106)附近时,该技术是有效的。
重新拥塞
流控制器220的另一个技术或者算法被称为重新拥塞。众所周知标准的TCP拥塞避免算法在面对特定网络条件(包括:大的RTT(往返时间)、高分组丢失率,以及其它)时性能低下。当设备200检测到诸如长的往返时间或者高的分组丢失的拥塞条件时,设备200插入、代入更适合该特定网络调节的替代的拥塞避免算法。在一个实施例中,重新拥塞算法使用预确认来有效地终止发送器和接收器之间的连接。设备200接着使用不同的拥塞避免算法从自身重新发送分组到接收器。重新拥塞算法可以依赖于TCP连接的特征。设备200监控每个TCP连接,在不同的维度将其特征化,选择适合用于当前特征的重新拥塞算法。
在一个实施例中,当检测到由往返时间(RTT)限制的TCP连接时,应用表现为多个TCP连接的重新拥塞算法。每个TCP连接操作在其自身性能限度内,但是聚合带宽获得了更高的性能水平。该机制中的一个参数是所应用的并行连接的数量(N)。N值过大则连接束获得超过其合理份额的带宽。N值过小则连接束获得低于其合理份额的带宽。建立“N”的一个方法依赖于设备200监控实际连接的分组大小、RTT和分组丢失率。将这些数字插入TCP响应曲线方程来提供本配置中单个TCP连接的性能的上限。如果连接束中每个连接正获得与计算出的上限性能基本相同的性能,则应用额外的并行连接。如果当前束正获得低于上限的性能,则减少并行连接的数量。依次方式,由于单独的连接束包含的并行性不比消除协议自身所强加的限制所需的并行性更多,所以维持了系统的整体公平性。进一步,每个单独的连接保留TCP兼容性。
建立“N”的另一个方法是使用并行流控制算法,例如TCP“Vegas”算法或者其改进版本“稳定的Vegas”。在该方法中,与连接束中的连接相关联的网络信息(例如,RTT、丢失率、平均分组大小等等)被聚集并且被应用到替代的流控制算法。该算法的结果进而被分布到控制其数量(即,N)的束的连接之间。可选地,束中的每个连接仍旧使用标准TCP拥塞避免算法。
在又一个实施例中,并行束中的单独的连接被虚拟化,即不建立实际的单独的TCP连接。事实上拥塞避免算法被修改为表现得就好像存在N个并行连接一样。该方法的优点在于对于经过多个网络节点而言就如同单个连接一样。因此重新拥塞算法不影响这些节点的QOS、安全性和其他监控方法。在又一个实施例中,并行束中的单独的连接是真实存在的,即独立的。为束中的并行连接的每一个建立TCP连接。不必修改用于每个TCP连接的拥塞避免算法。
重传
在一些实施例中,流控制器220可以使用本地重传技术。实施预确认的一个原因是为经过高损的链路(例如无线)作准备。在这些实施例中,预确认设备200或者流控制模块220最好位于无线链路“之前”。这使得要进行的重传更接近于高损链路,免去了网络的剩余部分的重传负担。设备200可提供本地重传,在这种情形中,由于链路错误而丢弃的分组由设备200直接重传。由于这消除了在端节点(诸如服务器106)和任一网络104的基础设施上的重传负担,所以这是有益的。利用设备200提供本地重传,丢弃的分组可以被重传通过高损链路而不必由端节点重传且不会引起端节点的数据传输率的对应下降。
实施预确认的另一个原因是避免接收超时(RTO)惩罚。在标准TCP中,即使是成功接收传输中的较大百分比的分组,但仍存在多种情况导致RTO。使用标准TCP算法,在一个RTT窗口中丢弃不只一个分组有可能会导致超时。此外,如果重传的分组被丢弃,则大部分TCP连接经历超时。在具有高带宽延迟产品的网络中,甚至相对小的分组丢失率也会导致频繁的重传超时(RTO)。在一个实施例中,设备200使用重传和超时算法来避免过早的RTO。设备200或者流控制器220基于每一分组来维持重传的计数。每传输一个分组,将计数加一,然后设备200继续传输分组。在一些实施例中,仅有当一个分组已经被重传预定的次数后才宣告RTO。
波前检测和消除二义性
在一些实施例中,设备200或者流控制器220在管理和控制网络流量中使用波前检测和消除二义性技术。在该技术中,流控制器220使用传输标识符或者号码来确定是否需要重传特定数据分组。举例来说,发送器在网络上传输数据分组,其中所传输的数据分组的每一个实例与一个传输号码相关联。可以理解,分组的传输号码与分组的序列号不相同,因为序列号标记分组中的数据,而传输号码标记该数据的传输的实例。传输号码可以是对于该目的可用的任意信息,包括与分组相关联的时间戳或者简单地增加的号码(类似于序列号或者分组号)。因为数据段可以被重传,所以不同的传输号码可以与特定的序列号相关联。
由于发送器传输数据分组,所以发送器保持被确认的数据分组传输的实例的数据结构。数据分组传输的每个实例由其序列号和传输号码标记。通过保持对于每个分组的传输号码,发送器保留数据分组的传输顺序。当发送器接收到ACK或者SACK时,发送器确定与接收器(在所接收的确认中)指示的已经接收的分组相关联的最高的传输号码。具有较低传输号码的任何未完成的未经确认的分组被假设为已丢失。
在一些实施例中,当到达分组已经被重传时,发送器呈现出模糊的情形:标准的ACK/SACK没有包含足够的信息来使发送器确定该到达分组的哪个传输触发了该确认。从而,在接收到模糊确认之后,发送器消除该确认二义性以将其与传输号码相关联。在不同的实施例中,多个技术的其中之一或者组合可以被用来解决该模糊性。
在一个实施例中,发送器在所传输的数据分组中包含标识符,然后,接收器在确认中返回该标识符或者该标识符的函数。该标识符可以是时间戳(例如在RFC1323中描述的TCP时间戳)、序列号、可以被用来在分组传输的两个或多个实例之间进行解析的任何其他信息。在TCP时间戳选项被用来消除确认的二义性的实施例中,使用高达32位唯一的信息来标记每个分组。接收到数据分组时,接收器通过确认将该唯一信息回送到发送器。发送器确保最初发送的分组和其重传的一个或者多个版本包含对于时间戳选项的不同值,这允许其明确地消除ACK的模糊性。发送器可以将该唯一信息保持在例如用来保存所发送的数据分组的状态的数据结构中。由于该技术与工业标准相兼容并且因此很少或不会遇到互操作性的问题,所以该技术是有益的。然而,该技术在一些实现中可能要求十个字节的TCP首部空间,这降低了网络上有效吞吐率并且减少了可用于其他TCP选项的空间。
在又一个实施例中,分组中的另一个字段,诸如IP ID字段,被用来以与上述TCP时间戳选项相似的方式来消除二义性。发送器安排该分组的最初和重传版本的ID字段值,以使在IP首部中具有不同的ID字段。在接收器或其代理装置接收到数据分组时,接收器将ACK分组的ID字段设置为触发该ACK的分组的ID字段的函数。由于该方法不需要发送额外的数据,保持了网络和TCP首部空间的效率,所以该方法是有益的。所选择的函数应有极大可能消除二义性。在优先实施例中,发送器选择IP ID值且将最高有效位设置为0。当接收器响应时,IP ID值被设置为相同的IP ID值,且最高有效位被设为1。
在另一个实施例中,与非模糊性确认相关联的传输号码被用来消除模糊确认的二义性。该技术基于这样的原理:由于两个分组在时间上更接近地传输,则对于这两个分组的确认将倾向于时间上更接近地接收。由于对于未被重传的分组所接收的确认可容易地与传输号码相关联,所以这样的分组不会导致模糊性。因此,可以将这些已知的传输号码与所接收的在时间上接近于已知确认的模糊确认的可能的传输号码相比较。发送器将模糊确认的传输号码与最近已知的所接收的传输号码相比较,选择对于已知的所接收的传输号码最接近的一个。例如,如果接收到对数据分组1的确认并且最后所接收的确认是针对数据分组5,那么发送器通过假设数据分组1的第三个实例导致了该确认来解决该模糊性。
选择性确认
设备200或者流控制器220的另一项技术是实现传输控制协议选择性确认或TCP SACK的实施例以确定已经收到哪些分组或没有收到哪些分组。该技术允许发送器明确地确定已经由接收器收到的分组的列表以及没有收到的分组的精确的列表。可以通过修改发送器和/或接收器或者通过将发送器侧和接收器侧流控制模块220插入到发送器和接收器之间的网络路径中来实现该功能。参考图1A或者1B,发送器(例如客户机102)被配置为通过网络104向接收器(例如服务器106)传输数据分组。作为响应,接收器将被称为SACK分组的TCP选择性确认选项返回给发送器。在一个实施例中,尽管此处为了简便仅讨论一个方向的通信,但是该通信是双向的。接收器保持包含接收器实际已收到的数据分组的序列号的一组范围的列表或者其他适合的数据结构。在一些实施例中,该列表根据序列号以升序或者降序排列。接收器还保持放弃的(left-off)指针,其包括对列表的引用并且指示从之前生成的SACK分组的放弃点。
当接收到数据分组时,接收器生成SACK分组并将其传输回到发送器。在一些实施例中,SACK分组包括多个字段,每个字段可以保留序列号的范围来指示一组已接收的数据分组。接收器用包括触发SACK分组的正在到达(landing)分组的序列号的范围来填充该SACK分组的第一字段。剩余可用的SACK字段用已收到的分组的列表的序列号的范围来填充。当该列表中的范围超过可以被载入SACK分组的范围时,接收器使用放弃指针来确定哪个范围被载入SACK分组。接收器从有序的列表连续插入SACK范围,从指针引用的范围开始并且沿列表持续向下,直到消耗完SACK分组的TCP首部中的可用的SACK范围空间。如果到达末端,则接收器环绕到列表的开始。在一些实施例中,两个或三个附加的SACK范围可以被添加到SACK范围信息。
一旦接收器生成SACK分组,接收器将确认发送会发送器。然后,接收器在列表中将放弃的指针前进一个或者多个SACK范围项。例如,如果接收器插入四个SACK范围,则放弃指针可以在列表中被推进两个SACK范围。当所推进的放弃的指针到达列表的末端,则指针被重置为列表的开始,从而有效地环绕已知所接收范围的列表,环绕该列表使得系统甚至能在SACK分组大量丢失的情况下良好地运行,这是由于一旦列表被环绕,则由于丢失的SACK分组导致的未被通信的SACK信息将最终被通信。
因此可以理解,SACK分组可以通信关于接收器的情况的多个细节。首先,SACK分组指示在SACK分组生成时接收器刚刚收到该SACK信息的第一字段中的数据分组。其次,SACK信息的第二和随后的字段指示接收器已经收到这些范围中的数据分组。SACK信息还暗示接收器在SACK分组生成时没有接收落入SACK信息的第二和随后的字段之间的任何一个数据分组。本质上,SACK信息中的第二和随后的字段之间的范围是所接收的数据中的“孔”,其中的数据是已知的未被传送的数据。因此,使用该方法,当SACK分组具有足够空间来包括多余两个的SACK范围时,接收器可以向发送器指示还没有被接收器接收的数据分组的范围。
在另一个实施例中,发送器使用上述的SACK分组结合上述重传技术来假定哪些数据分组已经被传送到接收器。例如,当重传算法(使用传输号码)宣告分组丢失时,发送器认为该分组仅是条件性丢失,因为有可能是识别该分组的接收的SACK分组丢失,而不是数据分组本身丢失。发送器因此将该分组添加到潜在丢失的分组的列表,称之为假定丢失的列表。每当SACK分组到达,将来自SACK分组的数据的已知丢失范围和假定丢失列表中的分组相比较。包括已知丢失的数据分组被宣告实际丢失并被随后重传。以此方式,组合这两个方案来将更好的关于已丢失且需要重传哪些分组的信息给予发送器。
事务边界检测
在一些实施例中,设备200或流控制器220使用被称为事务边界检测的技术。在一个实施例中,该技术适合于乒乓(ping-pong)表现的连接。在TCP层,乒乓行为是当一个通信器(发送器)发送数据然后等待来自另一个通信器(接收器)的响应。乒乓行为的例子包括远程程序调用、HTTP和其他。以上描述的算法使用重传超时来从与事务相关的最后的一个分组或多个的丢弃进行恢复。由于在一些实施例中,TCP RTO机制极端粗略,例如在所有情况中要求最小1秒的值,在这些情况下可以看到差的应用行为。
在一个实施例中,数据的发送器或耦合到发送器的流控制模块220检测所发送的数据中的事务边界。在检测到事务边界时,发送器或者流控制器220发送额外的分组,额外的分组的接收从接收器生成额外的ACK或者SACK响应。额外的分组的插入优选地限于改善的应用响应时间和网络能力利用之间的平衡。所插入的额外的分组的数量可以根据与该连接相关联的当前丢失率来进行选择,对于较高的丢失率的连接选择更多的分组。
检测事务边界的一个方法是基于时间的。如果发送器已经发送数据并停止,则在一段时间之后发送器或流控制模块220宣告事务边界。这可以和其他技术相结合。例如,由发送器在TCP首部中设置PSH(TCP推送)位可以指示事务边界。因此,将基于时间的方法和这些附加的试探方法相组合可以提供对于事务边界的更精确的检测。在另一个技术中,如果发送器或者流控制模块220理解应用协议,其可以解析协议数据流并且直接确定事务边界。在一些实施例中,可以独立于任一基于时间的机制使用此最后的行为。
响应于检测事务边界,发送器或流控制模块220向接收器传输额外的数据分组以便从接收器引发确认。因此,额外的数据分组应该使得接收器将响应于接收数据分组来至少产生ACK或SACK。在一个实施例中,简单地重传事务的最后一个或多个分组。相比于仅发送虚拟的数据分组,如果最后一个或多个分组已经被丢弃,这就具有重传所需数据的增加的益处。在又一个实施例中,发送最后一个或多个分组的片段,允许发送器来消除来自于其最初分组的这些分组到来的二义性。这使接收器避免错误的混淆任意重新排序自适应算法。在又一个实施例中,任意数量的公知的前向纠错技术可被用来为所插入的分组生成额外的数据,这允许重新构造接收器处丢失的或以其他方式错过的数据。
在一些实施例中,当对事务中的最后的数据分组的确认被丢弃时,此处描述的边界检测技术有助于避免超时。当发送器或流控制模块220接收对于这些额外的数据分组的确认时,发送器可以从这些额外的确认来确定最后的数据分组是否已经被接收或这需要被重传,从而避免超时。在一个实施例中,如果最后的分组已经被接收但是它们的确认被丢弃,则流控制模块220生成对该数据分组的确认,并且将该确认发送到发送器,从而告知发送器该数据分组已经被传送。在又一个实施例中,如果没有收到最后的分组,则流控制模块220向发送器发送一个分组来使发送器重传丢弃的数据分组。
重新分组
在又一个实施例中,设备200或流控制器220使用重新分组技术来改善传输层网络流量。在一些实施例中,TCP性能和分组大小成比例。因此增加分组大小能改进性能,除非其引起大大增加的分组丢失率或其他非线性效应,例如IP分片。通常,有线介质(诸如铜缆或光纤)具有极低的误码率,低到可以忽略不计。对于这些介质,在分片发生之前,最大化分组大小是有益的(通过底层传输介质的协议来限制最大化的分组大小)。但是对于具有较高丢失率的传输介质(例如,诸如WiFi等的无线技术,或者诸如电力线网络等高损环境),增加分组大小可能导致较低的传输率,因为介质引发的错误导致整个分组被丢弃(即,介质引发的错误超过对于该介质的标准纠错码的能力),从而增加了分组丢失率。分组丢失率中的显著大的增加实际上否定了增加的分组大小的任何性能益处。在一些情况中,对于TCP端点来选择最优的分组大小可能是困难的。例如,最优的分组大小可以根据每个链路的性质在传输路径时发生变化。
通过将设备200或流控制模块220插入到传输路径中,流控制器220监控链路的特征并且根据所确定的链路特征重新分组。在一个实施例中,设备200或流控制器220将具有连续数据的分组重新分组为少量的较大分组。在又一个实施例中,设备200或流控制器220通过将一系列大分组分为大量的较小的分组来对分组进行重新分组。在其他实施例中,设备200或流控制器220监控链路特征并且通过重新组合来调整分组大小以提高吞吐量。
QoS
仍参考图2A,在一些实施例中,流控制器220可以包括QoS引擎236,(也被称为QoS控制器)。在又一个实施例中,例如,设备200和/或网络优化引擎250包括单独的但与流控制器220通信的QoS引擎236。QoS引擎236包括用于执行改善任何网络连接的性能、操作或服务质量的一个或多个服务质量(QoS)技术的任何逻辑、商业规则、功能或操作。在一些实施例中,QoS引擎236包括为不同用户、应用、数据流或连接提供不同优先级的网络流量控制和管理机制。在其他实施例中,QoS引擎236为用户、应用、数据流或连接控制、维持或确保特定水平的性能。在一个实施例中,QoS引擎236为用户、应用、数据流或连接控制、维持或确保特定部分的带宽或网络容量。在一些实施例中,QoS引擎236监控对应于用户、应用、数据流或连接的性能或服务质量的所达到的水平,例如数据速率和延迟。响应于监控,QoS引擎236动态地控制或调整网络分组的调度优先级来获得期望水平的性能或服务质量。
在一些实施例中,QoS引擎236根据一个或多个类别或等级的服务来优先排序、调度和传输网络分组。在一些实施例中,服务类别或等级可以包括:1)尽最大努力,2)控制的负载,3)有保证的或者4)定性的。对于尽最大努力类的服务,设备200作出合理的努力来传送分组(标准服务水平)。对于控制的负载类的服务,设备200或QoS引擎236近似传输介质的标准的分组错误丢失或者近似轻度负载网络条件下的尽最大努力服务的行为。对于有保证类的服务,设备200或QoS引擎236保证来在连接期间以确定的速率传输数据的能力。对于定性类的服务,设备200或QoS引擎236将定性类服务用于要求或期望优先排序的流量的应用、用户、数据流或者连接,但不能对资源需求或服务水平进行定量。在这些情况中,设备200或QoS引擎236基于QoS引擎236的任意逻辑或配置或者基于商业规则或策略来确定服务类别或优先级。例如,在一个实施例中,QoS引擎236根据策略引擎295、295’指定的一个或多个策略来优先排序、调度和传输网络分组。
协议加速
协议加速器234包括用于优化、加速或以其他方式改善一个或多个协议的性能、操作或服务质量的任何逻辑、商业规则、功能或操作。在一个实施例中,协议加速器234在网络堆栈的层5-7的加速任何应用层协议。在其他实施例中,协议加速器234加速传输层或者层4协议。在一个实施例中,协议加速器234加速层2或层3的协议。在一些实施例中,协议加速器234被配置、构建或设计来根据数据类型、协议的特征和/或行为来优化或加速一个或多个协议的每一个。在又一个实施例中,协议加速器234被配置、构建或设计来改善用户体验、响应时间、网络或者计算机负载,和/或关于协议的网络或带宽利用。
在一个实施例中,协议加速器234被配置、构建或设计来最小化文件系统访问上的WAN延迟的影响。在一些实施例中,协议加速器234优化或加速CIFS(通用互联网文件系统)协议的使用来改善文件系统访问时间或对数据和文件的访问时间。在一些实施例中,协议加速器234优化或加速NFS(网络文件系统)协议的使用。在又一个实施例中,协议加速器234优化或加速文件传输协议(FTP)的使用。
在一个实施例中,协议加速器234被配置、构建或设计来优化或加速承载为有效载荷的或使用任何类型和形式的标记语言的协议。在其他实施例中,协议加速器234被配置、构建或设计来优化或加速超文本传输协议(HTTP)。在又一个实施例中,协议加速器234被配置、构建或设计来优化或加速承载有效载荷或以其他方式使用XML(可扩展标记语言)的协议。
透明并且多点部署配置
在一些实施例中,设备200和/或网络优化引擎250对于通过诸如WAN链路的网络连接或链路的任何数据流是透明的。在一个实施例中,设备200和/或网络优化引擎250以这样的方式操作:通过WAN的数据流是由任何网络监控、QoS管理或网络分析工具可识别的。在一些实施例中,设备200和/或网络优化引擎250不创建用于传输可以隐藏、遮掩或以其他方式使网络流量不透明的数据的任何隧道或流。在其他实施例中,设备200透明地操作,因为设备不改变网络分组的任何源和/或目标地址信息或端口信息,诸如互联网协议地址或端口号。在其他实施例中,设备200和/或网络优化引擎250被认为对于网络架构中的网络、应用、客户机、服务器或其他设备或计算装置透明地操作或运转。也就是在一些实施例中,设备是透明的,因为不必修改网络上的任何装置或设备的网络相关配置来支持设备200。
可以下面的部署配置的任何一个来部署设备200:1)串行流量,2)代理模式,3)虚拟串行模式。在一些实施例中,设备200可以与以下的一个或多个串行部署:路由器、客户机、服务器或者另一个网络装置或设备。在其他实施例中,设备200可以与以下的一个或多个并行部署:路由器、客户机、服务器或者另一个网络装置或设备。在并行部署中,路由器、客户机、服务器或者其他网络设备可以被配置为转发、转换或通过网络至设备200或者经由设备200转发、转换或通过网络。
在串行的实施例中,设备200与路由器的WAN串行部署。以此方式,来自WAN的所有流量在到达LAN的目的地之前穿过该设备。
在代理模式的实施例中,设备200被部署为客户机和服务器之间的代理装置。在一些实施例中,设备200使客户机与网络上的资源间接连接。例如,客户机经由设备200连接到资源,并且设备通过连接到该资源、不同的资源、或者通过从高速缓存供应该资源来提供资源。在一些情况中,设备可以对于不同的目的来改变客户机请求或者服务器响应,诸如对于此处所讨论的任何优化技术。在其他实施例中,设备200通过透明地拦截并转发到客户机和/或服务器的请求和响应来作为透明代理运行。不使用客户机侧配置,设备200可以将客户机请求重定向到不同的服务器或网络。在一些实施例中,设备200可以在穿过该设备的任何网络流量上执行任何类型和形式的网络地址转换(被称为NAT)。
在一些实施例中,设备200以虚拟串行模式配置来部署。在该实施例中,具有路由或转换功能的路由器或网络装置被配置为转发、路由或以其他方式提供发往网络或设备200的网络分组。设备200接着在该网络分组上执行任一期望的处理,诸如此处讨论的任一WAN优化技术。当完成处理时,设备200将经处理的网络分组转发到路由器以传输到网络上的目的地。以此方式,设备200可以并行耦合到路由器,但仍如同设备200串行一样操作。该部署模式还提供透明性,因为当分组被处理并经由设备通过网络传输时,保留了源和目标地址以及端口信息。
端节点部署
尽管在上文网络优化引擎250总是结合设备200来描述,但是网络优化引擎250或其任何部分可以被部署、分布或以其他方式操作在诸如客户机102和/或服务器106的任一端节点上。由此,客户机或服务器可以提供此处所描述的结合一个或多个设备200或者不结合设备200的网络优化引擎250的任何系统和方法。
现参考图2B,描述部署在一个或多个端节点的网络优化引擎250的示例实施例。总的来说,客户机102可以包括第一网络优化引擎250’并且服务器106可以包括第二网络优化引擎250”。客户机102和服务器106可以建立传输层连接并且交换穿过或不穿过设备200的通信。
在一个实施例中,客户机102的网络优化引擎250’执行此处描述的技术来优化、加速或以其他方式改善与服务器106通信的网络流量的性能、操作或服务质量。在又一个实施例中,服务器106的网络优化引擎250”执行此处描述的技术来优化、加速或以其他方式改善与客户机102通信的网络流量的性能、操作或服务质量。在一些实施例中,客户机102的网络优化引擎250’和服务器106的网络优化引擎250”执行此处描述的技术来优化、加速或以其他方式改善在客户机102与服务器106之间通信的网络流量的性能、操作或服务质量。在又一个实施例中,客户机102的网络优化引擎250’结合设备200执行此处描述的技术来优化、加速或以其他方式改善与客户机102通信的网络流量的性能、操作或服务质量。在又一个实施例中,服务器106的网络优化引擎250”结合设备200执行此处描述的技术来优化、加速或以其他方式改善与服务器106通信的网络流量的性能、操作或服务质量。
现参考图2B,描述了设备205的又一个实施例。总的来说,设备205提供下列服务、功能或操作中的一个或多个:用于一个或多个客户机102以及一个或多个服务器106之间的通信的SSL VPN连通280、交换/负载平衡284、域名服务解析286、加速288和应用防火墙290。服务器106的每一个可以提供一个或者多个网络相关服务270a-270n(称为服务270)。例如,服务器106可以提供http服务270。设备205包括一个或者多个虚拟服务器或者虚拟互联网协议服务器,称为vServer275、vS275、VIP服务器或者仅是VIP275a-275n(此处也称为vServer275)。vServer275根据设备205的配置和操作来接收、拦截或者以其它方式处理客户机102和服务器106之间的通信。
vServer275可以包括软件、硬件或者软件和硬件的任何组合。vServer275可包括在设备205中的用户模式202、内核模式204或者其任何组合中运行的任何类型和形式的程序、服务、任务、进程或者可执行指令。vServer275包括任何逻辑、功能、规则或者操作,以执行此处所述技术的任何实施例,诸如SSL VPN280、转换/负载平衡284、域名服务解析286、加速288和应用防火墙290。在一些实施例中,vServer275建立到服务器106的服务270的连接。服务275可以包括能够连接到设备205、客户机102或者vServer275并与之通信的任何程序、应用、进程、任务或者可执行指令集。例如,服务275可以包括web服务器、http服务器、ftp、电子邮件或者数据库服务器。在一些实施例中,服务270是守护进程或者网络驱动器,用于监听、接收和/或发送应用的通信,诸如电子邮件、数据库或者企业应用。在一些实施例中,服务270可以在特定的IP地址、或者IP地址和端口上通信。
在一些实施例中,vServer275应用策略引擎236的一个或者多个策略到客户机102和服务器106之间的网络通信。在一个实施例中,该策略与vServer275相关。在又一个实施例中,该策略基于用户或者用户组。在又一个实施例中,策略为通用的并且应用到一个或者多个vServer275a-275n,和通过设备205通信的任何用户或者用户组。在一些实施例中,策略引擎的策略具有基于通信的任何内容应用该策略的条件,通信的内容诸如互联网协议地址、端口、协议类型、分组中的头部或者字段、或者通信的上下文,诸如用户、用户组、vServer275、传输层连接、和/或客户机102或者服务器106的标识或者属性。
在其他实施例中,设备205与策略引擎236通信或接口,以便确定远程用户或远程客户机102的验证和/或授权,以访问来自服务器106的计算环境15、应用和/或数据文件。在又一个实施例中,设备205与策略引擎236通信或交互,以便确定远程用户或远程客户机102的验证和/或授权,使得应用传送系统190传送一个或多个计算环境15、应用和/或数据文件。在又一个实施例中,设备205基于策略引擎236对远程用户或远程客户机102的验证和/或授权建立VPN或SSL VPN连接。一个实施例中,设备205基于策略引擎236的策略控制网络流量以及通信会话。例如,基于策略引擎236,设备205可控制对计算环境15、应用或数据文件的访问。
在一些实施例中,vServer275与客户机102经客户机代理120建立传输层连接,诸如TCP或者UDP连接。在一个实施例中,vServer275监听和接收来自客户机102的通信。在其他实施例中,vServer275与客户机服务器106建立传输层连接,诸如TCP或者UDP连接。在一个实施例中,vServer275建立到运行在服务器106上的服务器270的互联网协议地址和端口的传输层连接。在又一个实施例中,vServer275将到客户机102的第一传输层连接与到服务器106的第二传输层连接相关联。在一些实施例中,vServer275建立到服务器106的传输层连接池并经由所述池化(pooled)的传输层连接多路复用客户机的请求。
在一些实施例中,设备205提供客户机102和服务器106之间的SSL VPN连接280。例如,第一网络102上的客户机102请求建立到第二网络104’上的服务器106的连接。在一些实施例中,第二网络104’是不能从第一网络104路由的。在其他实施例中,客户机102位于公用网络104上,并且服务器106位于专用网络104’上,例如企业网。在一个实施例中,客户机代理120拦截第一网络104上的客户机102的通信,加密该通信,并且经第一传输层连接发送该通信到设备205。设备205将第一网络104上的第一传输层连接与到第二网络104上的服务器106的第二传输层连接相关联。设备205接收来自客户机代理102的所拦截的通信,解密该通信,并且经第二传输层连接发送该通信到第二网络104上的服务器106。第二传输层连接可以是池化的传输层连接。同样的,设备205为两个网络104、104’之间的客户机102提供端到端安全传输层连接。
在一个实施例中,设备205寄载虚拟专用网络104上的客户机102的内部网互联网协议或者IntranetIP282地址。客户机102具有本地网络标识符,诸如第一网络104上的互联网协议(IP)地址和/或主机名称。当经设备205连接到第二网络104’时,设备205在第二网络104’上为客户机102建立、分配或者以其它方式提供IntranetIP地址282,其是诸如IP地址和/或主机名称的网络标识符。使用为客户机的所建立的IntranetIP282,设备205在第二或专用网104’上监听并接收指向该客户机102的任何通信。在一个实施例中,设备205在第二专用网络104上用作或者代表客户机102。例如,在又一个实施例中,vServer275监听和响应到客户机102的IntranetIP282的通信。在一些实施例中,如果第二网络104’上的计算装置100发送请求,设备205如同客户机102一样来处理该请求。例如,设备205可以响应对客户机IntranetIP282的查验。在又一个实施例中,设备可以与请求和客户机IntranetIP282连接的第二网络104上的计算装置100建立连接,诸如TCP或者UDP连接。
在一些实施例中,设备205为客户机102和服务器106之间的通信提供下列一个或多个加速技术288:1)压缩;2)解压缩;3)传输控制协议池;4)传输控制协议多路复用;5)传输控制协议缓冲;以及6)高速缓存。在一个实施例中,设备205通过开启与每一服务器106的一个或者多个传输层连接并且维持这些连接以允许由客户机经因特网的重复数据访问,来为服务器106缓解由重复开启和关闭到客户机102的传输层连接所造成的大量处理负载。该技术此处称为“连接池”。
在一些实施例中,为了经池化的传输层连接无缝拼接从客户机102到服务器106的通信,设备205通过在传输层协议级修改序列号和确认号来转换或多路复用通信。这被称为“连接多路复用”。在一些实施例中,不需要应用层协议相互作用。例如,在到来分组(即,自客户机102接收的分组)的情况中,所述分组的源网络地址被改变为设备205的输出端口的网络地址,而目的网络地址被改为目的服务器的网络地址。在发出分组(即,自服务器106接收的一个分组)的情况中,源网络地址被从服务器106的网络地址改变为设备205的输出端口的网络地址,而目的地址被从设备205的网络地址改变为请求的客户机102的网络地址。分组的序列号和确认号也被转换为到客户机102的设备205的传输层连接上的客户机102所期待的序列号和确认。在一些实施例中,传输层协议的分组校验和被重新计算以计及这些转换。
在又一个实施例中,设备205为客户机102和服务器106之间的通信提供交换或负载平衡功能284。在一些实施例中,设备205根据层4或应用层请求数据来分布流量并将客户机请求定向到服务器106。在一个实施例中,尽管网络分组的网络层或者层2识别目的服务器106,但设备205通过承载为传输层分组的有效载荷的数据和应用信息来确定服务器106以便分发网络分组。在一个实施例中,设备205的健康监控程序216监控服务器的健康来确定分发客户机请求到哪个服务器106。在一些实施例中,如果设备205探测到某个服务器106不可用或者具有超过预定阈值的负载,设备205可以将客户机请求指向或者分发到另一个服务器106。
在一些实施例中,设备205用作域名服务(DNS)解析器或者以其它方式为来自客户机102的DNS请求提供解析。在一些实施例中,设备拦截由客户机102发送的DNS请求。在一个实施例中,设备205以设备205的IP地址或其所寄载的IP地址来响应客户机的DNS请求。在此实施例中,客户机102把用于域名的网络通信发送到设备205。在又一个实施例中,设备205以第二设备205’的或其所寄载的IP地址来响应客户机的DNS请求。在一些实施例中,设备205使用由设备205确定的服务器106的IP地址来响应客户机的DNS请求。
在又一个实施例中,设备205为客户机102和服务器106之间的通信提供应用防火墙功能290。在一个实施例中,策略引擎236提供用于探测和阻断非法请求的规则。在一些实施例中,应用防火墙290防御拒绝服务(DoS)攻击。在其他实施例中,设备检查所拦截的请求的内容,以识别和阻断基于应用的攻击。在一些实施例中,规则/策略引擎236包括用于提供对多个种类和类型的基于web或因特网的脆弱点的保护的一个或多个应用防火墙或安全控制策略,例如下列的一个或多个脆弱点:1)缓冲区泄出,2)CGI-BIN参数操纵,3)表单/隐藏字段操纵,4)强制浏览,5)cookie或会话中毒,6)被破坏的访问控制列表(ACLs)或弱密码,7)跨站脚本处理(XSS),8)命令注入,9)SQL注入,10)错误触发敏感信息泄露,11)对加密的不安全使用,12)服务器错误配置,13)后门和调试选项,14)网站涂改,15)平台或操作系统弱点,和16)零天攻击。在一个实施例中,对下列情况的一种或多种,应用防火墙290以检查或分析网络通信的形式来提供HTML格式字段的保护:1)返回所需的字段,2)不允许附加字段,3)只读和隐藏字段强制(enforcement),4)下拉列表和单选按钮字段的一致,以及5)格式字段最大长度强制。在一些实施例中,应用防火墙290确保cookie不被修改。在其他实施例中,应用防火墙290通过执行合法的URL来防御强制浏览。
在其他实施例中,应用防火墙290保护在网络通信中包含的任何机密信息。应用防火墙290可以根据引擎236的规则或策略来检查或分析任一网络通信以识别在网络分组的任一字段中的任一机密信息。在一些实施例中,应用防火墙290在网络通信中识别信用卡号、口令、社会保险号、姓名、病人代码、联系信息和年龄的一次或多次出现。网络通信的编码部分可以包括这些出现或机密信息。基于这些出现,在一个实施例中,应用防火墙290可以对网络通信采取策略行动,诸如阻止发送网络通信。在又一个实施例中,应用防火墙290可以重写、移动或者以其它方式掩盖该所识别的出现或者机密信息。
现在参考图4D,描述了在服务器106的管理程序401上操作的虚拟设备460的实施例的框图。如图2A和2B的设备205一样,虚拟设备460可以提供可用性、性能、卸载和安全的功能。对于可用性,虚拟设备可以执行网络层4和层7之间的负载平衡并且还可以执行智能服务健康监控。对于通过网络流量加速实现的性能增加,虚拟设备可以执行高速缓存和压缩。对于任何服务器的卸载处理,虚拟设备可以执行连接复用和连接池和/或SSL处理。对于安全,虚拟设备可以执行设备200的任何应用防火墙功能和SSL VPN功能。
结合附图2A描述的设备200的任何模块可以虚拟化设备传送控制器460的形式被打包、组合、设计或构造,虚拟化设备传送控制器460可部署成在诸如流行的服务器这样的任何服务器上的虚拟化环境400或非虚拟化环境中执行的软件模块或组件。例如,可以安装在计算装置上的安装包的形式提供虚拟设备。图2C中描述的设备的任何组件或功能可被设计和构造为在计算装置和/或虚拟化环境300的任何操作系统上运行的软件组件或模块。
仍参考图4D,简言之,任何一个或多个vServer275A-275N可以操作或执行在任意类型的计算装置100(如服务器106)的虚拟化环境400中。结合附图2C描述的设备200的任何模块和功能可以设计和构造成在服务器的虚拟化或非虚拟化环境中操作。可以将vServer275、SSL VPN280、内网UP282、交换装置284、DNS286、加速装置288、APP FW280和监控代理中的任一个打包、组合、设计或构造成应用传送控制器460的形式,应用传送控制器460可部署成在装置和/或虚拟化环境400中执行的一个或多个软件模块或组件。
一些实施例中,服务器可以在虚拟化环境中执行多个虚拟机406a-406b,每个虚拟机运行虚拟应用传送控制器460的相同或不同实施例。一些实施例中,服务器可以在多核处理系统的一个核上执行一个或多个虚拟机上的一个或多个虚拟设备460。一些实施例中,服务器可以在多处理器装置的每个处理器上执行一个或多个虚拟机上的一个或多个虚拟设备460。
C.客户机代理
现参考图3,描述客户机代理120的实施例。客户机102包括客户机代理120,用于经由网络104与设备200、设备205和/或服务器106来建立、交换、管理和控制通信。在一些实施例中,客户机120(其也可以被称为WAN客户机)加速WAN网络通信和/或用于通过网络设备200通信。总的来说,客户机102在计算装置100上操作,该计算装置100拥有带有内核模式302以及用户模式303的操作系统,以及带有一个或多个层310a-310b的网络堆栈267。客户机102可以已经安装和/或执行一个或多个应用。在一些实施例中,一个或多个应用可通过网络堆栈267与网络104通信。所述应用之一,诸如web浏览器,也可包括第一程序322。例如,可在一些实施例中使用第一程序322来安装和/或执行客户机代理120,或其中任何部分。客户机代理120包括拦截机制或者拦截器350,用于从网络堆栈267拦截来自一个或者多个应用的网络通信。
与设备200一样,客户机102具有网络堆栈267,其包括任何类型和形式的软件、或硬件或其组合,用于提供与网络104的连接和通信。客户机102的网络堆栈267包括上文结合设备200所描述的任何一个网络堆栈实施例。在一些实施例中,客户机代理120或其任何部分被设计和构建为与由客户机102的操作系统安装或以其他方式提供的网络堆栈267一起操作或联合工作。
在进一步的细节中,客户机102或设备200(205)的网络堆栈267可包括任何类型和形式的接口,用于接收、获得、提供或以其它方式访问与客户机102的网络通信相关的任何信息和数据。在一个实施例中,与网络堆栈267的接口包括应用编程接口(API)。接口也可包括任何函数调用、钩子或过滤机制,事件或回调机制、或任何类型的接口技术。网络堆栈267通过接口可接收或提供与网络堆栈267的功能或操作相关的任何类型和形式的数据结构,例如对象。例如,数据结构可以包括与网络分组相关的信息和数据或者一个或多个网络分组。在一些实施例中,数据结构包括、引用或识别在网络堆栈267的协议层处理的网络分组的一部分,例如传输层的网络分组。在一些实施例中,数据结构325包括内核级别数据结构,而在其他实施例中,数据结构325包括用户模式数据结构。内核级数据结构可以包括获得的或与在内核模式302中操作的网络堆栈267的一部分、或者运行在内核模式302中的网络驱动程序或其它软件相关的数据结构、或者由运行或操作在操作系统的内核模式的服务、进程、任务、线程或其它可执行指令获得或收到的任何数据结构。
此外,网络堆栈267的一些部分可在内核模式302执行或操作,例如,数据链路或网络层,而其他部分在用户模式303执行或操作,例如网络堆栈267的应用层。例如,网络堆栈的第一部分310a可以给应用提供对网络堆栈267的用户模式访问,而网络堆栈267的第二部分310a提供对网络的访问。在一些实施例中,网络堆栈的第一部分310a可包括网络堆栈267的一个或多个更上层,例如层5-7的任何层。在其它实施例中,网络堆栈267的第二部分310b包括一个或多个较低的层,例如层1-4的任何层。网络堆栈267的第一部分310a和第二部分310b的每一个可包括网络堆栈267的任何部分,位于任何一个或多个网络层,处于用户模式303、内核模式302,或其组合,或在网络层的任何部分或者到网络层的接口点,或用户模式302和内核模式203的任何部分或到用户模式302和内核模式203的接口点。
拦截器350可以包括软件、硬件、或者软件和硬件的任何组合。在一个实施例中,拦截器350在网络堆栈267的任一点拦截或以其他方式接收网络通信,并且重定向或者传输网络通信到由拦截器350或者客户机代理120所期望的、管理的或者控制的目的地。例如,拦截器350可以拦截第一网络的网络堆栈267的网络通信并且传输该网络通信到设备200,用于在第二网络104上传输。在一些实施例中,拦截器350包括驱动器或是驱动器,例如被构建和设计来与网络堆栈267对接并一同工作的网络驱动器。在一些实施例中,客户机代理120和/或拦截器350操作在网络堆栈267的一个或者多个层,诸如在传输层。在一个实施例中,拦截器350包括过滤器驱动器、钩子机制、或者连接到网络堆栈的传输层的任一形式和类型的合适网络驱动器接口,诸如通过传输驱动器接口(TDI)。在一些实施例中,拦截器350连接到诸如传输层的第一协议层和诸如传输协议层之上的任何层的另一个协议层,例如,应用协议层。在一个实施例中,拦截器350可以包括遵守网络驱动器接口规范(NDIS)的驱动器,或者NDIS驱动器。在又一个实施例中,拦截器350可以包括微型过滤器或者微端口驱动器。在一个实施例中,拦截器350或其部分在内核模式202中操作。在又一个实施例中,拦截器350或其部分在用户模式203中操作。在一些实施例中,拦截器350的一部分在内核模式202中操作,而拦截器350的另一部分在用户模式203中操作。在其它实施例中,客户机代理120在用户模式203操作,但通过拦截器350连接到内核模式驱动器、进程、服务、任务或者操作系统的部分,诸如以获取内核级数据结构225。在其它实施例中,拦截器350为用户模式应用或者程序,诸如应用。
在一个实施例中,拦截器350拦截或接收任何的传输层连接请求。在这些实施例中,拦截器350执行传输层应用编程接口(API)调用以设置目的地信息,诸如到期望位置的目的地IP地址和/或端口用于定位。以此方式,拦截器350拦截并重定向传输层连接到由拦截器350或客户机代理120控制或管理的IP地址和端口。在一个实施例中,拦截器350把该连接的目的地信息设置为客户机代理120监听的客户机102的本地IP地址和端口。例如,客户机代理120可以包括为重定向的传输层通信监听本地IP地址和端口的代理服务。在一些实施例中,客户机代理120随后将重定向的传输层通信传送到设备200。
在一些实施例中,拦截器350拦截域名服务(DNS)请求。在一个实施例中,客户机代理120和/或拦截器350解析DNS请求。在又一个实施例中,拦截器发送所拦截的DNS请求到设备200以进行DNS解析。在一个实施例中,设备200解析DNS请求并且将DNS响应传送到客户机代理120。在一些实施例中,设备200经另一个设备200’或者DNS服务器106来解析DNS请求。
在又一个实施例中,客户机代理120可以包括两个代理120和120’。在一个实施例中,第一代理120可以包括在网络堆栈267的网络层操作的拦截器350。在一些实施例中,第一代理120拦截网络层请求,诸如互联网控制消息协议(ICMP)请求(例如,查验和跟踪路由)。在其它实施例中,第二代理120’可以在传输层操作并且拦截传输层通信。在一些实施例中,第一代理120在网络堆栈210的一层拦截通信并且与第二代理120’对接或者将所拦截的通信传送到第二代理120’。
客户机代理120和/或拦截器350可以以对网络堆栈267的任何其它协议层透明的方式在协议层操作或与之对接。例如,在一个实施例中,拦截器350可以以对诸如网络层的传输层之下的任何协议层和诸如会话、表示或应用层协议的传输层之上的任何协议层透明的方式在网络堆栈267的传输层操作或与之对接。这允许网络堆栈267的其它协议层如所期望的进行操作并无需修改以使用拦截器350。这样,客户机代理120和/或拦截器350可以与传输层对接以安全、优化、加速、路由或者负载平衡经由传输层承载的任一协议提供的任一通信,诸如TCP/IP上的任一应用层协议。
此外,客户机代理120和/或拦截器可以以对任何应用、客户机102的用户、客户机102和/或与客户机102通信的诸如服务器或设备200、206的任何其它计算装置100透明的方式在网络堆栈267上操作或与之对接。客户机代理120和/或拦截器350可以以无需修改应用的方式被安装和/或执行在客户机102上。在一个实施例中,客户机代理120或其任何部分被以对客户机102、设备200、205或服务器106的任何网络配置透明的方式被安装和/或执行。在一些实施例中,客户机代理120或其任何部分被以无需修改客户机102、设备200、205或服务器106的任何网络配置的方式被安装和/或执行。在一个实施例中,客户机102的用户或者与客户机102通信的计算装置未意识到客户机代理120或其任何部分的存在、执行或者操作。同样,在一些实施例中,相对于应用、客户机102的用户、客户机102、诸如服务器或设备200、205的另一个计算装置、或者在由拦截器350连接的协议层之上和/或之下的任何协议层透明地来安装、执行和/或操作客户机代理120和/或拦截器350。
客户机代理120包括流客户机306、收集代理304、SSL VPN代理308、网络优化引擎250和/或加速程序302。在一个实施例中,客户机代理120包括由佛罗里达州Fort Lauderdale的Citrix Systems公司开发的独立计算架构(ICA)客户机或其任一部分,并且也被称为ICA客户机。在一些实施例中,客户机代理120包括应用流客户机306,用于从服务器106流式传输应用到客户机102。在又一个实施例中,客户机代理120包括收集代理304,用于执行端点检测/扫描并且用于为设备200和/或服务器106收集端点信息。在一些实施例中,客户机代理120具有一个或多个网络加速或优化程序或代理,例如网络优化引擎250和加速程序302。在一个实施例中,加速程序302加速客户机102和服务器106之间的经过设备205’的通信。在一些实施例中,网络优化引擎250提供此处所讨论的WAN优化技术。
流客户机306是应用、程序、进程、服务、任务或者可执行指令集,所述应用、程序、进程、服务、任务或者可执行指令集用于接收和执行从服务器106所流式传输的应用。服务器106可以流式传输一个或者多个应用数据文件到流客户机306,用于播放、执行或者以其它方式引起客户机102上的应用被执行。在一些实施例中,服务器106发送一组压缩或者打包的应用数据文件到流客户机306。在一些实施例中,多个应用文件被压缩并存储在文件服务器上档案文件中,例如CAB、ZIP、SIT、TAR、JAR或其它档案文件。在一个实施例中,服务器106解压缩、解包或者解档应用文件并且将该文件发送到客户机102。在又一个实施例中,客户机102解压缩、解包或者解档应用文件。流客户机306动态安装应用或其部分,并且执行该应用。在一个实施例中,流客户机306可以是可执行程序。在一些实施例中,流客户机306可以能够启动另一个可执行程序。
收集代理304是用于识别、获取和/或收集关于客户机102的信息的应用、程序、进程、服务、任务或者可执行指令集。在一些实施例中,设备200发送收集代理304到客户机102或者客户机代理120。可以根据设备的策略引擎236的一个或多个策略来配置收集代理304。在其它实施例中,收集代理304发送在客户机102上收集的信息到设备200。在一个实施例中,设备200的策略引擎236使用所收集的信息来确定和提供客户机到网络104的连接的访问、验证和授权控制。
在一个实施例中,收集代理304包括端点检测和扫描机制,其识别并且确定客户机的一个或者多个属性或者特征。例如,收集代理304可以识别和确定任何一个或多个以下的客户机侧属性:1)操作系统和/或操作系统的版本,2)操作系统的服务包,3)运行的服务,4)运行的进程,和5)文件。收集代理304还可以识别并确定客户机上任何一个或多个以下软件的存在或版本:1)防病毒软件;2)个人防火墙软件;3)防垃圾邮件软件,和4)互联网安全软件。策略引擎236可以具有基于客户机或客户机侧属性的任何一个或多个属性或特性的一个或多个策略。
SSL VPN代理308是应用、程序、进程、服务、任务或者可执行指令集,所述应用、程序、进程、服务、任务或者可执行指令集用于建立从第一网络104到第二网络104’、104”的安全套接字层(SSL)虚拟专用网(VPN)连接,或从客户机102到服务器106的SSL VPN连接。在一个实施例中,SSLVPN代理308建立从公共网104到专用网104’或104”的SSL VPN连接。在一些实施例中,SSL VPN代理308和设备205联合工作以提供SSL VPN连接。在一个实施例中,SSL VPN代理308建立与设备205的第一传输层连接。在一些实施例中,设备205建立与服务器106的第二传输层连接。在又一个实施例中,SSL VPN代理308建立与客户机上应用的第一传输层连接,以及与设备205的第二传输层连接。在其他实施例中,SSL VPN代理308和WAN优化设备200联合工作以提供SSL VPN连通。
在一些实施例中,加速程序302是用于执行一个或多个加速技术的客户机侧加速程序,以加速、增强或者以其他方式改善客户机与服务器106的通信和/或对服务器106的访问,诸如访问由服务器106提供的应用。加速程序302的可执行指令的逻辑、功能和/或操作可以执行一个或多个下列加速技术:1)多协议压缩,2)传输控制协议池,3)传输控制协议多路复用,4)传输控制协议缓冲,以及5)通过高速缓存管理器的高速缓存。另外,加速程序302可执行由客户机102接收和/或发送的任何通信的加密和/或解密。在一些实施例中,加速程序302以集成的方式或者格式执行一个或者多个加速技术。另外,加速程序302可以对作为传输层协议的网络分组的有效载荷所承载的任一协议或者多协议执行压缩。
在一个实施例中,加速程序302被设计、构建或配置为与设备205一起工作以提供LAN侧加速或者提供通过设备205提供的加速技术。例如,在由Citrix System公司出品的NetScaler设备205的一个实施例中,加速程序302包括NetScaler客户机。在一些实施例中,加速程序302在例如分支机构中的远程装置中提供独立的NetScaler加速技术。在其他实施例中,加速程序302和一个或多个NetScaler设备205联合工作。在一个实施例中,加速程序302提供网络流量的LAN侧或基于LAN的加速或优化。
在一些实施例中,网络优化引擎250可以被设计、构建或配置为与WAN优化设备200一起工作。在其他实施例中,网络优化引擎250可以被设计、构建或配置为用或不用设备200提供设备200的WAN优化技术。例如,在由Citrix System公司出品的WANScaler设备200的一个实施例中,网络优化引擎250包括WANScaler客户机。在一些实施例中,网络优化引擎250在例如分支机构的远程位置中提供独立的WANScaler加速技术。在其他实施例中,网络优化引擎250和一个或多个WANScaler设备200联合工作。
在又一个实施例中,网络优化引擎250包括加速程序302、或加速程序302的功能、操作和逻辑。在一些实施例中,加速程序302包括网络优化引擎250或网络优化引擎250的功能、操作和逻辑。在又一个实施例中,网络优化引擎250作为从加速程序302分开的程序或可执行指令集而被提供或安装。在其他实施例中,网络优化引擎250和加速程序302可被包括在同一程序或同一可执行指令集中。
在一些实施例中,且仍参见图3,第一程序322可以用于自动地、静默地、透明地或者以其它方式安装和/或执行客户机代理120或其任何部分。在一个实施例中,第一程序322包括插件组件,例如ActiveX控件或Java控件或脚本,其加载到应用并由应用执行。例如,第一程序包括由web浏览器应用加载和运行的ActiveX控件,例如在存储器空间或应用的上下文中。在又一个实施例中,第一程序322包括被例如浏览器的应用载入并执行的可执行指令集。在一个实施例中,第一程序322是被设计和构造为安装客户机代理120的程序。在一些实施例中,第一程序322通过网络从另一个计算装置获得、下载、或接收客户机代理120。在又一个实施例中,第一程序322是安装程序或即插即用管理器,用于在客户机102的操作系统上安装诸如网络驱动和客户机代理120或其任何部分的程序。
在一些实施例中,客户机代理120的每一或任一部分(流客户机360、收集代理304、SSL VPN代理308和拦截代理350)可作为单独的应用、程序、进程、服务、任务或可执行指令集而被安装、执行、配置或操作。在其他实施例中,客户机代理120的每一或任一部分可以一起作为单个客户机代理120而被安装、执行、配置或操作。
D.用于提供虚拟化设备的系统和方法
现参考图4A,该框图描述虚拟化环境400的一个实施例。总体而言,计算装置100包括管理程序层、虚拟化层和硬件层。管理程序层包括管理程序401(也称为虚拟化管理器),其通过在虚拟化层中执行的至少一个虚拟机来分配和管理对硬件层中的多个物理资源(例如处理器421和盘428)的访问。虚拟化层包括至少一个操作系统410和分配给至少一个操作系统410的多个虚拟资源。虚拟资源可包括而不限于多个虚拟处理器432a、432b、432c(总称为432)和虚拟盘442a、442b、442c(总称为442),以及如虚拟存储器和虚拟网络接口的虚拟资源。可将多个虚拟资源和操作系统称为虚拟机406。虚拟机406可包括控制操作系统405,该控制操作系统405与管理程序401通信,并用于执行应用以管理并配置计算装置100上的其他虚拟机。
具体而言,管理程序401可以以模拟可访问物理设备的操作系统的任何方式向操作系统提供虚拟资源。管理程序401可以向任何数量的客户操作系统410a、410b(总称为410)提供虚拟资源。一些实施例中,计算装置100执行一种或多种管理程序。这些实施例中,管理程序可用于模拟虚拟硬件、划分物理硬件、虚拟化物理硬件并执行提供对计算环境的访问的虚拟机。管理程序可包括由位于美国加州的Palo Alto的VMWare制造的这些程序;XEN管理程序(一种开源产品,其开发由开源Xen.org协会监管);由微软公司提供的HyperV、VirtualServer或虚拟PC管理程序,或其他。一些实施例中,计算装置100执行创建客户操作系统可在其上执行虚拟机平台的管理程序,该计算装置100被称为宿主服务器。在这些实施例的一个中,例如,计算装置100是由位于美国佛罗里达州Fort Lauderdale的Citrix Systems有限公司提供的XEN SERVER。
一些实施例中,管理程序401在计算装置上执行的操作系统之内执行。在这些实施例的一个中,执行操作系统和管理程序401的计算装置可被视为具有宿主操作系统(执行在计算装置上的操作系统),和客户操作系统(在由管理程序401提供的计算资源分区内执行的操作系统)。其他实施例中,管理程序401和计算装置上的硬件直接交互而不是在宿主操作系统上执行。在这些实施例的一个中,管理程序401可被视为在“裸金属(bare metal)”上执行,所述“裸金属”指包括计算装置的硬件。
一些实施例中,管理程序401可以产生操作系统410在其中执行的虚拟机406a-c(总称为406)。在这些实施例的一个中,管理程序401加载虚拟机映像以创建虚拟机406。在这些实施例的又一个中,管理程序401在虚拟机406内执行操作系统410。仍在这些实施例的又一个中,虚拟机406执行操作系统410。
一些实施例中,管理程序401控制在计算装置100上执行的虚拟机406的处理器调度和内存划分。在这些实施例的一个中,管理程序401控制至少一个虚拟机406的执行。在这些实施例的又一个中,管理程序401向至少一个虚拟机406呈现由计算装置100提供的至少一个硬件资源的抽象。其他实施例中,管理程序401控制是否以及如何将物理处理器能力呈现给虚拟机406。
控制操作系统405可以执行用于管理和配置客户操作系统的至少一个应用。一个实施例中,控制操作系统405可以执行管理应用,如包括如下用户接口的应用,该用户接口为管理员提供对用于管理虚拟机执行的功能的访问,这些功能包括用于执行虚拟机、中止虚拟机执行或者识别要分配给虚拟机的物理资源类型的功能。又一个实施例中,管理程序401在由管理程序401创建的虚拟机406内执行控制操作系统405。又一个实施例中,控制操作系统405在被授权直接访问计算装置100上的物理资源的虚拟机406上执行。一些实施例中,计算装置100a上的控制操作系统405a可以通过管理程序401a和管理程序401b之间的通信与计算装置100b上的控制操作系统405b交换数据。这样,一个或多个计算装置100可以和一个或多个其他计算装置100交换有关处理器或资源池中可用的其他物理资源的数据。在这些实施例的一个中,这种功能允许管理程序管理分布在多个物理计算装置上的资源池。在这些实施例的又一个中,多个管理程序管理在一个计算装置100上执行的一个或多个客户操作系统。
一个实施例中,控制操作系统405在被授权与至少一个客户操作系统410交互的虚拟机406上执行。又一个实施例中,客户操作系统410通过管理程序401和控制操作系统405通信,以请求访问盘或网络。仍在又一个实施例中,客户操作系统410和控制操作系统405可通过由管理程序401建立的通信信道通信,例如,通过由管理程序401提供的多个共享存储器页面。
一些实施例中,控制操作系统405包括用于直接与由计算装置100提供的网络硬件通信的网络后端驱动器。在这些实施例的一个中,网络后端驱动器处理来自至少一个客户操作系统110的至少一个虚拟机请求。其他实施例中,控制操作系统405包括用于与计算装置100上的存储元件通信的块后端驱动器。在这些实施例的一个中,块后端驱动器基于从客户操作系统410接收的至少一个请求从存储元件读写数据。
一个实施例中,控制操作系统405包括工具堆栈404。其他实施例中,工具堆栈404提供如下功能:和管理程序401交互、和其他控制操作系统405(例如位于第二计算装置100b上)通信,或者管理计算装置100上的虚拟机406b、406c。又一个实施例中,工具堆栈404包括自定义应用,其用于向虚拟机群的管理员提供改进的管理功能。一些实施例中,工具堆栈404和控制操作系统405中的至少一个包括管理API,其提供用于远程配置并控制计算装置100上运行的虚拟机406的接口。其他实施例中,控制操作系统405通过工具堆栈404和管理程序401通信。
一个实施例中,管理程序401在由管理程序401创建的虚拟机406内执行客户操作系统410。又一个实施例中,客户操作系统410为计算装置100的用户提供对计算环境中的资源的访问。又一个实施例中,资源包括程序、应用、文档、文件、多个应用、多个文件、可执行程序文件、桌面环境、计算环境或对计算装置100的用户可用的其他资源。又一个实施例中,可通过多个访问方法将资源传送给计算装置100,这些方法包括但不限于:常规的直接在计算装置100上安装、通过应用流的方法传送给计算装置100、将由在第二计算装置100’上执行资源产生的并通过表示层协议传送给计算装置100的输出数据传送给计算装置100、将通过在第二计算装置100’上执行的虚拟机执行资源所产生的输出数据传送给计算装置100、或者从连接到计算装置100的移动存储装置(例如USB设备)执行或者通过在计算装置100上执行的虚拟机执行并且产生输出数据。一些实施例中,计算装置100将执行资源所产生的输出数据传输给另一个计算装置100’。
一个实施例中,客户操作系统410和该客户操作系统410在其上执行的虚拟机结合形成完全虚拟化虚拟机,该完全虚拟化虚拟机并不知道自己是虚拟机,这样的机器可称为“Domain U HVM(硬件虚拟机)虚拟机”。又一个实施例中,完全虚拟化机包括模拟基本输入/输出系统(BIOS)的软件以便在完全虚拟化机中执行操作系统。在又一个实施例中,完全虚拟化机可包括驱动器,其通过和管理程序401通信提供功能。这样的实施例中,驱动器可意识到自己在虚拟化环境中执行。又一个实施例中,客户操作系统410和该客户操作系统410在其上执行的虚拟机结合形成超虚拟化(paravirtualized)虚拟机,该超虚拟化虚拟机意识到自己是虚拟机,这样的机器可称为“DomainU PV虚拟机”。又一个实施例中,超虚拟化机包括完全虚拟化机不包括的额外驱动器。又一个实施例中,超虚拟化机包括如上所述的被包含在控制操作系统405中的网络后端驱动器和块后端驱动器。
现参考图4B,框图描述了系统中的多个联网计算装置的一个实施例,其中,至少一个物理主机执行虚拟机。总体而言,系统包括管理组件404和管理程序401。系统包括多个计算装置100、多个虚拟机406、多个管理程序401、多个管理组件(又称为工具堆栈404或者管理组件404)以及物理资源421、428。多个物理机器100的每一个可被提供为如上结合图1E-1H和图4A描述的计算装置100。
具体而言,物理盘428由计算装置100提供,存储至少一部分虚拟盘442。一些实施例中,虚拟盘442和多个物理盘428相关联。在这些实施例的一个中,一个或多个计算装置100可以与一个或多个其他计算装置100交换有关处理器或资源池中可用的其他物理资源的数据,允许管理程序管理分布在多个物理计算装置上的资源池。一些实施例中,将虚拟机406在其上执行的计算装置100称为物理主机100或主机100。
管理程序在计算装置100上的处理器上执行。管理程序将对物理盘的访问量分配给虚拟盘。一个实施例中,管理程序401分配物理盘上的空间量。又一个实施例中,管理程序401分配物理盘上的多个页面。一些实施例中,管理程序提供虚拟盘442作为初始化和执行虚拟机450进程的一部分。
一个实施例中,将管理组件404a称为池管理组件404a。又一个实施例中,可以称为控制管理系统405a的管理操作系统405a包括管理组件。一些实施例中,将管理组件称为工具堆栈。在这些实施例的一个中,管理组件是上文结合图4A描述的工具堆栈404。其他实施例中,管理组件404提供用户接口,用于从如管理员的用户接收要供应和/或执行的虚拟机406的标识。仍在其他实施例中,管理组件404提供用户接口,用于从如管理员的用户接收将虚拟机406b从一个物理机器100迁移到另一物理机器的请求。在进一步的实施例中,管理组件404a识别在其上执行所请求的虚拟机406d的计算装置100b并指示所识别的计算装置100b上的管理程序401b执行所识别的虚拟机,这样,可将管理组件称为池管理组件。
现参考图4C,描述了虚拟应用传送控制器或虚拟设备450的实施例。总体而言,上文结合图2A和2B描述的设备200的任何功能和/或实施例(例如应用传送控制器)可以部署在上文结合图4A和4B描述的虚拟化环境的任何实施例中。应用传送控制器的功能不是以设备200的形式部署,而是将该功能部署在诸如客户机102、服务器106或设备200的任何计算装置100上的虚拟化环境400中。
现在参考图4C,描述了在服务器106的管理程序401上操作的虚拟设备450的实施例的框图。如图2A和2B的设备200一样,虚拟机450可以提供可用性、性能、卸载和安全的功能。对于可用性,虚拟设备可以执行网络第4层和第7层之间的负载平衡并执行智能服务健康监控。对于通过网络流量加速实现的性能增加,虚拟设备可以执行缓存和压缩。对于任何服务器的卸载处理,虚拟设备可以执行连接复用和连接池和/或SSL处理。对于安全,虚拟设备可以执行设备200的任何应用防火墙功能和SSL VPN功能。
结合附图2A描述的设备200的任何模块可以虚拟化设备传送控制器450的形式被打包、组合、设计或构造,虚拟化设备传送控制器450可部署成在诸如流行的服务器这样的任何服务器上的虚拟化环境300或非虚拟化环境中执行的软件模块或组件。例如,可以安装在计算装置上的安装包的形式提供虚拟设备。参考图2A,可以将高速缓存管理器232、策略引擎236、压缩238、加密引擎234、分组引擎240、GUI210、CLI212、壳服务214中的任一个设计和构成在计算装置和/或虚拟化环境300的任何操作系统上运行的组件或模块。虚拟化设备400不使用设备200的加密处理器260、处理器262、存储器264和网络堆栈267,而是可使用虚拟化环境400提供的任何这些资源或者服务器106上以其他方式可用的这些资源。
仍参考图4C,简言之,任何一个或多个vServer275A-275N可以操作或执行在任意类型的计算装置100(如服务器106)的虚拟化环境400中。结合附图2B描述的设备200的任何模块和功能可以设计和构造成在服务器的虚拟化或非虚拟化环境中操作。可以将vServer275、SSL VPN280、内网UP282、交换装置284、DNS286、加速装置288、APP FW280和监控代理中的任一个打包、组合、设计或构造成应用传送控制器450的形式,应用传送控制器450可部署成在装置和/或虚拟化环境400中执行的一个或多个软件模块或组件。
一些实施例中,服务器可以在虚拟化环境中执行多个虚拟机406a-406b,每个虚拟机运行虚拟应用传送控制器450的相同或不同实施例。一些实施例中,服务器可以在多核处理系统的一个核上执行一个或多个虚拟机上的一个或多个虚拟设备450。一些实施例中,服务器可以在多处理器装置的每个处理器上执行一个或多个虚拟机上的一个或多个虚拟设备450。
E.提供多核架构的系统和方法
根据摩尔定律,每两年集成电路上可安装的晶体管的数量会基本翻倍。然而,CPU速度增加会达到一个稳定的水平(plateaus),例如,2005年以来,CPU速度在约3.5-4GHz的范围内。一些情况下,CPU制造商可能不依靠CPU速度增加来获得额外的性能。一些CPU制造商会给处理器增加附加核以提供额外的性能。依靠CPU获得性能改善的如软件和网络供应商的产品可以通过利用这些多核CPU来改进他们的性能。可以重新设计和/或编写为单CPU设计和构造的软件以利用多线程、并行架构或多核架构。
一些实施例中,称为nCore或多核技术的设备200的多核架构允许设备打破单核性能障碍并利用多核CPU的能力。前文结合图2A描述的架构中,运行单个网络或分组引擎。nCore技术和架构的多核允许同时和/或并行地运行多个分组引擎。通过在每个核上运行分组引擎,设备架构利用附加核的处理能力。一些实施例中,这提供了高达七倍的性能改善和扩展性。
图5A示出根据一类并行机制或并行计算方案(如功能并行机制、数据并行机制或基于流的数据并行机制)在一个或多个处理器核上分布的工作、任务、负载或网络流量的一些实施例。总体而言,图5A示出如具有n个核的设备200'的多核系统的实施例,n个核编号为1到N。一个实施例中,工作、负载或网络流量可以分布在第一核505A、第二核505B、第三核505C、第四核505D、第五核505E、第六核505F、第七核505G等上,这样,分布位于所有n个核505N(此后统称为核505)或n个核中的两个或多个上。可以有多个VIP275,每个运行在多个核中的相应的核上。可以有多个分组引擎240,每个运行在多个核的相应的核。所使用任何方法可产生多个核中任一核上的不同的、变化的或类似的工作负载或性能级别515。对于功能并行方法,每个核运行由分组引擎、VIP275或设备200提供的多个功能的不同功能。在数据并行方法中,数据可基于接收数据的网络接口卡(NIC)或VIP275并行或分布在核上。又一个数据并行方法中,可通过将数据流分布在每个核上而将处理分布在核上。
图5A的进一步的细节中,一些实施例中,可以根据功能并行机制500将负载、工作或网络流量在多个核505间分布。功能并行机制可基于执行一个或多个相应功能的每个核。一些实施例中,第一核可执行第一功能,同时第二核执行第二功能。功能并行方法中,根据功能性将多核系统要执行的功能划分并分布到每个核。一些实施例中,可将功能并行机制称为任务并行机制,并且可在每个处理器或核对同一数据或不同数据执行不同进程或功能时实现。核或处理器可执行相同或不同的代码。一些情况下,不同的执行线程或代码可在工作时相互通信。可以进行通信以将数据作为工作流的一部分从一个线程传递给下一线程。
一些实施例中,根据功能并行机制500将工作分布在核505上,可以包括根据特定功能分布网络流量,所述特定功能例如为网络输入/输出管理(NW I/O)510A、安全套接层(SSL)加密和解密510B和传输控制协议(TCP)功能510C。这会产生基于所使用的功能量或功能级别的工作、性能或者计算负载515。一些实施例中,根据数据并行机制540将工作分布在核505上可包括基于与特定的硬件或软件组件相关联的分布数据来分布工作量515。一些实施例中,根据基于流的数据并行机制520将工作分布在核505上可包括基于上下文或流来分布数据,从而使得每个核上的工作量515A-N可以类似、基本相等或者相对平均分布。
在功能并行方法的情况下,可以配置每个核来运行由设备的分组引擎或VIP提供的多个功能中的一个或多个功能。例如,核1可执行设备200’的网络I/O处理,同时核2执行设备的TCP连接管理。类似地,核3可执行SSL卸载,同时核4可执行第7层或应用层处理和流量管理。每个核可执行相同或不同的功能。每个核可执行不只一个功能。任一核可运行结合附图2A和2B识别和/或描述的功能或其一部分。该方法中,核上的工作可以粗粒度或细粒度方式按功能划分。一些情况下,如图5A所示,按功能划分会使得不同核运行在不同的性能或负载级别515。
在功能并行方法的情况下,可以配置每个核来运行由设备的分组引擎提供的多个功能中的一个或多个功能。例如,核1可执行设备200’的网络I/O处理,同时核2执行设备的TCP连接管理。类似地,核3可执行SSL卸载,同时核4可执行第7层或应用层处理和流量管理。每个核可执行相同或不同的功能。每个核可执行不只一个功能。任何核可运行结合附图2A和2B识别和/或描述的功能或其一部分。该方法中,核上的工作可以粗粒度或细粒度方式按功能划分。一些情况下,如图5A所示,按功能划分会使得不同核运行在不同的性能或负载级别。
可以用任何结构或方案来分布功能或任务。例如,图5B示出用于处理与网络I/O功能510A相关联的应用和进程的第一核Core1505A。一些实施例中,与网络I/O相关联的网络流量可以和特定的端口号相关联。因而,将具有与NW I/O510A相关联的端口目的地的发出和到来的分组导引给Core1505A,该Core1505A专用于处理与NW I/O端口相关联的所有网络流量。类似的,Core2505B专用于处理与SSL处理相关联的功能,Core4505D可专用于处理所有TCP级处理和功能。
虽然图5A示出如网络I/O、SSL和TCP的功能,也可将其他功能分配给核。这些其他功能可包括此处描述的任一或多个功能或操作。例如,结合图2A和2B描述的任何功能可基于功能基础分布在核上。一些情况下,第一VIP275A可运行在第一核上,同时,具有不同配置的第二VIP275B可运行在第二核上。一些实施例中,每个核505可处理特定功能,这样每个核505可处理与该特定功能相关联的处理。例如,Core2505B可处理SSL卸载,同时Core4505D可处理应用层处理和流量管理。
其他实施例中,可根据任何类型或形式的数据并行机制540将工作、负载或网络流量分布在核505上。一些实施例中,可由每个核对分布式数据的不同片执行相同任务或功能来实现多核系统中的数据并行机制。一些实施例中,单个执行线程或代码控制对所有数据片的操作。其他实施例中,不同线程或指令控制操作,但是可执行相同代码。一些实施例中,从分组引擎、vServer(VIP)275A-C、网络接口卡(NIC)542D-E和/或设备200上包括的或者与设备200相关联的任何其他网络硬件或软件的角度实现数据并行机制。例如,每个核可运行同样的分组引擎或VIP代码或配置但是在不同的分布式数据集上进行操作。每个网络硬件或软件结构可接收不同的、变化的或者基本相同量的数据,因而可以具有变化的、不同的或相对相同量的负载515。
在数据并行方法的情况下,可以基于VIP、NIC和/或VIP或NIC的数据流来划分和分布工作。在这些的方法的一个中,可通过使每个VIP在分布的数据集上工作来将多核系统的工作划分或者分布在VIP中。例如,可配置每个核运行一个或多个VIP。网络流量可分布在处理流量的每个VIP的核上。在这些方法的又一个中,可基于哪个NIC接收网络流量来将设备的工作划分或分布在核上。例如,第一NIC的网络流量可被分布到第一核,同时第二NIC的网络流量可被分布给第二核。一些情况下,核可处理来自多个NIC的数据。
虽然图5A示出了与单个核505相关联的单个vServer,正如VIP1275A、VIP2275B和VIP3275C的情况。但是,一些实施例中,单个vServer可以与一个或者多个核505相关联。相反,一个或多个vServer可以与单个核505相关联。将vServer与核505关联可包括该核505处理与该特定vServer关联的所有功能。一些实施例中,每个核执行具有相同代码和配置的VIP。其他实施例中,每个核执行具有相同代码但配置不同的VIP。一些实施例中,每个核执行具有不同代码和相同或不同配置的VIP。
和vServer类似,NIC也可以和特定的核505关联。许多实施例中,NIC可以连接到一个或多个核505,这样,当NIC接收或传输数据分组时,特定的核505处理涉及接收和传输数据分组的处理。一个实施例中,单个NIC可以与单个核505相关联,正如NIC1542D和NIC2542E的情况。其他实施例中,一个或多个NIC可以与单个核505相关联。但其他实施例中,单个NIC可以与一个或者多个核505相关联。这些实施例中,负载可以分布在一个或多个核505上,使得每个核505基本上处理类似的负载量。与NIC关联的核505可以处理与该特定NIC关联的所有功能和/或数据。
虽然根据VIP或NIC的数据将工作分布在核上具有某种程度的独立性,但是,一些实施例中,这会造成如图5A的变化负载515所示的核的不平衡的使用。
一些实施例中,可根据任何类型或形式的数据流将负载、工作或网络流量分布在核505上。在这些方法的又一个中,可基于数据流将工作划分或分布在多个核上。例如,客户机或服务器之间的经过设备的网络流量可以被分布到多个核中的一个核并且由其处理。一些情况下,最初建立会话或连接的核可以是该会话或连接的网络流量所分布的核。一些实施例中,数据流基于网络流量的任何单元或部分,如事务、请求/响应通信或来自客户机上的应用的流量。这样,一些实施例中,客户机和服务器之间的经过设备200’的数据流可以比其他方式分布的更均衡。
在基于流的数据并行机制520中,数据分布和任何类型的数据流相关,例如请求/响应对、事务、会话、连接或应用通信。例如,客户机或服务器之间的经过设备的网络流量可以被分布到多个核中的一个核并且由其处理。一些情况下,最初建立会话或连接的核可以是该会话或连接的网络流量所分布的核。数据流的分布可以使得每个核505运行基本相等或相对均匀分布的负载量、数据量或网络流量。
一些实施例中,数据流基于网络流量的任何单元或部分,如事务、请求/响应通信或源自客户机上的应用的流量。这样,一些实施例中,客户机和服务器之间的经过设备200’的数据流可以比其他方式分布的更均衡。一个实施例中,可以基于事务或一系列事务分布数据量。一些实施例中,该事务可以是客户机和服务器之间的,其特征可以是IP地址或其他分组标识符。例如,核1505A可专用于特定客户机和特定服务器之间的事务,因此,核1505A上的负载515A可包括与特定客户机和服务器之间的事务相关联的网络流量。可通过将源自特定客户机或服务器的所有数据分组路由到核1505A来将网络流量分配给核1505A。
虽然可部分地基于事务将工作或负载分布到核,但是,其他实施例中,可基于每个分组的基础分配负载或工作。这些实施例中,设备200可拦截数据分组并将数据分组分配给负载量最小的核505。例如,由于核1上的负载515A小于其他核505B-N上的负载515B-N,所以设备200可将第一到来的数据分组分配给核1505A。将第一数据分组分配给核1505A后,核1505A上的负载量515A与处理第一数据分组所需的处理资源量成比例增加。设备200拦截到第二数据分组时,设备200会将负载分配给核4505D,这是由于核4505D具有第二少的负载量。一些实施例中,将数据分组分配给负载量最小的核可确保分布到每个核505的负载515A-N保持基本相等。
其他实施例中,将一部分网络流量分配给特定核505的情况下,可以每单元为基础分配负载。上述示例说明以每分组为基础进行负载平衡。其他实施例中,可以基于分组数目分配负载,例如,将每10个、100个或1000个分组分配给流量最少的核505。分配给核505的分组数量可以是由应用、用户或管理员确定的数目,而且可以为大于零的任何数。仍在其他实施例中,基于时间指标分配负载,使得在预定时间段将分组分布到特定核505。这些实施例中,可以在5毫秒内或者由用户、程序、系统、管理器或其他方式确定的任何时间段将分组分布到特定核505。预定时间段过去后,在预定时间段内将时间分组传输给不同的核505。
用于将工作、负载或网络流量分布在一个或多个核505上的基于流的数据并行方法可包括上述实施例的任意组合。这些方法可以由设备200的任何部分执行,由在核505上执行的应用或者一组可执行指令执行,例如分组引擎,或者由在与设备200通信的计算装置上执行的任何应用、程序或代理执行。
图5A所示的功能和数据并行机制计算方案可以任何方式组合,以产生混合并行机制或分布式处理方案,其包括功能并行机制500、数据并行机制540、基于流的数据并行机制520或者其任何部分。一些情况下,多核系统可使用任何类型或形式的负载平衡方案来将负载分布在一个或多个核505上。负载平衡方案可以和任何功能和数据平行方案或其组合结合使用。
图5B示出多核系统545的实施例,该系统可以是任何类型或形式的一个或多个系统、设备、装置或组件。一些实施例中,该系统545可被包括在具有一个或多个处理核505A-N的设备200内。系统545还可包括与存储器总线556通信的一个或多个分组引擎(PE)或分组处理引擎(PPE)548A-N。存储器总线可用于与一个或多个处理核505A-N通信。系统545还可包括一个或多个网络接口卡(NIC)552和流分布器550,流分布器还可与一个或多个处理核505A-N通信。流分布器550可包括接收侧调整器(Receiver SideScaler-RSS)或接收侧调整(Receiver Side Scaling-RSS)模块560。
进一步参考图5B,具体而言,一个实施例中,分组引擎548A-N可包括此处所述的设备200的任何部分,例如图2A和2B所述设备的任何部分。一些实施例中,分组引擎548A-N可包括任何下列的元件:分组引擎240、网络堆栈267、高速缓存管理器232、策略引擎236、压缩引擎238、加密引擎234、GUI210、CLI212、壳服务214、监控程序216以及能够从数据总线556或一个或多个核505A-N中的任一个接收数据分组的其他任何软件和硬件元件。一些实施例中,分组引擎548A-N可包括一个或多个vServer275A-N或其任何部分。其他实施例中,分组引擎548A-N可提供以下功能的任意组合:SSL VPN280、内部网IP282、交换284、DNS286、分组加速288、APPFW280、如由监控代理197提供的监控、和作为TCP堆栈关联的功能、负载平衡、SSL卸载和处理、内容交换、策略评估、高速缓存、压缩、编码、解压缩、解码、应用防火墙功能、XML处理和加速以及SSL VPN连接。
一些实施例中,分组引擎548A-N可以与特定服务器、用户、客户或网络关联。分组引擎548与特定实体关联时,分组引擎548可处理与该实体关联的数据分组。例如,如果分组引擎548与第一用户关联,那么该分组引擎548将对由第一用户产生的分组或者目的地址与第一用户关联的分组进行处理和操作。类似地,分组引擎548可选择不与特定实体关联,使得分组引擎548可对不是由该实体产生的或目的是该实体的任何数据分组进行处理和以其他方式进行操作。
一些实例中,可将分组引擎548A-N配置为执行图5A所示的任何功能和/或数据并行方案。这些实例中,分组引擎548A-N可将功能或数据分布在多个核505A-N上,从而使得分布是根据并行机制或分布方案的。一些实施例中,单个分组引擎548A-N执行负载平衡方案,其他实施例中,一个或多个分组引擎548A-N执行负载平衡方案。一个实施例中,每个核505A-N可以与特定分组引擎548关联,使得可以由分组引擎执行负载平衡。在该实施例中,负载平衡可要求与核505关联的每个分组引擎548A-N和与核关联的其他分组引擎通信,使得分组引擎548A-N可共同决定将负载分布在何处。该过程的一个实施例可包括从每个分组引擎接收对于负载的投票的仲裁器。仲裁器可部分地基于引擎投票的持续时间将负载分配给每个分组引擎548A-N,一些情况下,还可基于与在引擎关联的核505上的当前负载量相关联的优先级值来将负载分配给每个分组引擎548A-N。
核上运行的任何分组引擎可以运行于用户模式、内核模式或其任意组合。一些实施例中,分组引擎作为在用户空间或应用空间中运行的应用或程序来操作。这些实施例中,分组引擎可使用任何类型或形式的接口来访问内核提供的任何功能。一些实施例中,分组引擎操作于内核模式中或作为内核的一部分来操作。一些实施例中,分组引擎的第一部分操作于用户模式中,分组引擎的第二部分操作于内核模式中。一些实施例中,第一核上的第一分组引擎执行于内核模式中,同时,第二核上的第二分组引擎执行于用户模式中。一些实施例中,分组引擎或其任何部分对NIC或其任何驱动器进行操作或者与其联合操作。
一些实施例中,存储器总线556可以是任何类型或形式的存储器或计算机总线。虽然在图5B中描述了单个存储器总线556,但是系统545可包括任意数量的存储器总线556。一个实施例中,每个分组引擎548可以和一个或者多个单独的存储器总线556相关联。
一些实施例中,NIC552可以是此处所述的任何网络接口卡或机制。NIC552可具有任意数量的端口。NIC可设计并构造成连接到任何类型和形式的网络104。虽然示出单个NIC552,但是,系统545可包括任意数量的NIC552。一些实施例中,每个核505A-N可以与一个或多个单个NIC552关联。因而,每个核505可以与专用于特定核505的单个NIC552关联。核505A-N可包括此处所述的任何处理器。此外,可根据此处所述的任何核505配置来配置核505A-N。另外,核505A-N可具有此处所述的任何核505功能。虽然图5B示出七个核505A-G,但是系统545可包括任意数量的核505。具体而言,系统545可包括N个核,其中N是大于零的整数。
核可具有或使用被分配或指派用于该核的存储器。可将存储器视为该核的专有或本地存储器并且仅有该核可访问该存储器。核可具有或使用共享的或指派给多个核的存储器。该存储器可被视为由不只一个核可访问的公共或共享存储器。核可使用专有或公共存储器的任何组合。通过每个核的单独的地址空间,消除了使用同一地址空间的情况下的一些协调级别。利用单独的地址空间,核可以对核自己的地址空间中的信息和数据进行工作,而不用担心与其他核冲突。每个分组引擎可以具有用于TCP和/或SSL连接的单独存储器池。
仍参考图5B,上文结合图5A描述的核505的任何功能和/或实施例可以部署在上文结合图4A和4B描述的虚拟化环境的任何实施例中。不是以物理处理器505的形式部署核505的功能,而是将这些功能部署在诸如客户机102、服务器106或设备200的任何计算装置100的虚拟化环境400内。其他实施例中,不是以设备或一个装置的形式部署核505的功能,而是将该功能部署在任何布置的多个装置上。例如,一个装置可包括两个或多个核,另一个装置可包括两个或多个核。例如,多核系统可包括计算装置的集群、服务器群或计算装置的网络。一些实施例中,不是以核的形式部署核505的功能,而是将该功能部署在多个处理器上,例如部署多个单核处理器上。
一个实施例中,核505可以为任何形式或类型的处理器。一些实施例中,核的功能可以基本类似此处所述的任何处理器或中央处理单元。一些实施例中,核505可包括此处所述的任何处理器的任何部分。虽然图5A示出7个核,但是,设备200内可以有任意N个核,其中N是大于1的整数。一些实施例中,核505可以安装在公用设备200内,其他实施例中,核505可以安装在彼此通信连接的一个或多个设备200内。一些实施例中,核505包括图形处理软件,而其他实施例中,核505提供通用处理能力。核505可彼此物理靠近地安装和/或可彼此通信连接。可以用以物理方式和/或通信方式耦合到核的任何类型和形式的总线或子系统连接核,用于向核、从核和/或在核之间传输数据。
尽管每个核505可包括用于与其他核通信的软件,一些实施例中,核管理器(未示出)可有助于每个核505之间的通信。一些实施例中,内核可提供核管理。核可以使用各种接口机制彼此接口或通信。一些实施例中,可以使用核到核的消息传输来在核之间通信,比如,第一核通过连接到核的总线或子系统向第二核发送消息或数据。一些实施例中,核可通过任何种类或形式的共享存储器接口通信。一个实施例中,可以存在在所有核中共享的一个或多个存储器单元。一些实施例中,每个核可以具有和每个其他核共享的单独存储器单元。例如,第一核可具有与第二核的第一共享存储器,以及与第三核的第二共享存储器。一些实施例中,核可通过任何类型的编程或API(如通过内核的函数调用)来通信。一些实施例中,操作系统可识别并支持多核装置,并提供用于核间通信的接口和API。
流分布器550可以是任何应用、程序、库、脚本、任务、服务、进程或在任何类型或形式的硬件上执行的任何类型和形式的可执行指令。一些实施例中,流分布器550可以是用于执行此处所述任何操作和功能的任何电路设计或结构。一些实施例中,流分布器分布、转发、路由、控制和/或管理多个核505上的数据和/或在核上运行的分组引擎或VIP的分布。一些实施例中,可将流分布器550称为接口主装置(interface master)。一个实施例中,流分布器550包括在设备200的核或处理器上执行的一组可执行指令。又一个实施例中,流分布器550包括在与设备200通信的计算机器上执行的一组可执行指令。一些实施例中,流分布器550包括在如固件的NIC上执行的一组可执行指令。其他实施例,流分布器550包括用于将数据分组分布在核或处理器上的软件和硬件的任何组合。一个实施例中,流分布器550在至少一个核505A-N上执行,而在其他实施例中,分配给每个核505A-N的单独的流分布器550在相关联的核505A-N上执行。流分布器可使用任何类型和形式的统计或概率算法或决策来平衡多个核上的流。可以将如NIC的设备硬件或内核设计或构造成支持NIC和/或核上的顺序操作。
系统545包括一个或多个流分布器550的实施例中,每个流分布器550可以与处理器505或分组引擎548关联。流分布器550可包括允许每个流分布器550和在系统545内执行的其他流分布器550通信的接口机制。一个实例中,一个或多个流分布器550可通过彼此通信确定如何平衡负载。该过程的操作可以基本与上述过程类似,即将投票提交给仲裁器,然后仲裁器确定哪个流分布器550应该接收负载。其他实施例中,第一流分布器550’可识别所关联的核上的负载并基于任何下列标准确定是否将第一数据分组转发到所关联的核:所关联的核上的负载大于预定阈值;所关联的核上的负载小于预定阈值;所关联的核上的负载小于其他核上的负载;或者可以用于部分基于处理器上的负载量来确定将数据分组转发到何处的任何其他指标。
流分布器550可以根据如此处所述的分布、计算或负载平衡方法而将网络流量分布在核505上。一个实施例中,流分布器可基于功能并行机制分布方案550、数据并行机制负载分布方案540、基于流的数据并行机制分布方案520或这些分布方案的任意组合或用于将负载分布在多个处理器上的任何负载平衡方案来分布网络流量。因而,流分布器550可通过接收数据分组并根据操作的负载平衡或分布方案将数据分组分布在处理器上而充当负载分布器。一个实施例中,流分布器550可包括用于确定如何相应地分布分组、工作或负载的一个或多个操作、函数或逻辑。又一个实施例中,流分布器550可包括可识别与数据分组关联的源地址和目的地址并相应地分布分组的一个或多个子操作、函数或逻辑。
一些实施例中,流分布器550可包括接收侧调整(RSS)网络驱动器模块560或将数据分组分布在一个或多个核505上的任何类型和形式的可执行指令。RSS模块560可以包括硬件和软件的任意组合。一些实施例中,RSS模块560和流分布器550协同工作以将数据分组分布在核505A-N或多处理器网络中的多个处理器上。一些实施例中,RSS模块560可在NIC552中执行,其他实施例中,可在核505的任何一个上执行。
一些实施例中,RSS模块560使用微软接收侧调整(RSS)方法。一个实施例中,RSS是微软可扩展网络主动技术(Microsoft Scalable Networkinginitiative technology),其使得系统中的多个处理器上的接收处理是平衡的,同时保持数据的顺序传送。RSS可使用任何类型或形式的哈希方案来确定用于处理网络分组的核或处理器。
RSS模块560可应用任何类型或形式的哈希函数,如Toeplitz哈希函数。哈希函数可应用到哈希类型值或者任何值序列。哈希函数可以是任意安全级别的安全哈希或者是以其他方式加密。哈希函数可使用哈希关键字(hashkey)。关键字的大小取决于哈希函数。对于Toeplitz哈希,用于IPv6的哈希关键字大小为40字节,用于IPv4的哈希关键字大小为16字节。
可以基于任何一个或多个标准或设计目标设计或构造哈希函数。一些实施例中,可使用为不同的哈希输入和不同哈希类型提供均匀分布的哈希结果的哈希函数,所述不同哈希输入和不同哈希类型包括TCP/IPv4、TCP/IPv6、IPv4和IPv6头部。一些实施例中,可使用存在少量桶时(例如2个或4个)提供均匀分布的哈希结果的哈希函数。一些实施例中,可使用存在大量桶时(例如64个桶)提供随机分布的哈希结果的哈希函数。在一些实施例中,基于计算或资源使用水平来确定哈希函数。在一些实施例中,基于在硬件中实现哈希的难易度来确定哈希函数。在一些实施例中,基于用恶意的远程主机发送将全部哈希到同一桶中的分组的难易度来确定哈希函数。
RSS可从任意类型和形式的输入来产生哈希,例如值序列。该值序列可包括网络分组的任何部分,如网络分组的任何头部、域或载荷或其一部分。一些实施例中,可将哈希输入称为哈希类型,哈希输入可包括与网络分组或数据流关联的任何信息元组,例如下面的类型:包括至少两个IP地址和两个端口的四元组、包括任意四组值的四元组、六元组、二元组和/或任何其他数字或值序列。以下是可由RSS使用的哈希类型示例:
-源TCP端口、源IP版本4(IPv4)地址、目的TCP端口和目的IPv4地址的四元组。
-源TCP端口、源IP版本6(IPv6)地址、目的TCP端口和目的IPv6地址的四元组。
-源IPv4地址和目的IPv4地址的二元组。
-源IPv6地址和目的IPv6地址的二元组。
-源IPv6地址和目的IPv6地址的二元组,包括对解析IPv6扩展头部的支持。
哈希结果或其任何部分可用于识别用于分布网络分组的核或实体,如分组引擎或VIP。一些实施例中,可向哈希结果应用一个或者多个哈希位或掩码。哈希位或掩码可以是任何位数或字节数。NIC可支持任意位,例如7位。网络堆栈可在初始化时设定要使用的实际位数。位数介于1和7之间,包括端值。
可通过任意类型和形式的表用哈希结果来识别核或实体,例如通过桶表(bucket table)或间接表(indirection table)。一些实施例中,用哈希结果的位数来索引表。哈希掩码的范围可有效地限定间接表的大小。哈希结果的任何部分或哈希结果自身可用于索引间接表。表中的值可标识任何核或处理器,例如通过核或处理器标识符来标识。一些实施例中,表中标识多核系统的所有核。其他实施例中,表中标识多核系统的一部分核。间接表可包括任意多个桶,例如2到128个桶,可以用哈希掩码索引这些桶。每个桶可包括标识核或处理器的索引值范围。一些实施例中,流控制器和/或RSS模块可通过改变间接表来重新平衡网络负载。
一些实施例中,多核系统575不包括RSS驱动器或RSS模块560。在这些实施例的一些中,软件操控模块(未示出)或系统内RSS模块的软件实施例可以和流分布器550共同操作或者作为流分布器550的一部分操作,以将分组引导到多核系统575中的核505。
一些实施例中,流分布器550在设备200上的任何模块或程序中执行,或者在多核系统575中包括的任何一个核505和任一装置或组件上执行。一些实施例中,流分布器550’可在第一核505A上执行,而在其他实施例中,流分布器550”可在NIC552上执行。其他实施例中,流分布器550’的实例可在多核系统575中包括的每个核505上执行。该实施例中,流分布器550’的每个实例可和流分布器550’的其他实例通信以在核505之间来回转发分组。存在这样的状况,其中,对请求分组的响应不是由同一核处理的,即第一核处理请求,而第二核处理响应。这些情况下,流分布器550’的实例可以拦截分组并将分组转发到期望的或正确的核505,即流分布器550’可将响应转发到第一核。流分布器550’的多个实例可以在任意数量的核505或核505的任何组合上执行。
流分布器可以响应于任一个或多个规则或策略而操作。规则可识别接收网络分组、数据或数据流的核或分组处理引擎。规则可识别和网络分组有关的任何类型和形式的元组信息,例如源和目的IP地址以及源和目的端口的四元组。基于所接收的匹配规则所指定的元组的分组,流分布器可将分组转发到核或分组引擎。一些实施例中,通过共享存储器和/或核到核的消息传输将分组转发到核。
虽然图5B示出了在多核系统575中执行的流分布器550,但是,一些实施例中,流分布器550可执行在位于远离多核系统575的计算装置或设备上。这样的实施例中,流分布器550可以和多核系统575通信以接收数据分组并将分组分布在一个或多个核505上。一个实施例中,流分布器550接收以设备200为目的地的数据分组,向所接收的数据分组应用分布方案并将数据分组分布到多核系统575的一个或多个核505。一个实施例中,流分布器550可以被包括在路由器或其他设备中,这样路由器可以通过改变与每个分组关联的元数据而以特定核505为目的地,从而每个分组以多核系统575的子节点为目的地。这样的实施例中,可用CISCO的vn-tag机制来改变或标记具有适当元数据的每个分组。
图5C示出包括一个或多个处理核505A-N的多核系统575的实施例简言之,核505中的一个可被指定为控制核505A并可用作其他核505的控制平面570。其他核可以是次级核,其工作于数据平面,而控制核提供控制平面。核505A-N共享全局高速缓存580。控制核提供控制平面,多核系统中的其他核形成或提供数据平面。这些核对网络流量执行数据处理功能,而控制核提供对多核系统的初始化、配置和控制。
仍参考图5C,具体而言,核505A-N以及控制核505A可以是此处所述的任何处理器。此外,核505A-N和控制核505A可以是能在图5C所述系统中工作的任何处理器。另外,核505A-N可以是此处所述的任何核或核组。控制核可以是与其他核不同类型的核或处理器。一些实施例中,控制核可操作不同的分组引擎或者具有与其他核的分组引擎配置不同的分组引擎。
每个核的存储器的任何部分可以被分配给或者用作核共享的全局高速缓存。简而言之,每个核的每个存储器的预定百分比或预定量可用作全局高速缓存。例如,每个核的每个存储器的50%可用作或分配给共享全局高速缓存。也就是说,所示实施例中,除了控制平面核或核1以外的每个核的2GB可用于形成28GB的共享全局高速缓存。例如通过配置服务而配置控制平面可确定用于共享全局高速缓存的存储量(the amount of memory)。一些实施例中,每个核可提供不同的存储量供全局高速缓存使用。其他实施例中,任一核可以不提供任何存储器或不使用全局高速缓存。一些实施例中,任何核也可具有未分配给全局共享存储器的存储器中的本地高速缓存。每个核可将网络流量的任意部分存储在全局共享高速缓存中。每个核可检查高速缓存来查找要在请求或响应中使用的任何内容。任何核可从全局共享高速缓存获得内容以在数据流、请求或响应中使用。
全局高速缓存580可以是任意类型或形式的存储器或存储元件,例如此处所述的任何存储器或存储元件。一些实施例中,核505可访问预定的存储量(即32GB或者与系统575相当的任何其他存储量)。全局高速缓存580可以从预定的存储量分配而来,同时,其余的可用存储器可在核505之间分配。其他实施例中,每个核505可具有预定的存储量。全局高速缓存580可包括分配给每个核505的存储量。该存储量可以字节为单位来测量,或者可用分配给每个核505的存储器百分比来测量。因而,全局高速缓存580可包括来自与每个核505关联的存储器的1GB存储器,或者可包括和每个核505关联的存储器的20%或一半。一些实施例,只有一部分核505提供存储器给全局高速缓存580,而在其他实施例,全局高速缓存580可包括未分配给核505的存储器。
每个核505可使用全局高速缓存580来存储网络流量或缓存数据。一些实施例中,核的分组引擎使用全局高速缓存来缓存并使用由多个分组引擎所存储的数据。例如,图2A的高速缓存管理器和图2B的高速缓存功能可使用全局高速缓存来共享数据以用于加速。例如,每个分组引擎可在全局高速缓存中存储例如HTML数据的响应。操作于核上的任何高速缓存管理器可访问全局高速缓存来将高速缓存响应提供给客户请求。
一些实施例中,核505可使用全局高速缓存580来存储端口分配表,其可用于部分基于端口确定数据流。其他实施例中,核505可使用全局高速缓存580来存储地址查询表或任何其他表或列表,流分布器可使用这些表来确定将到来的数据分组和发出的数据分组导向何处。一些实施例中,核505可以读写高速缓存580,而其他实施例中,核505仅从高速缓存读或者仅向高速缓存写。核可使用全局高速缓存来执行核到核通信。
可以将全局高速缓存580划分成各个存储器部分,其中每个部分可专用于特定核505。一个实施例中,控制核505A可接收大量的可用高速缓存,而其他核505可接收对全局高速缓存580的变化的访问量。
一些实施例中,系统575可包括控制核505A。虽然图5C将核1505A示为控制核,但是,控制核可以是设备200或多核系统中的任何一个核。此外,虽然仅描述了单个控制核,但是,系统575可包括一个或多个控制核,每个控制核对系统有某种程度的控制。一些实施例中,一个或多个控制核可以各自控制系统575的特定方面。例如,一个核可控制决定使用哪种分布方案,而另一个核可确定全局高速缓存580的大小。
多核系统的控制平面可以是将一个核指定并配置成专用的管理核或者作为主核。控制平面核可对多核系统中的多个核的操作和功能提供控制、管理和协调。控制平面核可对多核系统中的多个核上存储器系统的分配和使用提供控制、管理和协调,这包括初始化和配置存储器系统。一些实施例中,控制平面包括流分布器,用于基于数据流控制数据流到核的分配以及网络分组到核的分配。一些实施例中,控制平面核运行分组引擎,其他实施例中,控制平面核专用于系统的其他核的控制和管理。
控制核505A可对其他核505进行某种级别的控制,例如,确定将多少存储器分配给每个核505,或者确定应该指派哪个核来处理特定功能或硬件/软件实体。一些实施例中,控制核505A可以对控制平面570中的这些核505进行控制。因而,控制平面570之外可存在不受控制核505A控制的处理器。确定控制平面570的边界可包括由控制核505A或系统575中执行的代理维护由控制核505A控制的核的列表。控制核505A可控制以下的任一个:核初始化、确定核何时不可用、一个核出故障时将负载重新分配给其他核505、决定实现哪个分布方案、决定哪个核应该接收网络流量、决定应该给每个核分配多少高速缓存、确定是否将特定功能或元件分布到特定核、确定是否允许核彼此通信、确定全局高速缓存580的大小以及对系统575内的核的功能、配置或操作的任何其他确定。
E.用于虚拟设备的动态适应的系统和方法
设备200可提供虚拟化网络平台。可将该虚拟化网络平台设计和构造为在虚拟化环境400中运行多个虚拟设备,该虚拟设备诸如是虚拟应用传送控制器460和/或虚拟网络优化引擎450。虚拟应用传送控制器和虚拟网络优化引擎可以是网络加速器。在虚拟网络优化引擎加速WAN流量的同时,虚拟应用传送控制器可以加速LAN流量。虚拟化网络平台可使得这些不同类型的虚拟设备的多个实例能够在单个装置或设备上运行并且支持这些不同类型的虚拟设备的多个实例在单个装置或设备上运行。虚拟化网络平台可支持多租赁,其包括完全资源隔离、每实例容错、版本控制、数据分离和策略管理。设备可包含多核架构,其中虚拟设备的实例在多核设备的核上执行。
在一些部署中,设备的虚拟化网络平台可执行一个或多个虚拟化应用传送控制器460,该虚拟化应用传送控制器460管理提供WAN优化的多个虚拟化网络优化引擎450和/或对其进行负载平衡。例如,在多核设备200中,一个核可以执行一个或多个虚拟化应用传送控制器460,并且多个虚拟化网络优化引擎450(有时称为分支中继器(BR)或WAN优化器)的每个实例可在其他核上运行。
本解决方案的系统和方法提供了可适应的解决方案,该可适应的解决方案基于变化的网络工作负载动态且自动地部署、配置和调整WAN优化器(如虚拟化WAN优化引擎)。本解决方案可以从获悉模式开始。在该模式下,系统可以被动地或者通过执行次优的加速来检查流量,并且获悉关于负载和流量的信息。通过对流量进行检查,本解决方案可以确定正在服务多少个对等WAN优化器、有多少流量来自于每个对等WAN优化器,以及穿过WAN优化器的流量的类型。通过获悉关于负载和流量的信息,本解决方案可以为设备的配置提供更好的或者改进的基准。在一些实施例中,基于资源(例如CPU、存储器、盘),系统根据该认知可以确定应该使用多少个WAN优化实例以及实例的大小,并且确定应如何在WAN优化器的实例之间分布负载。
在一些实施例中,WAN优化器可查询、检测或者识别在设备上可用的资源数量,该资源例如是存储器、存储装置和CPU。基于结果,WAN优化器可自动配置其自身。WAN优化器可以基于在设备上可用的资源,选择或者确定分配给其自身的资源数量。例如,WAN优化器可基于在设备上可用的每种资源的数量和/或基于在设备上正在执行或者将要执行的WAN优化器的数量来为其自身分配预定数量或者百分比的每种资源。
在一些实施例中,设备上的管理器可检测查询、检测或识别资源的数量,并且可配置在设备上执行的WAN优化器的实例的数量。在一些实施例中,设备上的管理器可检测查询、检测或识别资源的数量,并且可配置WAN优化器的每个实例的大小。管理器可基于在设备上可用的每种资源的数量和/或基于在设备上正在执行的或将要执行的WAN优化器的数量,在WAN优化器之间分配预定数量或者百分比的每种资源。
在一些实施例中,系统监控和存储关于WAN优化器的性能和操作的数据,例如负载和带宽使用。在一些实施例中,系统监控和存储关于每个WAN优化器的资源使用的数据。在一些实施例中,系统监控和存储关于每个WAN优化器的资源使用中的变化的数据。基于历史数据,系统可自动配置在设备上执行的WAN优化器的实例的数量,并且自动配置WAN优化器的每个实例。例如,基于关于资源使用的历史数据,系统可以自动配置不同类型的资源中的每种资源在每个WAN优化器之间的分配。在另一个实施例中,基于关于性能的历史数据,系统可以自动配置建立预定数量的WAN优化器的实例,以满足该系统的预期负载或者带宽使用。
现参考图6A,示出了提供虚拟化网络平台的设备的实施例。设备200可用于提供虚拟化网络平台,该虚拟化网络平台用于执行多个虚拟设备,例如本文描述的网络优化或者WAN优化引擎250/450。概括而言,设备200可包括多个资源,例如网络资源、计算资源和存储资源。设备可提供对这些资源的用户进行虚拟化的虚拟化环境400。一个或多个管理程序401可在该虚拟化环境中操作。多个虚拟设备(VA或VM)可在该虚拟化环境中执行。应用传送控制器VA460可在该设备上执行,例如在该设备的多核实施例中的核上执行。应用传送控制器VA460可管理多个WAN优化VA450A-450N或对其进行负载平衡。虚拟化环境可包括一个或多个管理服务404A-N,其用于管理该虚拟化环境和其中的组件。如在下文中进一步讨论的,分组调度域可处理虚拟设备和设备的网络资源之间的网络流量。
对于与其他虚拟机或者外部主机通信的虚拟机,该虚拟机可使用网络接口或者网络接口卡(NIC)。在一些实施例中,虚拟化环境可提供两种类型的网络接口:称为PV NIC的半虚拟化NIC,以及仿真NIC(称为VNIC或虚拟NIC)。当虚拟机(VM)在VNIC上传输分组时,Domain0接收该分组并且在实际物理NIC上转发该分组(Domain0可以是虚拟化环境中的特定VM)。类似地,当虚拟机接收到分组时,VM将该分组转发到适当的VNIC,并且该VNIC所属的VM接收该分组。
然而,如果虚拟机需要非常高的网络性能,则由于所有的RX(接收)/TX(发送)分组都通过Domain0605,虚拟化网络架构可能变成瓶颈。在一些实施例中,Domain0仅能在一个CPU上运行,并且这限制了网络性能。可在虚拟化环境中使用SR-IOV技术来解决上文确定的IO瓶颈问题。SR-IOV规范是用于一类PCI透传的标准,其将单个装置本地共享给多个客户。SR-IOV通过指定虚拟化兼容存储空间、中断和DMA流,减少了管理程序的参与。SR-IOV为虚拟化客户提升了装置性能。SR-IOV允许PCIe装置显示为多个独立的物理PCIe装置。采用SR-IOV技术,虚拟化环境可根据物理装置创建虚拟功能(装置),并且可将这些虚拟装置分配给虚拟机。一旦虚拟机具有了所分配的虚拟装置,该虚拟机可接收和发送来自虚拟装置的分组而不需要管理程序的介入。虚拟机可为虚拟装置使用驱动器。在一个示例的实施例中,在装置中使用了Intel82599NIC,并且该Intel82599NIC能够使用SR-IOV。
现参考图6B,示出了用于对WAN优化器进行负载平衡的几个负载平衡方法的实施例的示意图。可由应用传送控制器来执行这些负载平衡方法。简要概括,该负载平衡方法包括1)最少连接、2)静态配置、3)采用代理id持久性的使用接收带宽的最少累计负载、4)采用代理id持久性的最少连接,以及5)源互联网协议(IP)哈希。每个负载平衡方法考虑一些因素,例如负载平衡效果、压缩历史性能、带宽管理、简单性、容错和持久性单元。对于所有WAN优化(例如,分支中继器)部署来说,可能不存在一个通用的解决方案。在部署方便与最优WAN优化之间可能存在权衡。
在进一步的细节中,最少连接负载平衡方法可能易于配置,但可能是次优的。最少连接方法可提供强的负载平衡效果,并且对于负载平衡方法的这种效果来说可能是较好或最好的选择。然而,最少连接方法可提供来自WAN优化器的较差的压缩历史性能。最少连接方法可提供很少的或者不确定的带宽管理能力。然而,最少连接方法容易配置,并且提供了所有最少连接方法中的一个最简单的配置。最少连接负载平衡提供了强的容错能力。采用最少连接,可以为每个客户机获得持久性(例如,持久性单元是一个/多个客户机的连接)。
静态配置负载平衡方法对于配置和管理可能最具挑战,但是会提供最好或最优的WAN优化的方法之一。静态连接方法可提供好的负载平衡效果,其好于负载平衡方法的其他选择。静态配置可提供来自WAN优化器的最好的压缩性能。静态配制方法可提供中等的带宽管理能力。由于只有单个备用选项可用于替换,这类负载平衡的容错能力较差。采用静态配置,可在分支级别管理持久性,例如用于分支机构处的一组客户机的WAN优化器(例如,持久性单元是分支(如WAN优化对等点))。
基于带宽的最少累计负载方法可提供强的带宽管理和强的容错,以及中等的配置简单性,同时提供最好或最优的WAN优化的方法之一。基于带宽的最少累计负载方法可提供好的负载平衡效果,其好于负载平衡方法的其他选择。基于带宽的最少累计负载方法可使用代理id持久性。在一些实施例中,代理id是关于特定WAN优化器的名称或标识符。每个WAN优化器可具有代理id,用于对等WAN优化器与其通信以执行WAN优化。每个WAN优化器可通过代理id来指代对等WAN优化器。采用代理id持久性,持久性单元是基于分支的。
采用代理id持久性的最少连接方法可提供强的带宽管理,以及好/较好的容错和配置简单性。采用代理id持久性的最少连接可提供较差的负载平衡效果,以及好到更好的压缩性能。在一些实施例中,如果(由代理id标识的)对等点具有不同的大小,则该负载平衡方法可能不能平均地平衡负载。最少连接方法的该实施例可使用代理id持久性。代理id可标识WAN优化器的对等点。使用代理id持久性,持久性单元是基于分支的。
基于源IP哈希的方法可能是配置简单性最好的且容错支持最好的方法之一,并且具有好/较好的带宽管理能力和压缩历史性能。源IP哈希方法可以一次加载一个WAN优化器,并且因此作为用于WAN优化器的负载平衡方法提供效果的不确定性。在一些实施例中,源IP哈希提供分支级别的持久性。
现参考图6C,示出了执行WAN优化器的适应性部署的系统的实施例。简要概括,分支中继(BR)管理器625可确定在设备200上部署的WAN优化器的实例数量634以及每个WAN优化器的大小632。监控器640可监控设备200的性能和操作,并且将该数据625存储到数据存储装置中。BR管理器可响应于一个或多个规则630,该规则630可由BR管理器配置或获悉。根据数据615并且响应于规则630,BR管理器可确定WAN优化器的实例的数量和大小,以及确定负载平衡(LB)方法636。
在进一步的细节中,BR管理器625可包含可在装置(例如设备200)上执行的任何类型和形式的可执行指令。BR管理器625可包含虚拟机。BR管理器625可被设计和构造为虚拟设备的部分。BR管理器625可包含在多核装置的核上执行的应用。BR管理器625可被设计和构造为vServer275的部分。BR管理器625可被设计和构造为应用传送控制器的部分,该应用传送控制器例如是虚拟化应用传送控制器460。BR管理器625可被设计和构造为虚拟化环境的管理服务404的部分。BR管理器625可被设计和构造为虚拟化网络优化引擎450的部分。BR管理器可在与设备通信的独立装置上执行。例如,BR管理器可在客户机、服务器或者另一个设备上执行。
监控器640可包含监控设备的任何方面的性能和操作的任何类型和形式的可执行指令。监控器可监控经过设备的网络流量。监控器可监控在设备上执行的任何应用或模块的负载。监控器可监控在设备200上执行的任何虚拟化设备的负载。监控器可监控任何虚拟化应用传送控制器460的负载。监控器可监控任何虚拟化网络优化引擎450(例如,WAN优化器)的负载。监控器可监控由设备和/或在设备上执行的任何模块接收的、传输的和/或发送的带宽,该模块包括任何虚拟化应用传送控制器和/或虚拟化网络优化引擎。
监控器可监控穿过设备和/或在设备上执行的任何模块的网络流量的类型,该模块包括任何虚拟化应用传送控制器和/或虚拟化网络优化引擎。监控器可监控由设备和/或在设备上执行的任何模块建立或使用的传输层连接的数量,该模块包括任何虚拟化应用传送控制器和/或虚拟化网络优化引擎。监控器可监控在一段时间内由设备和/或在设备上执行的任何模块操作或处理的事务、请求和/或响应的数量,该模块包括任何虚拟化应用传送控制器和/或虚拟化网络优化引擎。监控器可监控由设备和/或在设备上执行的任何模块操作或处理的请求、响应或者事务的速率和/或速率的变化,该模块包括任何虚拟化应用传送控制器和/或虚拟化网络优化引擎。
监控器可监控在设备上执行的应用或模块的每个实例的大小或资源占用,该应用或模块诸如是任何虚拟化应用传送控制器460和/或虚拟化网络优化引擎450。监控器可确定由在设备上执行的应用的每个实例使用的资源数量,该资源数量诸如是存储器、计算、网络和存储资源的数量。监控器可确定由应用的每个实例在一段时间内使用的资源数量,以及该使用的速率的变化。监控器可监控WAN优化器的每个对等点的大小,该对等点例如是连同第二WAN优化器一起工作的第一WAN优化器。监控器可识别或确定对等WAN优化器之间在大小或者资源占用方面的任何差异。监控器可识别或确定对等WAN优化器之间在大小或者资源占用方面的任何差异超过预定阈值。
监控器可监控WAN优化器的压缩历史的大小。监控器可监控在设备上存储的压缩历史的片段。监控器可监控由每个WAN优化器获得的压缩率或效率。监控器可监控每个WAN优化器的CPU或核利用。监控器可确定压缩历史的大小和片段是否在对应的预定阈值内。监控器可确定压缩率是否在预定阈值内。监控器可确定CPU/处理器/核利用是否在预定阈值内。
监控器可将经由监控识别或确定的任何性能和操作特征615(包括但不限于上文由监控器监控的信息)存储到数据存储器。在监控时,当识别数据615时,监控器可以存储该数据615。监控器可以以预定频率存储该数据615。在一些实施例中,被监控的WAN优化器或实体将数据存储或记录到数据存储器,该数据例如是资源使用、性能指标和/或操作指标,BR管理器可查询虚拟化环境以识别性能和操作数据,并且将该数据存储到数据存储器中。BR管理器可查询或检查每个虚拟化应用传送控制器和/或虚拟化网络优化引擎,以识别性能和操作数据并且将该数据存储到数据存储器内。
BR管理器625可包括使用性能和操作数据615来确定如何在设备上部署虚拟化网络优化引擎的实例的逻辑、操作或功能。BR可包括智能引擎,其分析数据615以获悉虚拟化网络优化引擎(例如WAN优化器)的实例以及设备200是如何执行的。BR管理器可分析数据615以确定将在设备上执行的WAN优化器的实例数量634。BR管理器可分析数据615以确定将在设备上执行的每个WAN优化器的大小632。BR管理器可分析数据615以确定用于对在设备上执行的虚拟WAN优化器进行负载平衡的负载平衡方法636。BR管理器可基于数据确定将使用的实例、大小以及负载平衡方法的任何组合。BR管理器可确定将在多个WAN优化器的每一个WAN优化器之间分布的负载。
BR管理器可在设备开始、启动或初始化时确定虚拟WAN优化器的实例和大小。BR管理器可在一个或多个WAN优化器开始、启动或初始化时确定虚拟WAN优化器的实例和大小。BR管理器可在设备操作期间动态且实时地确定虚拟WAN优化器的实例和大小。BR管理器可根据需要确定虚拟WAN优化器的实例和大小,以满足由设备使用的负载和带宽。BR管理器可在设备操作期间以预定频率确定虚拟WAN优化器的实例和大小。BR管理器可在预定事件发生时确定虚拟WAN优化器的实例和大小,该事件例如是超过性能或操作阈值。BR管理器可在WAN优化器大小的不同配置之间转换。BR管理器可在WAN优化器实例的不同配置之间转换。BR管理器可在WAN优化器的实例和大小的不同配置之间转换。
BR管理器625可响应于一个或多个规则630进行操作。可由管理员配置该规则。BR管理器可响应于数据615自动地创建规则。BR管理器可包括获悉模式,其中BR管理器监控和获悉设备的性能和操作。作为获悉模式的结果,BR管理器可响应于对经由获悉模式收集的数据615的检查和/或分析,来自动地配置一个或多个规则。BR管理器可在获悉模式下连续操作,以根据所获悉的内容调整规则的配置或者创建新规则。
规则可标识或指定虚拟WAN优化器的实例数量、虚拟WAN优化器的大小和/或负载平衡(LB)方法。规则可标识或指定一组条件,其中,根据该条件使用虚拟WAN优化器的实例数量、虚拟化WAN优化器的大小和/或LB方法。该条件可以是任何类型和形式的性能或操作条件,其包括但不限于连接数量、负载、带宽使用、网络104速度、客户机数量和服务器数量。规则可标识或指定标准,其中,根据该标准来使用虚拟WAN优化器的实例数量、虚拟化WAN优化器的大小和/或LB方法。该标准可以是设备上的资源数量。该标准可以是虚拟化WAN优化器可用的资源数量。
在一些实施例中,基于资源(例如CPU、存储器、盘),响应于数据和/或规则的BR管理器可确定应该使用多少WAN优化实例及实例大小,并且可确定应该如何在WAN优化器的实例之间分布负载。响应于数据和/或规则的BR管理器可自动地配置WAN优化器的数量、每个WAN优化器的大小和/或用于对WAN优化器进行负载平衡的LB方法。
以下是一些示例的规则。在一些实施例中,规则指定:如果存在少量的对等WAN优化器,则应在设备上提供更少数量的大WAN优化器实例,这是因为压缩历史将不太零碎且压缩率更高(更好)。在一些实施例中,规则指定:当对等WAN优化器的大小明显不同时,应在WAN优化器实例之间非平均地分布它们(例如,在一些实施例中,通过使用不同大小的WAN优化器实例)。
在一些实施例中,WAN优化器包括BR管理器或其部分。在一些实施例中,WAN优化器可与BR管理器相接或通信,以获取、接收或者被提供来自BR管理器的大小配置或资源分配。在一些实施例中,可将WAN优化器设计和构造为识别、检测或查询经由设备或者虚拟化环境可用的资源。在一些实施例中,可将WAN优化器设计和构造为查询数据存储器,以获得用于配置其自身的历史信息。基于由WAN优化器获取的信息,WAN优化器可以根据由WAN优化器使用的资源数量自动地配置其自身的大小。例如,WAN优化器可分配固定或预定数量的存储器和存储装置。
现参考图6D,示出用于自动且动态地改变WAN优化器的实例数量、WAN优化器的配置和用于对WAN优化器进行负载平衡的负载平衡方法的方法的实施例。简要概括,在步骤650,该方法包括在设备上建立多个WAN优化器。在步骤655,BR管理器监控设备和多个WAN优化器的性能。BR管理器可存储从监控中获得的性能和操作数据615。在步骤660,BR管理器可调整在设备上执行的WAN优化器的实例数量,以及每个WAN优化器的配置,例如大小。
在进一步的细节中,在步骤650,设备可建立在设备上执行的多个WAN优化器。设备可根据一个或多个规则建立多个WAN优化器。设备可以在由设备提供的虚拟化网络平台上建立多个虚拟化WAN优化器450A-450N。在一些实施例中,BR管理器查询设备和/或虚拟化环境400的资源能力和/或可用性。基于资源能力和/或可用性,BR管理器可建立将在设备上执行的WAN优化器的多个实例。基于资源能力和/或可用性,BR管理器可建立将用于WAN优化器的所有实例的资源占用或分配。基于资源能力和/或可用性,BR管理器可建立将在设备上执行的每个WAN优化器的大小,例如由每个WAN优化器使用的存储器、计算和存储装置的数量。基于资源能力和/或可用性,BR管理器可建立将由每个WAN优化器分配或使用的带宽的数量。基于资源能力和/或可用性,BR管理器可建立将由每个WAN优化器分配或使用的压缩历史的大小。基于资源能力和/或可用性,BR管理器可建立将由每个WAN优化器分配或使用的负载。基于资源能力和/或可用性和/或WAN优化器的数量和大小,BR管理器可建立负载平衡方法,以对多个WAN优化器进行负载平衡。
在一些实施例中,每个WAN优化器可自动配置其自身的大小。每个WAN优化器可查询在设备上的或者由虚拟化环境提供的资源的可用性和/或能力。基于资源能力和/或可用性,WAN优化器可为其自身建立大小,例如用于WAN优化器分配或使用的存储器、计算和存储装置的数量。基于资源能力和/或可用性,WAN优化器可为其自身建立要分配或使用的带宽数量。基于资源能力和/或可用性,WAN优化器可为其自身建立要分配或使用的压缩历史的数量。基于资源能力和/或可用性,WAN优化器可为其自身建立要管理的负载。
BR管理器可设置要在设备上执行的WAN优化器的初始或者预定数量和大小。在建立时,BR管理器可在获悉模式下执行,以检查网络流量、负载、带宽以及其他操作和性能特征。例如,如下文中结合步骤655和660所描述的,BR管理器可监控设备和WAN优化器的性能,并且动态且自动地调整WAN优化器的实例数量和每个WAN优化器的大小。在一些实施例中,BR管理器可使用经由监控和调整步骤655和660建立的基准配置。该基准配置可识别WAN优化器的实例数量、WAN优化器的每个实例的大小,以及用于对WAN优化器进行负载平衡的负载平衡方法。负载平衡方法可包括结合图6B描述的任何负载平衡方法。
在步骤655,监控器监控设备的操作和/或性能,该设备例如是在设备上执行的任何实体,包括但不限于WAN优化器。监控器可监控每个WAN优化器的性能和操作。监控器可监控每个虚拟化应用传送控制器的性能和操作。监控器可监控虚拟化环境的性能和操作。监控器可监控多核设备的每个核的性能和操作。监控器可监控由设备和在该设备上执行的任何虚拟设备(例如WAN优化器)使用的网络流量和带宽。监控器可监控穿过设备以及在该设备上执行的虚拟化设备(例如WAN优化器)的网络流量的类型和数量。监控器可监控每个WAN优化器的负载,包括但不限于资源利用、连接数量、压缩历史分配和带宽使用。监控器可监控每个WAN优化器的压缩率或效率。监控器可监控由每个WAN优化器接收、发送或处理的流量的数量。
监控器可将任何被监控的信息存储到数据存储装置。监控器可以按需、实时或者随着监控存储数据615。监控器可以以预定频率或者关于预定时间段存储数据615。监控器可关于性能和操作信息查询设备的虚拟化环境、管理服务404或操作系统,并且将信息存储到数据存储器615。
在步骤660,响应于数据615和/或一个或多个规则,BR管理器可自动地和/或动态地调整WAN优化器的实例的数量、每个WAN优化器的大小和/或用于对WAN优化器进行负载平衡的负载平衡方法。BR管理器可分析该数据并且自动地创建或指定一个或多个规则。BR管理器可分析该数据并且自动地识别或指定实例数量634。BR管理器可分析该数据并且自动地识别或指定实例的大小636。BR管理器可分析该数据并且自动地识别或指定负载平衡方法636。响应于数据615和/或一个或多个规则,BR管理器可以为设备上的WAN优化器创建或者建立基准配置。
响应于数据615和/或一个或多个规则,BR管理器可增加在设备上执行的WAN优化器的实例的数量。响应于数据615和/或一个或多个规则,BR管理器可减少在设备上执行的WAN优化器的实例的数量。响应于数据615和/或一个或多个规则,BR管理器可改变WAN优化器的大小。响应于数据615和/或一个或多个规则,BR管理器可增加WAN优化器的大小。响应于数据615和/或一个或多个规则,BR管理器可减少WAN优化器的大小。响应于数据615和/或一个或多个规则,BR管理器可增加分配给WAN优化器或者由WAN优化器使用的资源的数量。响应于数据615和/或一个或多个规则,BR管理器可减少分配给WAN优化器或者由WAN优化器使用的资源的数量。
响应于数据615和/或一个或多个规则,BR管理器可减少由WAN优化器使用的带宽数量。响应于数据615和/或一个或多个规则,BR管理器可增加由WAN优化器使用的带宽的数量。响应于数据615和/或一个或多个规则,BR管理器可减少由WAN优化器使用的负载。响应于数据615和/或一个或多个规则,BR管理器可增加由WAN优化器使用的负载。响应于数据615和/或一个或多个规则,BR管理器可增加由WAN优化器管理的连接或者客户机的数量。响应于数据615和/或一个或多个规则,BR管理器可减少由WAN优化器管理的连接或者客户机的数量。
响应于数据615和/或一个或多个规则,BR管理器可改变用于对WAN优化器进行负载平衡的负载平衡方法。响应于数据615和/或一个或多个规则,BR管理器可列举负载平衡方法的有序列表,以基于条件、标准或者满足预定阈值的负载在该负载平衡方法之间切换或者使用该负载平衡方法。
在一些实施例中,BR管理器建立基准配置或经修改的配置,以在步骤650处使用。例如,BR管理器可建立基准配置,以在设备重新启动、被重置或者初始化时使用。同样的,步骤650可使用步骤660的输出,并且该过程可经由步骤655和660连续地改变该配置。
在一些实施例中,BR管理器随时间连续动态且自动地改变WAN优化器的实例的数量、每个WAN优化器的大小和/或负载平衡方法。例如,在步骤655和步骤660的一个实例中,BR管理器可改变WAN优化器的实例的数量、每个WAN优化器的大小和/或负载平衡方法。在步骤655和660的下一次执行期间,BR管理器可进一步改变WAN优化器的实例的数量、每个WAN优化器的大小和/或负载平衡方法。BR管理器可持续地监控设备和WAN优化器的性能,并且基于条件、规则或阈值,自动且动态地调整WAN优化器的部署。
尽管结合自动且动态地改变WAN优化器的实例数量一般性地描述了本文描述的系统的实施例以及图6D的方法的实施例,但本文描述的系统和方法可用于自动且动态地改变任何应用的实例数量,该应用例如是任何网络优化器。尽管结合自动且动态地改变WAN优化器的实例数量一般性地描述了本文描述的系统的实施例和图6D的方法的实施例,但本文描述的系统和方法可用于自动且动态地改变任何类型和形式的虚拟设备的实例的数量,该虚拟设备包括但不限于虚拟化应用传送控制器。

Claims (20)

1.一种用于管理在中间装置上执行的广域网(WAN)优化器的多个实例的方法,所述方法包括:
(a)在多个客户机和多个服务器中间的装置上建立广域网(WAN)优化器的多个实例,以对在所述多个客户机和所述多个服务器之间的WAN通信进行加速;
(b)由所述装置为所述WAN优化器的多个实例中的每一个监控穿过该装置的网络流量;以及
(c)由在所述装置上执行的管理器响应于监控,选择改变负载平衡方案,以对所述WAN优化器的多个实例进行负载平衡。
2.根据权利要求1所述的方法,其中,步骤(a)还包括由所述装置基于通过监控所述WAN优化器的多个实例的先前执行所存储的数据,自动建立所述WAN优化器的多个实例中的每一个的大小的配置。
3.根据权利要求1所述的方法,其中,步骤(a)还包括由所述装置将所述WAN优化器的多个实例中的每一个执行为虚拟化环境中的虚拟机。
4.根据权利要求1所述的方法,其中,步骤(b)还包括由所述装置监控所述WAN优化器的多个实例中的每一个的压缩历史分配、压缩片段和压缩率。
5.根据权利要求1所述的方法,其中,步骤(b)还包括由所述装置监控所述WAN优化器的多个实例中的每一个的下列一个或多个:资源利用、连接数量、所要求的物体的数量以及带宽使用。
6.根据权利要求1所述的方法,其中,步骤(c)还包括由所述装置确定通过监控网络流量所计算的指标已经超过阈值,并且响应于该确定,由所述装置自动地选择第二负载平衡方案以对所述WAN优化器的多个实例进行负载平衡。
7.根据权利要求1所述的方法,其中,步骤(c)还包括由所述装置在执行所述WAN优化器的多个实例的同时,从所述负载平衡方案自动地转换为所选择的负载平衡方案。
8.根据权利要求1所述的方法,还包括由所述装置响应于监控,自动地改变在所述装置上执行的所述WAN优化器的实例的数量。
9.根据权利要求1所述的方法,还包括由所述装置响应于监控,自动地调整由所述WAN优化器的多个实例中的一个或多个使用的资源使用的大小。
10.根据权利要求1所述的方法,还包括由所述装置将一个或多个规则应用于通过监控收集的数据,以确定改变下列一个或多个:WAN优化器的实例的数量、一个或多个WAN优化器的大小,以及负载平衡方案。
11.一种用于管理在中间装置上执行的广域网(WAN)优化器的多个实例的系统,所述系统包括:
在多个客户机和多个服务器中间的装置;
在所述装置上执行的广域网(WAN)优化器的多个实例,用于对在所述多个客户机和所述多个服务器之间的WAN通信进行加速;
监控器,其为所述WAN优化器的多个实例中的每一个监控穿过所述装置的网络流量;以及
在所述装置上执行的管理器,其响应于所述监控器,选择改变负载平衡方案以对所述WAN优化器的多个实例进行负载平衡。
12.根据权利要求11所述的系统,其中,所述管理器基于通过监控所述WAN优化器的多个实例的先前执行所存储的数据,自动地建立所述WAN优化器的多个实例中的每一个的大小的配置。
13.根据权利要求11所述的系统,其中,所述WAN优化器的多个实例中的每一个执行为虚拟化环境中的虚拟机。
14.根据权利要求11所述的系统,其中,所述监控器监控所述WAN优化器的多个实例中的每一个的压缩历史分配、压缩片段和压缩率。
15.根据权利要求11所述的系统,其中,所述监控器监控所述WAN优化器的多个实例中的每一个的下列一个或多个:资源利用、连接数量、所要求的物体的数量以及带宽使用。
16.根据权利要求11所述的系统,其中,所述管理器确定通过监控网络流量所计算的指标已经超过阈值,并且响应于该确定,自动地选择第二负载平衡方案以对所述WAN优化器的多个实例进行负载平衡。
17.根据权利要求11所述的系统,其中,所述管理器在执行所述WAN优化器的多个实例的同时,从当前负载平衡方案自动地转换为所选择的负载平衡方案。
18.根据权利要求11所述的系统,其中,所述管理器响应于所述监控器,自动地改变在所述装置上执行的所述WAN优化器的实例的数量。
19.根据权利要求11所述的系统,其中,所述管理器响应于所述监控器,自动地调整由所述WAN优化器的多个实例中的一个或多个使用的资源使用的大小。
20.根据权利要求11所述的系统,其中,所述管理器将一个或多个规则应用于通过监控收集的数据,以确定改变下列一个或多个:WAN优化器的实例的数量、一个或多个WAN优化器的大小,以及负载平衡方案。
CN201280061431.8A 2011-10-14 2012-10-10 用于网络加速器的动态适应的系统和方法 Active CN103988483B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161547493P 2011-10-14 2011-10-14
US61/547493 2011-10-14
PCT/US2012/059586 WO2013055812A1 (en) 2011-10-14 2012-10-10 Systems and methods for dynamic adaptation of network accelerators

Publications (2)

Publication Number Publication Date
CN103988483A true CN103988483A (zh) 2014-08-13
CN103988483B CN103988483B (zh) 2018-08-28

Family

ID=47080850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280061431.8A Active CN103988483B (zh) 2011-10-14 2012-10-10 用于网络加速器的动态适应的系统和方法

Country Status (5)

Country Link
EP (1) EP2767071B1 (zh)
CN (1) CN103988483B (zh)
HK (1) HK1201109A1 (zh)
IN (1) IN2014CN02852A (zh)
WO (1) WO2013055812A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095719A (zh) * 2015-04-28 2016-11-09 阿尔特拉公司 具有功能链接能力的网络功能虚拟化平台
CN106250231A (zh) * 2016-03-31 2016-12-21 物联智慧科技(深圳)有限公司 计算堆栈大小的计算系统及方法
CN108347341A (zh) * 2017-01-24 2018-07-31 华为技术有限公司 一种用于调整虚拟机加速能力的加速能力调整方法及装置
CN110557320A (zh) * 2019-09-11 2019-12-10 上海市共进通信技术有限公司 基于家庭智能网关实现vpn插件海淘加速功能的系统及其方法
CN111031055A (zh) * 2019-12-19 2020-04-17 山东方寸微电子科技有限公司 一种IPsec加速装置及实现方法
CN111506541A (zh) * 2020-06-30 2020-08-07 翱捷科技(上海)有限公司 一种嵌入式网络设备中加速网络数据包处理的方法及系统
CN113647056A (zh) * 2019-04-03 2021-11-12 思科技术公司 扩展企业可信策略框架到云原生应用

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014166604A1 (en) * 2013-04-08 2014-10-16 Alcatel Lucent Dynamic scaling of redundancy elimination middleboxes
US9251218B2 (en) 2013-08-07 2016-02-02 International Business Machines Corporation Tunable hardware sort engine for performing composite sorting algorithms
US9830354B2 (en) 2013-08-07 2017-11-28 International Business Machines Corporation Accelerating multiple query processing operations
US9619499B2 (en) 2013-08-07 2017-04-11 International Business Machines Corporation Hardware implementation of a tournament tree sort algorithm
US9495418B2 (en) 2013-08-07 2016-11-15 International Business Machines Corporation Scalable acceleration of database query operations
CN103986585B (zh) * 2014-05-13 2018-03-16 新华三技术有限公司 报文预处理方法及其装置
US10310813B2 (en) 2014-12-29 2019-06-04 International Business Machines Corporation Hardware implementation of a tournament tree sort algorithm using an external memory
US10142353B2 (en) 2015-06-05 2018-11-27 Cisco Technology, Inc. System for monitoring and managing datacenters
US10536357B2 (en) * 2015-06-05 2020-01-14 Cisco Technology, Inc. Late data detection in data center
CN106936875B (zh) * 2015-12-30 2019-11-15 南京理工大学 基于广域网数据压缩的改进tcp代理方法
US10122647B2 (en) * 2016-06-20 2018-11-06 Microsoft Technology Licensing, Llc Low-redistribution load balancing
EP3596884B1 (en) 2017-03-14 2021-09-01 British Telecommunications Public Limited Company Communications network performance
SE541441C2 (en) * 2017-12-28 2019-10-01 DeviceRadio AB Method and a node for preventing latency in data packet transmission
US11068281B2 (en) * 2018-03-02 2021-07-20 Fastly, Inc. Isolating applications at the edge
US11671437B2 (en) * 2020-10-13 2023-06-06 Cujo LLC Network traffic analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010049741A1 (en) * 1999-06-18 2001-12-06 Bryan D. Skene Method and system for balancing load distribution on a wide area network
US6728748B1 (en) * 1998-12-01 2004-04-27 Network Appliance, Inc. Method and apparatus for policy based class of service and adaptive service level management within the context of an internet and intranet
US20100131638A1 (en) * 2008-11-25 2010-05-27 Ravi Kondamuru Systems and Methods for GSLB Remote Service Monitoring

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728748B1 (en) * 1998-12-01 2004-04-27 Network Appliance, Inc. Method and apparatus for policy based class of service and adaptive service level management within the context of an internet and intranet
US20010049741A1 (en) * 1999-06-18 2001-12-06 Bryan D. Skene Method and system for balancing load distribution on a wide area network
US20100131638A1 (en) * 2008-11-25 2010-05-27 Ravi Kondamuru Systems and Methods for GSLB Remote Service Monitoring

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489178B2 (en) 2015-04-28 2019-11-26 Altera Corporation Network functions virtualization platforms with function chaining capabilities
US11960921B2 (en) 2015-04-28 2024-04-16 Altera Corporation Network functions virtualization platforms with function chaining capabilities
US11687358B2 (en) 2015-04-28 2023-06-27 Altera Corporation Network functions virtualization platforms with function chaining capabilities
CN106095719B (zh) * 2015-04-28 2020-07-24 阿尔特拉公司 具有功能链接能力的网络功能虚拟化平台
US10963291B2 (en) 2015-04-28 2021-03-30 Altera Corporation Network functions virtualization platforms with function chaining capabilities
CN106095719A (zh) * 2015-04-28 2016-11-09 阿尔特拉公司 具有功能链接能力的网络功能虚拟化平台
CN106250231A (zh) * 2016-03-31 2016-12-21 物联智慧科技(深圳)有限公司 计算堆栈大小的计算系统及方法
CN108347341A (zh) * 2017-01-24 2018-07-31 华为技术有限公司 一种用于调整虚拟机加速能力的加速能力调整方法及装置
WO2018137363A1 (zh) * 2017-01-24 2018-08-02 华为技术有限公司 一种用于调整虚拟机加速能力的加速能力调整方法及装置
US11379255B2 (en) 2017-01-24 2022-07-05 Huawei Technologies Co., Ltd. Acceleration capacity adjustment method and apparatus for adjusting acceleration capacity of virtual machine
CN113647056A (zh) * 2019-04-03 2021-11-12 思科技术公司 扩展企业可信策略框架到云原生应用
CN110557320B (zh) * 2019-09-11 2022-01-28 太仓市同维电子有限公司 基于家庭智能网关实现vpn插件海淘加速功能的系统及其方法
CN110557320A (zh) * 2019-09-11 2019-12-10 上海市共进通信技术有限公司 基于家庭智能网关实现vpn插件海淘加速功能的系统及其方法
CN111031055B (zh) * 2019-12-19 2021-10-12 山东方寸微电子科技有限公司 一种IPsec加速装置及实现方法
CN111031055A (zh) * 2019-12-19 2020-04-17 山东方寸微电子科技有限公司 一种IPsec加速装置及实现方法
CN111506541A (zh) * 2020-06-30 2020-08-07 翱捷科技(上海)有限公司 一种嵌入式网络设备中加速网络数据包处理的方法及系统

Also Published As

Publication number Publication date
IN2014CN02852A (zh) 2015-07-03
EP2767071B1 (en) 2020-09-30
CN103988483B (zh) 2018-08-28
WO2013055812A1 (en) 2013-04-18
EP2767071A1 (en) 2014-08-20
HK1201109A1 (zh) 2015-08-21

Similar Documents

Publication Publication Date Title
CN103988483A (zh) 用于网络加速器的动态适应的系统和方法
CN103229460B (zh) 用于经由流控制隧道提供服务质量的系统和方法
CN102986189B (zh) 用于为对应于虚通道的网络连接分配服务等级的系统和方法
CN102714618B (zh) 用于平台速率限制的系统和方法
CN102405631B (zh) 用于中间设备压缩通过远程显示协议传递的数据的系统和方法
CN102714657B (zh) 用于经由tcp选项插入客户机ip地址的系统和方法
CN103518358B (zh) 为单个流ICA提供QoS的系统和方法
CN102771085B (zh) 用于保持透明的端到端高速缓存重定向的系统和方法
CN102771089B (zh) 用于通过虚拟服务器混合模式处理IPv6和IPv4流量的系统和方法
CN103583022B (zh) 用于经由nic感知应用处理nic拥塞的系统和方法
CN102907055B (zh) 用于在多核装置上进行链路负载平衡的系统和方法
CN102763375B (zh) 用于全局服务器负载平衡溢出的系统和方法
CN101682565B (zh) 用于通过代理进行动态带宽控制的系统和方法
CN103155520A (zh) 用于多核虚拟分组引擎装置中的半虚拟化驱动程序的系统和方法
CN103765851A (zh) 用于到任何服务的透明的层2重定向的系统和方法
CN103202002A (zh) 用于自负载平衡访问网关的系统和方法
CN103384989A (zh) 用于对多个下一跳进行策略路由的系统和方法
CN103392321A (zh) 用于基于策略集成横向部署的wan优化设备的系统和方法
CN103384991A (zh) 用于加密网络流量的服务质量的系统和方法
CN103154895A (zh) 用于在多核系统中的核上管理cookie代理的系统和方法
CN103354989A (zh) 用于中间装置中的多级服务质量分类的系统和方法
CN103392314A (zh) 用于可扩展的n核统计信息聚合的系统和方法
CN103416025A (zh) 用于经由云桥添加vlan标签的系统和方法
CN102549984A (zh) 在多核架构中分组引导的系统和方法
CN102460394A (zh) 用于多核系统中的分布式哈希表的系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant