CN105162657A - 一种网络测试性能优化的方法 - Google Patents

一种网络测试性能优化的方法 Download PDF

Info

Publication number
CN105162657A
CN105162657A CN201510539725.2A CN201510539725A CN105162657A CN 105162657 A CN105162657 A CN 105162657A CN 201510539725 A CN201510539725 A CN 201510539725A CN 105162657 A CN105162657 A CN 105162657A
Authority
CN
China
Prior art keywords
net
network
core
max
pci
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510539725.2A
Other languages
English (en)
Inventor
白云峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Electronic Information Industry Co Ltd
Original Assignee
Inspur Electronic Information Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inspur Electronic Information Industry Co Ltd filed Critical Inspur Electronic Information Industry Co Ltd
Priority to CN201510539725.2A priority Critical patent/CN105162657A/zh
Publication of CN105162657A publication Critical patent/CN105162657A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明提供一种网络测试性能优化的方法,涉及网络测试及Linux内核领域。本发明首先在服务器和交换机之间允许大帧传输,因为协议数据单元的包头和包尾的长度是固定的,MTU越大,则一个协议数据单元的承载的有效数据就越长,通信效率也越高。MTU越大,传送相同的用户数据所需的数据包个数也越低;其次,用sysctl来优化内核配置,可以修改Linux的内核相关TCP/mem等核心参数,提高网络性能;最后用setpci来优化网卡的PCI配置,针对该网卡插入的PCI总线进行调整,通过优化PCI总线的MMRBC,提升总线上对爆发增长的处理能力。通过以上三种手段可以最大的压榨服务器的性能,提高服务器的网络处理能力,防止网络在压力下或随时间推移性能下降。

Description

一种网络测试性能优化的方法
技术领域
本发明涉及网络测试及Linux内核领域,尤其涉及一种网络测试性能优化的方法。
背景技术
网络性能测量的五项指标
可用性(availability)
响应时间(responsetime)
网络利用率(networkutilization)
网络吞吐量(networkthroughput)
网络带宽容量(networkbandwidthcapacity)
1.可用性
测试网络性能的第一步是确定网络是否正常工作,最简单的方法是使用ping命令。通过向远端的机器发送icmpechorequest,并等待接收icmpechoreply来判断远端的机器是否连通,网络是否正常工作。
Ping命令有非常丰富的命令选项,比如-c可以指定发送echorequest的个数,-s可以指定每次发送的ping包大小。
网络设备内部一般有多个缓冲池,不同的缓冲池使用不同的缓冲区大小,分别用来处理不同大小的分组(packet)。例如交换机中通常具有三种类型的包缓冲:一类针对小的分组,一类针对中等大小的分组,还有一类针对大的分组。为了测试这样的网络设备,测试工具必须要具有发送不同大小分组的能力。Ping命令的-s就可以使用在这种场合。
2.响应时间
Ping命令的echorequest/reply一次往返所花费时间就是响应时间。有很多因素会影响到响应时间,如网段的负荷,网络主机的负荷,广播风暴,工作不正常的网络设备等等。
在网络工作正常时,记录下正常的响应时间。当用户抱怨网络的反应时间慢时,就可以将现在的响应时间与正常的响应时间对比,如果两者差值的波动很大,就能说明网络设备存在故障。
3.网络利用率
网络利用率是指网络被使用的时间占总时间(即被使用的时间+空闲的时间)的比例。比如,Ethernet虽然是共享的,但同时却只能有一个报文在传输。因此在任一时刻,Ethernet或者是100%的利用率,或者是0%的利用率。
计算一个网段的网络利用率相对比较容易,但是确定一个网络的利用率就比较复杂。因此,网络测试工具一般使用网络吞吐量和网络带宽容量来确定网络中两个节点之间的性能。
4.网络吞吐量
网络吞吐量是指在某个时刻,在网络中的两个节点之间,提供给网络应用的剩余带宽。
网络吞吐量可以帮组寻找网络路径中的瓶颈。比如,即使client和server都被分别连接到各自的100MEthernet上,但是如果这两个100M的Ethernet被10M的Ethernet连接起来,那么10M的Ethernet就是网络的瓶颈。
网络吞吐量非常依赖于当前的网络负载情况。因此,为了得到正确的网络吞吐量,最好在不同时间(一天中的不同时刻,或者一周中不同的天)分别进行测试,只有这样才能得到对网络吞吐量的全面认识。
有些网络应用程序在开发过程的测试中能够正常运行,但是到实际的网络环境中却无法正常工作(由于没有足够的网络吞吐量)。这是因为测试只是在空闲的网络环境中,没有考虑到实际的网络环境中还存在着其它的各种网络流量。所以,网络吞吐量定义为剩余带宽是有实际意义的。
5.网络带宽容量
与网络吞吐量不同,网络带宽容量指的是在网络的两个节点之间的最大可用带宽。这是由组成网络的设备的能力所决定的。
测试网络带宽容量有两个困难之处:在网络存在其它网络流量的时候,如何得知网络的最大可用带宽;在测试过程中,如何对现有的网络流量不造成影响。网络测试工具一般采用packetpairs和packettrains技术来克服这样的困难。
Netperf是一种网络性能的测量工具,主要针对基于TCP或UDP的传输。Netperf根据应用的不同,可以进行不同模式的网络性能测试,即批量数据传输(bulkdatatransfer)模式和请求/应答(request/reponse)模式。Netperf测试结果所反映的是一个系统能够以多快的速度向另外一个系统发送数据,以及另外一个系统能够以多块的速度接收数据。
Netperf工具以client/server方式工作。server端是netserver,用来侦听来自client端的连接,client端是netperf,用来向server发起网络测试。在client与server之间,首先建立一个控制连接,传递有关测试配置的信息,以及测试的结果;在控制连接建立并传递了测试配置信息以后,client与server之间会再建立一个测试连接,用来来回传递着特殊的流量模式,以测试网络的性能。
目前经常出现问题是网络性能下降,随着时间推移,网络速度不稳地且一直下降,远远低于标称网速,这对于服务器大规模部署应用造成致命影响。
发明内容
为了解决该问题,本发明提出了一种网络测试性能优化的方法。主要从三个个方面对网络性能进行优化:首先,在服务器和交换机之间允许大帧传输,因为协议数据单元的包头和包尾的长度是固定的,MTU越大,则一个协议数据单元的承载的有效数据就越长,通信效率也越高。MTU越大,传送相同的用户数据所需的数据包个数也越低。其次,用sysctl来优化内核配置,可以修改Linux的内核相关TCP/mem等核心参数,提高网络性能。最后用setpci来优化网卡的PCI配置,针对该网卡插入的PCI总线进行调整,通过优化PCI总线的MMRBC,提升总线上对爆发增长的处理能力。通过以上三种手段可以最大的压榨服务器的性能,提高服务器的网络处理能力。
1)在服务器和交换机之间允许大帧传输
在开始任何压力测试前,需要禁止掉irqbanlace和cpuspeed。这样做可以获得最大的网络吞吐量以得到最好的压力测试结果。
serviceirqbalancestop
servicecpuspeedstop
chkconfigirqbalanceoff
chkconfigcpuspeedoff
通过在网卡的配置文件增加一行,将MTU值设置为9000。
ifconfigeth2mtu9000txqueuelen1000up
如果要让这个配置持久化,可以在网卡的配置文件中增加MTU的新值,将“eth2”换成你自己的网卡名字:
vim/etc/sysconfig/network-scripts/ifcfg-eth2
MTU=”9000″。
2)用sysctl来优化内核配置
核心的内存配置:
net.core.rmem_max–maxsizeofrxsocketbuffer
net.core.wmem_max–maxsizeoftxsocketbuffer
net.core.rmem_default–defaultrxsizeofsocketbuffer
net.core.wmem_default–defaulttxsizeofsocketbuffer
net.core.optmem_max–maximumamountofoptionmemory
net.core.netdev_max_backlog–howmanyunprocessedrxpacketsbeforekernelstartstodropthem
网络核心参数的修正
#—tuning—#
#Increasesystemfiledescriptorlimit
fs.file-max=65535
#IncreasesystemIPportrangetoallowformoreconcurrentconnections
net.ipv4.ip_local_port_range=102465000
#—10gbetuningfromIntelixgbdriverREADME—#
#turnoffselectiveACKandtimestamps
net.ipv4.tcp_sack=0
net.ipv4.tcp_timestamps=0
#memoryallocationmin/pressure/max.
#readbuffer,writebuffer,andbufferspace
net.ipv4.tcp_rmem=100000001000000010000000
net.ipv4.tcp_wmem=100000001000000010000000
net.ipv4.tcp_mem=100000001000000010000000
net.core.rmem_max=524287
net.core.wmem_max=524287
net.core.rmem_default=524287
net.core.wmem_default=524287
net.core.optmem_max=524287
net.core.netdev_max_backlog=300000。
3)用setpci来优化网卡的PCI配置
首先需要找到要调整的PCI总线地址,通过lspci命令获取:
[chloebiru~]$lspci
07:00.0Ethernetcontroller:IntelCorporation82599EB10-GigabitSFI/SFP+NetworkConnection(rev01)
这里的07:00.0就是PCI总线的地址。在/proc/bus/pci/devices里面找到更多的信息:
[chloebiru~]$grep0700/proc/bus/pci/devices
0700808610fb28d590000c0ecc10d58f800c00800000200400000ixgbehttp://dak1n1.com/blog/7-performance-tuning-intel-10gbe
其中808610fb。这是设备的供应商ID和设备ID的组合。供应商ID:8086,设备ID:10fb。我们可以使用这些值来优化PCI总线的MMRBC(MaximumMemoryReadByteCount)。
下面的命令可以提升MMRBC到4k的读,提升总线上对爆发增长的处理能力。
setpci-v-d8086:10fbe6.b=2e
关于这条命令:
-d选项指明网卡在PCI-X总线结构上的位置
e6.b是PCI-X命令的寄存器地址
2e是要配置值
下面是这个寄存器的其他可用值(尽管上面已经列出了一个,2e,是Intelixgbe文档中推荐的配置值)
MMvalueinbytes
22512(default)
261024
2a2048
2e4096。
本发明通过优化PCI总线的MMRBC,提升总线上对爆发增长的处理能力。提高服务器的网络处理能力,防止网络在压力下或随时间推移性能下降。
具体实施方式
下面对本发明的内容进行更加详细的阐述:
优化的网络测试实施方案共分四部分实施:
1.在服务器和交换机之间允许大帧传输,因为协议数据单元的包头和包尾的长度是固定的,MTU越大,则一个协议数据单元的承载的有效数据就越长,通信效率也越高。MTU越大,传送相同的用户数据所需的数据包个数也越低。
2.用sysctl来优化内核配置,可以修改Linux的内核相关TCP/mem等核心参数,提高网络性能。
3.用setpci来优化网卡的PCI配置,针对该网卡插入的PCI总线进行调整,通过优化PCI总线的MMRBC,提升总线上对爆发增长的处理能力。
4.使用网络测试工具Netperf进行网络测试。包括TCP批量传输和UDP批量传输测试。
1)在服务器和交换机之间允许大帧传输
在开始任何压力测试前,需要禁止掉irqbanlace和cpuspeed。这样做可以获得最大的网络吞吐量以得到最好的压力测试结果。
serviceirqbalancestop
servicecpuspeedstop
chkconfigirqbalanceoff
chkconfigcpuspeedoff
通过在网卡的配置文件增加一行,将MTU值设置为9000。
ifconfigeth2mtu9000txqueuelen1000up
如果要让这个配置持久化,可以在网卡的配置文件中增加MTU的新值,将“eth2”换成你自己的网卡名字:
vim/etc/sysconfig/network-scripts/ifcfg-eth2
MTU=”9000″
2)用sysctl来优化内核配置
核心的内存配置:
net.core.rmem_max–maxsizeofrxsocketbuffer
net.core.wmem_max–maxsizeoftxsocketbuffer
net.core.rmem_default–defaultrxsizeofsocketbuffer
net.core.wmem_default–defaulttxsizeofsocketbuffer
net.core.optmem_max–maximumamountofoptionmemory
net.core.netdev_max_backlog–howmanyunprocessedrxpacketsbeforekernelstartstodropthem
网络核心参数的修正
#—tuning—#
#Increasesystemfiledescriptorlimit
fs.file-max=65535
#IncreasesystemIPportrangetoallowformoreconcurrentconnections
net.ipv4.ip_local_port_range=102465000
#—10gbetuningfromIntelixgbdriverREADME—#
#turnoffselectiveACKandtimestamps
net.ipv4.tcp_sack=0
net.ipv4.tcp_timestamps=0
#memoryallocationmin/pressure/max.
#readbuffer,writebuffer,andbufferspace
net.ipv4.tcp_rmem=100000001000000010000000
net.ipv4.tcp_wmem=100000001000000010000000
net.ipv4.tcp_mem=100000001000000010000000
net.core.rmem_max=524287
net.core.wmem_max=524287
net.core.rmem_default=524287
net.core.wmem_default=524287
net.core.optmem_max=524287
net.core.netdev_max_backlog=300000
3)用setpci来优化网卡的PCI配置
首先需要找到要调整的PCI总线地址,通过lspci命令获取:
[chloebiru~]$lspci
07:00.0Ethernetcontroller:IntelCorporation82599EB10-GigabitSFI/SFP+NetworkConnection(rev01)
这里的07:00.0就是PCI总线的地址。在/proc/bus/pci/devices里面找到更多的信息:
[chloebiru~]$grep0700/proc/bus/pci/devices
0700808610fb28d590000c0ecc10d58f800c00800000200400000ixgbehttp://dak1n1.com/blog/7-performance-tuning-intel-10gbe
其中808610fb。这是设备的供应商ID和设备ID的组合。供应商ID:8086,设备ID:10fb。我们可以使用这些值来优化PCI总线的MMRBC(MaximumMemoryReadByteCount)。
下面的命令可以提升MMRBC到4k的读,提升总线上对爆发增长的处理能力。
setpci-v-d8086:10fbe6.b=2e
关于这条命令:
-d选项指明网卡在PCI-X总线结构上的位置
e6.b是PCI-X命令的寄存器地址
2e是要配置值
下面是这个寄存器的其他可用值(尽管上面已经列出了一个,2e,是Intelixgbe文档中推荐的配置值)
MMvalueinbytes
22512(default)
261024
2a2048
2e4096
4)测试批量(bulk)网络流量的性能测试
批量数据传输又分为TCP批量传输和UDP批量传输。
1.TCP_STREAM
Netperf缺省情况下进行TCP批量传输,即-tTCP_STREAM。测试过程中,netperf向netserver发送批量的TCP数据分组,以确定数据传输过程中的吞吐量:
./netperf-H192.168.0.28-l60
TCPSTREAMTESTto192.168.0.28
RecvSendSend
SocketSocketMessageElapsed
SizeSizeSizeTimeThroughput
bytesbytesbytessecs.10^6bits/sec
87380163841638460.0088.00
从netperf的结果输出中,可以知道以下的一些信息:
1)远端系统(即server)使用大小为87380字节的socket接收缓冲
2)本地系统(即client)使用大小为16384字节的socket发送缓冲
3)向远端系统发送的测试分组大小为16384字节
4)测试经历的时间为60秒
5)吞吐量的测试结果为88Mbits/秒
在缺省情况下,netperf向发送的测试分组大小设置为本地系统所使用的socket发送缓冲大小。
TCP_STREAM方式下与测试相关的局部参数如下表所示:
通过修改以上的参数,并观察结果的变化,可以确定是什么因素影响了连接的吞吐量。例如,如果怀疑路由器由于缺乏足够的缓冲区空间,使得转发大的分组时存在问题,就可以增加测试分组(-m)的大小,以观察吞吐量的变化:
./netperf-H192.168.0.28-l60---m2048
TCPSTREAMTESTto192.168.0.28
RecvSendSend
SocketSocketMessageElapsed
SizeSizeSizeTimeThroughput
bytesbytesbytessecs.10^6bits/sec
8738016384204860.0087.62
在这里,测试分组的大小减少到2048字节,而吞吐量却没有很大的变化(与前面例子中测试分组大小为16K字节相比)。相反,如果吞吐量有了较大的提升,则说明在网络中间的路由器确实存在缓冲区的问题。
2.UDP_STREAM
UDP_STREAM用来测试进行UDP批量传输时的网络性能。需要特别注意的是,此时测试分组的大小不得大于socket的发送与接收缓冲大小,否则netperf会报出错提示:
./netperf-tUDP_STREAM-H192.168.0.28-l60
UDPUNIDIRECTIONALSENDTESTto192.168.0.28
udp_send:datasenderror:Messagetoolong
为了避免这样的情况,可以通过命令行参数限定测试分组的大小,或者增加socket的发送/接收缓冲大小。UDP_STREAM方式使用与TCP_STREAM方式相同的局部命令行参数,因此,这里可以使用-m来修改测试中使用分组的大小:
./netperf-tUDP_STREAM-H192.168.0.28---m1024
UDPUNIDIRECTIONALSENDTESTto192.168.0.28
SocketMessageElapsedMessages
SizeSizeTimeOkayErrorsThroughput
bytesbytessecs##10^6bits/sec
6553510249.99114127093.55
655359.9911412293.54
UDP_STREAM方式的结果中有两行测试数据,第一行显示的是本地系统的发送统计,这里的吞吐量表示netperf向本地socket发送分组的能力。但是,UDP是不可靠的传输协议,发送出去的分组数量不一定等于接收到的分组数量。
第二行显示的就是远端系统接收的情况,由于client与server直接连接在一起,而且网络中没有其它的流量,所以本地系统发送过去的分组几乎都被远端系统正确的接收了,远端系统的吞吐量也几乎等于本地系统的发送吞吐量。但是,在实际环境中,一般远端系统的socket缓冲大小不同于本地系统的socket缓冲区大小,而且由于UDP协议的不可靠性,远端系统的接收吞吐量要远远小于发送出去的吞吐量。

Claims (5)

1.一种网络测试性能优化的方法,其特征在于,
首先,在服务器和交换机之间允许大帧传输;
其次,用sysctl来优化内核配置,可以修改Linux的内核相关TCP/mem等核心参数,提高网络性能;
最后用setpci来优化网卡的PCI配置,针对该网卡插入的PCI总线进行调整,通过优化PCI总线的MMRBC,提升总线上对爆发增长的处理能力。
2.根据权利要求1所述的方法,其特征在于,
在服务器和交换机之间允许大帧传输
在开始任何压力测试前,需要禁止掉irqbanlace和cpuspeed;
serviceirqbalancestop
servicecpuspeedstop
chkconfigirqbalanceoff
chkconfigcpuspeedoff
通过在网卡的配置文件增加一行,将MTU值设置为9000;
ifconfigeth2mtu9000txqueuelen1000up
如果要让这个配置持久化,可以在网卡的配置文件中增加MTU的新值,将“eth2”更换网卡名字:
vim/etc/sysconfig/network-scripts/ifcfg-eth2
MTU=”9000″。
3.根据权利要求1所述的方法,其特征在于,
用sysctl来优化内核配置
核心的内存配置:
net.core.rmem_max–maxsizeofrxsocketbuffer
net.core.wmem_max–maxsizeoftxsocketbuffer
net.core.rmem_default–defaultrxsizeofsocketbuffer
net.core.wmem_default–defaulttxsizeofsocketbuffer
net.core.optmem_max–maximumamountofoptionmemory
net.core.netdev_max_backlog–howmanyunprocessedrxpacketsbeforekernelstartstodropthem
网络核心参数的修正
#—tuning—#
#Increasesystemfiledescriptorlimit
fs.file-max=65535
#IncreasesystemIPportrangetoallowformoreconcurrentconnections
net.ipv4.ip_local_port_range=102465000
#—10gbetuningfromIntelixgbdriverREADME—#
#turnoffselectiveACKandtimestamps
net.ipv4.tcp_sack=0
net.ipv4.tcp_timestamps=0
#memoryallocationmin/pressure/max.
#readbuffer,writebuffer,andbufferspace
net.ipv4.tcp_rmem=100000001000000010000000
net.ipv4.tcp_wmem=100000001000000010000000
net.ipv4.tcp_mem=100000001000000010000000
net.core.rmem_max=524287
net.core.wmem_max=524287
net.core.rmem_default=524287
net.core.wmem_default=524287
net.core.optmem_max=524287
net.core.netdev_max_backlog=300000。
4.根据权利要求1所述的方法,其特征在于,
用setpci来优化网卡的PCI配置
首先需要找到要调整的PCI总线地址,通过lspci命令获取:
[chloebiru~]$lspci
07:00.0Ethernetcontroller:IntelCorporation82599EB10-GigabitSFI/SFP+NetworkConnection(rev01)
这里的07:00.0就是PCI总线的地址;
在/proc/bus/pci/devices里面找到更多的信息:
[chloebiru~]$grep0700/proc/bus/pci/devices
0700808610fb28d590000c0ecc10d58f800c00800000200400000ixgbehttp://dak1n1.com/blog/7-performance-tuning-intel-10gbe
其中808610fb;
这是设备的供应商ID和设备ID的组合;供应商ID:8086,设备ID:10fb;使用这些值来优化PCI总线的MMRBC(MaximumMemoryReadByteCount);
下面的命令可以提升MMRBC到4k的读,提升总线上对爆发增长的处理能力;
setpci-v-d8086:10fbe6.b=2e
关于这条命令:
-d选项指明网卡在PCI-X总线结构上的位置
e6.b是PCI-X命令的寄存器地址
2e是要配置值。
5.根据权利要求4所述的方法,其特征在于,
寄存器的其他可用值为
MMvalueinbytes
22512(default)
261024
2a2048
2e4096。
CN201510539725.2A 2015-08-28 2015-08-28 一种网络测试性能优化的方法 Pending CN105162657A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510539725.2A CN105162657A (zh) 2015-08-28 2015-08-28 一种网络测试性能优化的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510539725.2A CN105162657A (zh) 2015-08-28 2015-08-28 一种网络测试性能优化的方法

Publications (1)

Publication Number Publication Date
CN105162657A true CN105162657A (zh) 2015-12-16

Family

ID=54803417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510539725.2A Pending CN105162657A (zh) 2015-08-28 2015-08-28 一种网络测试性能优化的方法

Country Status (1)

Country Link
CN (1) CN105162657A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649003A (zh) * 2016-09-21 2017-05-10 郑州云海信息技术有限公司 一种基于netperf自动化测试网卡性能的方法
CN106648943A (zh) * 2016-09-22 2017-05-10 郑州云海信息技术有限公司 一种Smart Rack系统性能测试内存优化的方法
CN107818047A (zh) * 2017-10-18 2018-03-20 郑州云海信息技术有限公司 一种测试管理方法及装置
CN110868742A (zh) * 2019-11-22 2020-03-06 上海商米科技集团股份有限公司 网络切换的方法和装置
CN116208495A (zh) * 2022-12-26 2023-06-02 超聚变数字技术有限公司 一种网络性能的调优方法、bmc及服务器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080022401A1 (en) * 2006-07-21 2008-01-24 Sensory Networks Inc. Apparatus and Method for Multicore Network Security Processing
US7461215B2 (en) * 2002-10-08 2008-12-02 Rmi Corporation Advanced processor with implementation of memory ordering on a ring based data movement network
CN102622328A (zh) * 2012-03-09 2012-08-01 浪潮电子信息产业股份有限公司 一种基于正交连接器的高速冗余服务器通信系统
CN203243359U (zh) * 2013-05-13 2013-10-16 上海硕擎电子科技有限公司 一种新型高性能网络数据处理应用服务器
EP2824880A1 (en) * 2013-07-10 2015-01-14 Brocade Communications Systems, Inc. Flexible offload of processing a data flow

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7461215B2 (en) * 2002-10-08 2008-12-02 Rmi Corporation Advanced processor with implementation of memory ordering on a ring based data movement network
US20080022401A1 (en) * 2006-07-21 2008-01-24 Sensory Networks Inc. Apparatus and Method for Multicore Network Security Processing
CN102622328A (zh) * 2012-03-09 2012-08-01 浪潮电子信息产业股份有限公司 一种基于正交连接器的高速冗余服务器通信系统
CN203243359U (zh) * 2013-05-13 2013-10-16 上海硕擎电子科技有限公司 一种新型高性能网络数据处理应用服务器
EP2824880A1 (en) * 2013-07-10 2015-01-14 Brocade Communications Systems, Inc. Flexible offload of processing a data flow

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DAK1N1: "Performance tuning: Intel 10-gigabit NIC", 《HTTP://DAK1N1.COM》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649003A (zh) * 2016-09-21 2017-05-10 郑州云海信息技术有限公司 一种基于netperf自动化测试网卡性能的方法
CN106648943A (zh) * 2016-09-22 2017-05-10 郑州云海信息技术有限公司 一种Smart Rack系统性能测试内存优化的方法
CN107818047A (zh) * 2017-10-18 2018-03-20 郑州云海信息技术有限公司 一种测试管理方法及装置
CN110868742A (zh) * 2019-11-22 2020-03-06 上海商米科技集团股份有限公司 网络切换的方法和装置
CN116208495A (zh) * 2022-12-26 2023-06-02 超聚变数字技术有限公司 一种网络性能的调优方法、bmc及服务器

Similar Documents

Publication Publication Date Title
CN105162657A (zh) 一种网络测试性能优化的方法
US7995475B2 (en) Reliable transport protocol providing receiver-based congestion control
US10305737B2 (en) System for testing ethernet paths and links without impacting non-test traffic
AU2007296442A1 (en) Systems and methods of improving performance of transport protocols in a multi-path environment
CN101640645B (zh) 报文传输方法和系统
KR20040062882A (ko) 시스템 리소스 최적화
WO2018219100A1 (zh) 数据传输的方法和设备
CN111526089B (zh) 一种基于变长粒度的数据融合传输与调度的装置
CN108768880B (zh) 一种sdn环境下基于调节通告窗口的拥塞控制机制方法
CN101534249A (zh) 一种在捆绑链路上发送数据的方法及网络设备
CN101217540A (zh) 报文隧道分片的自适应调整方法、装置和系统
CN102340451A (zh) 一种跟踪路由测试方法、系统、装置及设备
CN105099938A (zh) 网络中拥塞窗口的确定方法和装置
CN104168212A (zh) 发送报文的方法和装置
CN103763213A (zh) 报文发送方法及装置
CN105939282B (zh) 分组大小的调整方法及装置
CN110381071A (zh) 一种报文传输方法、装置及发送方设备
CN106302213A (zh) 一种数据传输的方法及装置
CN106230654B (zh) 一种快速实现rfc2544带背景流下最大吞吐率的方法
CN105763375B (zh) 一种数据包发送方法、接收方法及微波站
CN113612698A (zh) 一种数据包发送方法及装置
US11258716B1 (en) System and method for optimizing dynamic multi-stream network connections
US7720077B1 (en) Timed packet processing to regulate data transfer between components of a gateway for a constant delay network
CN101547192A (zh) 一种分发传输tcp数据包的方法及装置
CN105812064A (zh) 一种光模块控制方法、光模块及光通信终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20151216