CN112131129A - 一种应用程序的测试方法及系统 - Google Patents
一种应用程序的测试方法及系统 Download PDFInfo
- Publication number
- CN112131129A CN112131129A CN202011057527.XA CN202011057527A CN112131129A CN 112131129 A CN112131129 A CN 112131129A CN 202011057527 A CN202011057527 A CN 202011057527A CN 112131129 A CN112131129 A CN 112131129A
- Authority
- CN
- China
- Prior art keywords
- rpa
- test
- test data
- application program
- tested
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/362—Software debugging
- G06F11/3644—Software debugging by instrumenting at runtime
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/70—Software maintenance or management
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明提供一种应用程序的测试方法及系统,包括当RPA执行器接收到RPA集中控制器发送的测试指令时,获取待测试应用程序所处的测试场景;并基于测试场景,确定与测试场景对应的测试流程;再基于测试流程对待测试应用程序进行测试,得到测试数据,然后将测试数据反馈给RPA集中控制器;RPA集中控制器基于接收到的每一RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看测试数据比对报告和测试数据。在本方案中,不需要人工进行测试,可以通过多个RPA执行器执行测试流程,以对应用程序进行测试处理,RPA集中控制器将每一RPA执行器反馈的测试数据进行处理,生成测试数据比对报告,从而提高应用程序的测试效率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种应用程序的测试方法及系统。
背景技术
随着科技的不断发展,市面上出现了多种操作系统,比如网间网操作系统(Internetwork 0perating System,IOS)以及安卓Android等,以及多种移动设备,比如终端IPAD、华为以及小米等。
为了使开发好的应用能够与各种操作系统和移动设备适配,需要在各种操作系统和移动设备中对开发好的应用进行测试。在各种操作系统和移动设备中对开发好的应用进行测试时,测试人员需要先编写测试脚本,并基于测试脚本对各种操作系统和移动设备进行测试,以通过测试结果调整应用。由于需要对多个操作系统和移动设备中对开发好的应用进行测试,且测试脚本是由测试人员编写的,因此,通过人工的方式对应用的测试,会导致测试效率较低。
发明内容
有鉴于此,本发明实施例提供一种应用程序的测试方法及系统,以解决现有技术中应用的测试效率较低的问题。
为实现上述目的,本发明实施例提供如下技术方案:
本发明实施例第一方面公开了一种应用程序的测试方法,适用于应用程序的测试系统,所述应用程序的测试系统包括用户交互界面、多个流程自动化机器人RPA执行器和流程自动化机器人RPA集中控制器,所述用户交互界面与所述RPA集中控制器的一端连接,所述多个RPA执行器分别与所述RPA集中控制器的另一端连接,将每一RPA执行器设置在安装有待测试应用程序的操作系统和移动设备上,所述方法包括:
当所述RPA执行器接收到所述RPA集中控制器发送的测试指令时,获取待测试应用程序所处的测试场景,所述测试指令是测试人员通过所述用户交互界面发送至所述RPA集中控制器的,所述测试场景是指安装有所述待测试应用程序的操作系统或移动设备的类型;
所述RPA执行器基于所述测试场景,确定与所述测试场景对应的测试流程;
所述RPA执行器基于所述测试流程对所述待测试应用程序进行测试,得到测试数据,并将所述测试数据反馈给所述RPA集中控制器,所述测试数据包括所述待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG;
所述RPA集中控制器接收每一所述RPA执行器反馈的测试数据,并基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看所述测试数据比对报告和所述测试数据。
可选的,所述基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,包括:
基于每一所述响应时间计算所述响应时间的均值,并将所述响应时间的均值与预设标准响应时间进行比对,得到第一差值;
基于每一所述CPU使用率计算所述CPU使用率的均值,并将所述CPU使用率的均值与预设标准CPU使用率进行比对,得到第二差值;
基于每一所述内存使用率计算所述内存使用率的均值,并将所述内存使用率的均值与预设标准内存使用率进行比对,得到第三差值;
计算每一所述漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值;
将所述测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于所述测试数据比对报告和所述测试数据调节所述待测试应用程序的参数。
可选的,还包括:
所述RPA集中控制器获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据;
所述RPA集中控制器基于所述待测试应用程序的所有测试数据进行统计,生成统计报告;
所述RPA集中控制器根据所述统计报告,确定所述待测试应用程序的测试情况是否符合预设的测试要求。
可选的,所述RPA集中控制器基于所述待测试应用程序的所有测试数据进行统计,生成统计报告,包括:
将进行多次测试得到的测试数据中的响应时间,CPU使用率,内存使用率,和漏洞BUG分别进行统计,得到所述响应时间,CPU使用率,内存使用率,和漏洞BUG各自对应的统计表;
集合得到的各个统计表,生成统计报告。
本发明实施例第二方面公开了一种应用程序的测试系统,所述应用测试系统包括用户交互界面、多个机器人流程自动化RPA执行器和机器人流程自动化RPA集中控制器,所述用户交互界面与所述RPA集中控制器的一端连接,所述多个RPA执行器分别与所述RPA集中控制器的另一端连接,将每一RPA执行器设置在安装有待测试应用程序的操作系统和移动设备上;
所述用户交互界面,用于获取用户触发的测试指令,并发送给所述RPA集中控制器;
所述RPA执行器,用于基于所述RPA集中控制器接收到的测试指令,获取待测试应用程序所处的测试场景,所述测试场景是指安装有所述待测试应用程序的操作系统或移动设备的类型;基于所述测试场景,确定与所述测试场景对应的测试流程;基于所述测试流程进行对所述待测试应用程序测试得到测试数据,并将所述测试数据反馈给所述RPA集中控制器,所述测试数据包括所述待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG;
所述RPA集中控制器,用于接收每一所述RPA执行器反馈的测试数据,并基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节所述待测试应用程序的参数。
可选的,所述基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告的所述RPA集中控制器,具体用于:
基于每一所述响应时间计算所述响应时间的均值,并将所述响应时间的均值与预设标准响应时间进行比对,得到第一差值;基于每一所述CPU使用率计算所述CPU使用率的均值,并将所述CPU使用率的均值与预设标准CPU使用率进行比对,得到第二差值;基于每一所述内存使用率计算所述内存使用率的均值,并将所述内存使用率的均值与预设标准内存使用率进行比对,得到第三差值;计算每一所述漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值;将所述测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于所述测试数据比对报告和所述测试数据调节所述待测试应用程序的参数。
可选的,所述RPA集中控制器还用于:
获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据;基于所述待测试应用程序的所有测试数据进行统计,生成统计报告;及根据所述统计报告,确定所述待测试应用程序的测试情况是否符合预设的测试要求。
可选的,所述基于所述待测试应用程序的所有测试数据进行统计,生成统计报告的所述RPA集中控制器,具体用于:
将进行多次测试得到的测试数据中的响应时间,CPU使用率,内存使用率,和漏洞BUG分别进行统计,得到所述响应时间,CPU使用率,内存使用率和漏洞BUG各自对应的统计表;集合得到的各个统计表,生成统计报告。
可选的,所述RPA集中控制包括处理器和信息交互模块;
所述信息交互模块,用于接收每一所述RPA执行器反馈的测试数据;
所述处理器,用于基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节所述待测试应用程序的参数。
基于上述本发明实施例提供的一种应用程序的测试方法及系统,该方法包括:当RPA执行器接收到RPA集中控制器发送的测试指令时,获取待测试应用程序所处的测试场景,测试指令是测试人员通过所述用户交互界面发送至RPA集中控制器的,测试场景是指安装有待测试应用程序的操作系统或移动设备的类型;RPA执行器基于测试场景,确定与测试场景对应的测试流程;RPA执行器基于测试流程对待测试应用程序进行测试,得到测试数据,并将测试数据反馈给RPA集中控制器,测试数据包括待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG;RPA集中控制器接收每一RPA执行器反馈的测试数据,并基于每一RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看测试数据比对报告和测试数据。在本发明实施例中,不需要人工进行测试,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于每一RPA执行器反馈的测试数据生成测试数据比对报告。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种应用程序的测试系统的结构示意图;
图2为本发明实施例提供的另一种应用程序的测试系统的结构示意图;
图3为本发明实施例提供的一种应用程序的测试方法的流程示意图;
图4为本发明实施例提供的一种生成统计报告的的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在本发明实施例中,不需要人工进行测试,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于每一RPA执行器反馈的测试数据生成测试数据比对报告。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
参见图1,为本发明实施例公开的一种应用程序的测试系统的结构示意图,该应用程序的测试系统包括:用户交互界面10、多个机器人(Robotic Process Automation,RPA)机器人流程自动化执行器20和RPA集中控制器30。
用户交互界面10与RPA集中控制器30的一端连接。
RPA执行器20的数量为多个,其中RPA执行器20包括RPA执行器21,RPA执行器22......和RPA执行器2N共N个RPA执行器。
多个RPA执行器20分别与RPA集中控制器30的另一端连接,具体的,RPA执行器21,RPA执行器22......和RPA执行器2N分别与RPA集中控制器30的另一端连接。
将每一RPA执行器20设置在安装有待测试应用程序的操作系统和移动设备上。
具体的,每一安装有待测试应用程序的操作系统中均设置有一个RPA执行器20,且每一安装有待测试应用程序的移动设备中也都设置有一个RPA执行器20。
用户交互界面10,用于获取用户触发的测试指令,并发送给RPA集中控制器30。
在具体实现中,用户交互界面10接收测试人员触发的测试指令,并将待测试应用程序的测试指令发送给RPA集中控制器30,以便于RPA集中控制器30将测试指令发送指每一RPA执行器20。
RPA执行器20,用于基于RPA集中控制器30接收到的测试指令,获取待测试应用程序所处的测试场景;基于测试场景,确定与测试场景对应的测试流程;基于测试流程进行对待测试应用程序测试得到测试数据,并将测试数据反馈给RPA集中控制器30。
在具体实现中,RPA执行器20接收到RPA集中控制器30发送的测试指令时,获取待测试应用程序所处的测试场景。RPA执行器20基于测试场景,查找预先设置的测试流程数据库中与测试场景对应的测试流程。RPA执行器20执行测试流程,以对待测试应用程序进行测试,得到测试结果,即待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG等测试数据。再将测试数据反馈给RPA集中控制器30。
需要说明的是,测试场景是指安装有所述待测试应用程序的操作系统或移动设备的类型。测试数据包括待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG。
操作系统的类型包括IOS、Android、以及微软windows95等,移动设备的类型包括华为终端、小米终端以及平板IPAD终端等。
测试流程用于指示进行测试所需要的所有步骤。
测试流程数据库用于存储测试场景与测试流程之间的对应关系,具体的,测试人员预先对测试场景与测试流程进行配置,并将配置完成的测试场景与测试流程之间的对应关系预先存储至测试流程数据库。
RPA集中控制器30,用于接收每一RPA执行器20反馈的测试数据,并基于每一RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看测试数据比对报告和测试数据。
在具体实现中,RPA集中控制器30接收每一RPA执行器20反馈的测试数据,即对待测试应用程序进行一轮测试,得到的所有测试数据。再对所有测试数据进行分析,以生成测试数据比对报告,以便于测试人员能够及时、快速的了解待测试应用程序的开发情况,从而调节待测试应用程序的参数。
在本发明实施例中,不需要人工进行测试,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于每一RPA执行器反馈的测试数据生成测试数据比对报告。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
可选的,基于上述图1示出的应用程序的测试系统,本发明实施例在具体实现中,还公开了图1示出的RPA集中控制器30的具体结构,结合图1,参见图2。
RPA集中控制器30包括:信息交互模块31和处理器32。
信息交互模块31,用于接收每一RPA执行器反馈的测试数据。
在具体实现中,信息交互模块31接收每一RPA执行器20反馈的测试数据,即对待测试应用程序进行一轮测试,得到的所有测试数据。
处理器32,用于基于每一RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。
在具体实现中,处理器32对所有测试数据进行分析,以生成测试数据比对报告,以便于测试人员能够及时、快速的了解待测试应用程序的开发情况,从而调节待测试应用程序的参数。
在本发明实施例中,不需要人工进行测试,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于每一RPA执行器反馈的测试数据生成测试数据比对报告。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
可选的,基于上述图1示出的应用程序的测试系统,基于每一所述RPA执行器20反馈的测试数据生成测试数据比对报告的RPA集中控制器30,具体用于:
基于每一响应时间计算响应时间的均值,并将响应时间的均值与预设标准响应时间进行比对,得到第一差值;基于每一CPU使用率计算CPU使用率的均值,并将CPU使用率的均值与预设标准CPU使用率进行比对,得到第二差值;基于每一内存使用率计算所述内存使用率的均值,并将内存使用率的均值与预设标准内存使用率进行比对,得到第三差值;计算每一漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值;将测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。
在具体实现中,RPA集中控制器30中的处理器先计算每一RPA执行器反馈的测试数据中响应时间的均值,以计算响应时间的均值与预设标准响应时间的差,得到第一差值。再计算每一RPA执行器反馈的测试数据中CPU使用率的均值,以计算CPU使用率的均值与预设标准CPU使用率的差,得到第二差值。然后,计算每一RPA执行器反馈的测试数据中内存使用率的均值,以计算内存使用率的均值与预设标准内存使用率的差,得到第三差值。接着,统计每一RPA执行器反馈的测试数据中漏洞BUG的个数;以计算漏洞BUG的个数与预设标准漏洞BUG的个数进行对比,得到第四差值。最后,将响应时间,操作系统或移动设备内的CPU使用率和内存使用率,漏洞BUG个数,上述计算的到的第一差值、第二差值、第三差值和第四差值,以及每一测试数据的标准差值进行汇总生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。
需要说明的是,预设标准响应时间、预设标准CPU使用率、预设标准内存使用率、预设标准漏洞BUG的个数均是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。
每一测试数据的标准差值是指技术人员通过多个以测试发布的应用程序进行分析设置的。
在本发明实施例中,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于预设标准响应时间、预设标准CPU使用率、预设标准内存使用率、预设标准漏洞BUG分别进行计算,得到第一差值、第二差值、第三差值和第四差值。将测试数据,上述计算的到的第一差值、第二差值、第三差值和第四差值,以及每一测试数据的标准差值进行汇总生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
可选的,基于上述图1示出的应用程序的测试系统,RPA集中控制器30还用于:
获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据;基于待测试应用程序的所有测试数据进行统计,生成统计报告;及根据统计报告,确定待测试应用程序的测试情况是否符合预设的测试要求。
在具体实现中,RPA集中控制器30中的处理器32获取在预设时间段内至少进行2轮测试的测试应用程序所测试得到的所有测试数据。对待测试应用程序的所有测试数据进行统计处理,生成统计报告。分析每一待测试应用对应的统计报告,以基于每一类型的测试数据确定待测试应用程序各个方面的测试情况。再将待测试应用程序各个方面的测试情况与预设的测试要求进行对比,若一致,则说明待测试应用程序的测试情况符合预设的测试要求,应用程序的质量良好,停止对应用程序进行测试,可以发布该应用程序;若不一致,则说明待测试应用程序的测试情况不符合预设的测试要求,将继续对该应用程序进行测试,并基于测试数据和比对报告调节应用程序的参数。
需要说明的是,预设时间段是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。比如每月第一日至最后一日的时间。
预设的测试要求是软件开发之前,技术人员根据公司的要求进行设置的。
可选的,基于上述示出的应用程序的测试系统,基于所述待测试应用程序的所有测试数据进行统计,生成统计报告的RPA集中控制器30,具体用于:
将进行多次测试得到的测试数据中的响应时间,CPU使用率,内存使用率,和漏洞BUG分别进行统计,得到所述响应时间,CPU使用率,内存使用率,和漏洞BUG各自对应的统计表;集合得到的各个统计表,生成统计报告。
在具体实现中,RPA集中控制器30中的处理器32对进行多次测试得到的测试数据中的响应时间进行统计处理,以绘制响应时间对应的统计表;然后,对进行多次测试得到的测试数据中的CPU使用率进行统计处理,以绘制CPU使用率对应的统计表;再对进行多次测试得到的测试数据中的内存使用率进行统计处理,以绘制内存使用率对应的统计表;接着对进行多次测试得到的测试数据中的漏洞BUG进行统计处理,以绘制漏洞BUG对应的统计表。最后,将上述统计得到的响应时间对应的统计表、CPU使用率对应的统计表、内存使用率对应的统计表、以及漏洞BUG对应的统计表进行汇总,生成统计报告。
在本发明实施例中,RPA集中控制器在每一的预设的时间段内,均会对至少2次测试的待测试应用程序的所有测试数据进行统计处理,生成统计报告,以便于分析统计报告,确定应用程序的开发质量,从而能够及时、快速的了解应用程序的测试情况。
基于上述本发明实施例公开的应用程序的测试系统,本发明还对应公开了一种应用程序的测试方法,如图3所示,为本发明实施例示出的一种应用程序的测试方法的流程示意图,该应用程序的测试方法包括:
步骤S301:当RPA执行器接收到RPA集中控制器发送的测试指令时,基于测试指令,获取待测试应用程序所处的测试场景。
在步骤S301中,测试指令是测试人员通过用户交互界面发送至RPA集中控制器的,测试场景是指安装有待测试应用程序的操作系统或移动设备的类型。
可选的,测试人员通过用户交互界面触发待测试应用程序的测试指令,用户交互界面将待测试应用程序的测试指令发送给RPA集中控制器,RPA集中控制器再将测试指令发送给所有安装有待测试应用程序的操作系统和移动设备。其中,每一操作系统或移动设备上均设置有一个RPA执行器。
在具体实现步骤S301的过程中,RPA执行器接收到RPA集中控制器发送的测试指令时,获取待测试应用程序所处的测试场景。
需要说明的是,操作系统的类型包括IOS、Android、以及微软windows95等,移动设备的类型包括华为终端、小米终端以及平板IPAD终端等。
步骤S302:RPA执行器基于测试场景,确定与测试场景对应的测试流程。
在具体实现步骤S302的过程中,RPA执行器基于测试场景,查找预先设置的测试流程数据库中与测试场景对应的测试流程。
需要说明的是,测试流程用于指示进行测试所需要的所有步骤。
测试流程数据库用于存储测试场景与测试流程之间的对应关系,具体的,测试人员预先对测试场景与测试流程进行配置,并将配置完成的测试场景与测试流程之间的对应关系预先存储至测试流程数据库。
步骤S303:RPA执行器基于测试流程对待测试应用程序进行测试,得到测试数据,并将测试数据反馈给RPA集中控制器。
在步骤S303中,测试数据至少包括待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG。
在具体实现步骤S303的过程中,RPA执行器执行测试流程,以对待测试应用程序进行测试,得到测试结果,即待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG等测试数据。再将测试数据反馈给RPA集中控制器。
步骤S304:RPA集中控制器接收每一RPA执行器反馈的测试数据,并基于每一RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看测试数据比对报告和测试数据。
在具体实现步骤S304的过程中,RPA集中控制器接收每一RPA执行器反馈的测试数据,即对待测试应用程序进行一轮测试,得到的所有测试数据。再对所有测试数据进行分析,以生成测试数据比对报告,以便于测试人员能够及时、快速的了解待测试应用程序的开发情况,从而调节待测试应用程序的参数。
在本发明实施例中,不需要人工进行测试,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于每一RPA执行器反馈的测试数据生成测试数据比对报告。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
基于上述本发明实施例示出的应用程序的测试方法,在执行步骤S304基于每一RPA执行器反馈的测试数据生成测试数据比对报告的过程,包括以下步骤:
步骤S11:基于每一响应时间计算响应时间的均值,并将响应时间的均值与预设标准响应时间进行比对,得到第一差值。
在具体实现步骤S11的过程中,先计算每一RPA执行器反馈的测试数据中响应时间的均值;再计算响应时间的均值与预设标准响应时间的差,得到第一差值。
需要说明的是,预设标准响应时间是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。
步骤S12:基于每一CPU使用率计算CPU使用率的均值,并将CPU使用率与预设标准CPU使用率进行比对,得到第二差值。
在具体实现步骤S12的过程中,先计算每一RPA执行器反馈的测试数据中CPU使用率的均值;再计算CPU使用率的均值与预设标准CPU使用率的差,得到第二差值。
需要说明的是,预设标准CPU使用率是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。
步骤S13:基于每一内存使用率计算内存使用率的均值,并将内存使用率的均值与预设标准内存使用率进行比对,得到第三差值。
在具体实现步骤S13的过程中,先计算每一RPA执行器反馈的测试数据中内存使用率的均值;再计算内存使用率的均值与预设标准内存使用率的差,得到第三差值。
需要说明的是,预设标准内存使用率是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。
步骤S14:计算每一漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值。
在具体实现步骤S14的过程中,统计每一RPA执行器反馈的测试数据中漏洞BUG的个数;再计算漏洞BUG的个数与预设标准漏洞BUG的个数进行对比,得到第四差值。
需要说明的是,预设标准漏洞BUG的个数是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。
在本发明实施例中,测试数据不仅限于上述示出的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG个数,还可以是其他能够了解待测试应用程序开发性能的测试数据,对此本发明实施例不加以限制。
步骤S15:将测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。
在具体实现步骤S15的过程中,将响应时间,操作系统或移动设备内的CPU使用率和内存使用率,漏洞BUG个数,上述计算的到的第一差值、第二差值、第三差值和第四差值,以及每一测试数据的标准差值进行汇总生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。
需要说明的是,每一测试数据的标准差值是指技术人员通过多个以测试发布的应用程序进行分析设置的。
在本发明实施例中,RPA执行器可以通过测试场景确定对应测试流程,并执行测试流程得到测试数据,以控制多个RPA执行器对应用程序进行测试处理,以便于RPA集中控制器基于预设标准响应时间、预设标准CPU使用率、预设标准内存使用率、预设标准漏洞BUG分别进行计算,得到第一差值、第二差值、第三差值和第四差值。将测试数据,上述计算的到的第一差值、第二差值、第三差值和第四差值,以及每一测试数据的标准差值进行汇总生成测试数据比对报告,以便于测试人员基于测试数据比对报告和测试数据调节待测试应用程序的参数。从而提高应用程序的测试效率,以使得测试人员能够及时、快速的了解应用程序的测试情况。
基于上述本发明实施例图3示出的应用程序的测试方法,在基于每一RPA执行器反馈的测试数据生成测试数据比对报告之后,还示出了RPA集中控制器生成统计报告的过程,如图4所示。
步骤S401:RPA集中控制器获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据。
在具体实现步骤S401的过程中,为了更好的分析和了解待测试应用程序的开发质量。RPA集中控制器获取在预设时间段内至少进行2轮测试的测试应用程序所测试得到的所有测试数据。
需要说明的是,预设时间段是根据多次实验进行设置的,也可以是本领域技术人员根据经验进行设置的,对此本发明实施例不加以限制。比如每月第一日至最后一日的时间。
步骤S402:RPA集中控制器基于待测试应用程序的所有测试数据进行统计,生成统计报告。
需要说明的是,在具体实现步骤S402的过程中,包括以下步骤:
步骤S21:将进行多次测试得到的测试数据中的响应时间,CPU使用率,内存使用率,漏洞BUG分别进行统计,得到响应时间,CPU使用率,内存使用率和漏洞BUG各自对应的统计表。
在具体实现步骤S21的过程中,对进行多次测试得到的测试数据中的响应时间进行统计处理,并基于统计处理结果绘制响应时间对应的统计表;对进行多次测试得到的测试数据中的CPU使用率进行统计处理,并基于统计处理结果绘制CPU使用率对应的统计表;对进行多次测试得到的测试数据中的内存使用率进行统计处理,并基于统计处理结果绘制内存使用率对应的统计表;对进行多次测试得到的测试数据中的漏洞BUG进行统计处理,并基于统计处理结果绘制漏洞BUG对应的统计表。
步骤S22:集合得到的各个统计表,生成统计报告。
在具体实现步骤S22的过程中,将上述统计得到的响应时间对应的统计表、CPU使用率对应的统计表、内存使用率对应的统计表、以及漏洞BUG对应的统计表进行汇总,生成统计报告。
步骤S403:RPA集中控制器根据统计报告,确定待测试应用程序的测试情况是否符合预设的测试要求。
在具体实现步骤S403的过程中,RPA集中控制器分析每一待测试应用对应的统计报告,以基于每一类型的测试数据确定待测试应用程序各个方面的测试情况。再将待测试应用程序各个方面的测试情况与预设的测试要求进行对比,若一致,则说明待测试应用程序的测试情况符合预设的测试要求,应用程序的质量良好,停止对应用程序进行测试,可以发布该应用程序;若不一致,则说明待测试应用程序的测试情况不符合预设的测试要求,将继续对该应用程序进行测试,并基于测试数据和比对报告调节应用程序的参数。
需要说明的是,预设的测试要求是软件开发之前,技术人员根据公司的要求进行设置的。
在本发明实施例中,RPA集中控制器在每一的预设的时间段内,均会对至少2次测试的待测试应用程序的所有测试数据进行统计处理,生成统计报告,以便于分析统计报告,确定应用程序的开发质量,从而能够及时、快速的了解应用程序的测试情况。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种应用程序的测试方法,其特征在于,适用于应用程序的测试系统,所述应用程序的测试系统包括用户交互界面、多个流程自动化机器人RPA执行器和流程自动化机器人RPA集中控制器,所述用户交互界面与所述RPA集中控制器的一端连接,所述多个RPA执行器分别与所述RPA集中控制器的另一端连接,将每一RPA执行器设置在安装有待测试应用程序的操作系统和移动设备上,所述方法包括:
当所述RPA执行器接收到所述RPA集中控制器发送的测试指令时,获取待测试应用程序所处的测试场景,所述测试指令是测试人员通过所述用户交互界面发送至所述RPA集中控制器的,所述测试场景是指安装有所述待测试应用程序的操作系统或移动设备的类型;
所述RPA执行器基于所述测试场景,确定与所述测试场景对应的测试流程;
所述RPA执行器基于所述测试流程对所述待测试应用程序进行测试,得到测试数据,并将所述测试数据反馈给所述RPA集中控制器,所述测试数据包括所述待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG;
所述RPA集中控制器接收每一所述RPA执行器反馈的测试数据,并基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看所述测试数据比对报告和所述测试数据。
2.根据权利要求1所述的方法,其特征在于,所述基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,包括:
基于每一所述响应时间计算所述响应时间的均值,并将所述响应时间的均值与预设标准响应时间进行比对,得到第一差值;
基于每一所述CPU使用率计算所述CPU使用率的均值,并将所述CPU使用率的均值与预设标准CPU使用率进行比对,得到第二差值;
基于每一所述内存使用率计算所述内存使用率的均值,并将所述内存使用率的均值与预设标准内存使用率进行比对,得到第三差值;
计算每一所述漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值;
将所述测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于所述测试数据比对报告和所述测试数据调节所述待测试应用程序的参数。
3.根据权利要求1所述的方法,其特征在于,还包括:
所述RPA集中控制器获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据;
所述RPA集中控制器基于所述待测试应用程序的所有测试数据进行统计,生成统计报告;
所述RPA集中控制器根据所述统计报告,确定所述待测试应用程序的测试情况是否符合预设的测试要求。
4.根据权利要求3所述的方法,其特征在于,所述RPA集中控制器基于所述待测试应用程序的所有测试数据进行统计,生成统计报告,包括:
将进行多次测试得到的所述测试数据中的响应时间,CPU使用率,内存使用率,和漏洞BUG分别进行统计,得到所述响应时间,CPU使用率,内存使用率,和漏洞BUG各自对应的统计表;
集合得到的各个统计表,生成统计报告。
5.一种应用程序的测试系统,其特征在于,所述应用测试的测试系统包括用户交互界面、多个机器人流程自动化RPA执行器和机器人流程自动化RPA集中控制器,所述用户交互界面与所述RPA集中控制器的一端连接,所述多个RPA执行器分别与所述RPA集中控制器的另一端连接,将每一RPA执行器设置在安装有待测试应用程序的操作系统和移动设备上;
所述用户交互界面,用于获取用户触发的测试指令,并发送至所述RPA集中控制器;
所述RPA执行器,用于基于所述RPA集中控制器接收到的测试指令,获取待测试应用程序所处的测试场景,所述测试场景是指安装有所述待测试应用程序的操作系统或移动设备的类型;基于所述测试场景,确定与所述测试场景对应的测试流程;基于所述测试流程进行对所述待测试应用程序测试得到测试数据,并将所述测试数据反馈给所述RPA集中控制器,所述测试数据包括所述待测试应用程序的响应时间,操作系统或移动设备内的CPU使用率和内存使用率,以及漏洞BUG;
所述RPA集中控制器,用于接收每一所述RPA执行器反馈的测试数据,并基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员查看所述测试数据比对报告和所述测试数据。
6.根据权利要求5所述的系统,其特征在于,所述基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告的所述RPA集中控制器,具体用于:
基于每一所述响应时间计算所述响应时间的均值,并将所述响应时间的均值与预设标准响应时间进行比对,得到第一差值;基于每一所述CPU使用率计算所述CPU使用率的均值,并将所述CPU使用率的均值与预设标准CPU使用率进行比对,得到第二差值;基于每一所述内存使用率计算所述内存使用率的均值,并将所述内存使用率的均值与预设标准内存使用率进行比对,得到第三差值;计算每一所述漏洞BUG的个数,并与预设标准漏洞BUG的个数进行对比,得到第四差值;将所述测试数据、第一差值、第二差值、第三差值、第四差值,以及每一测试数据的标准差值打包生成测试数据比对报告,以便于测试人员基于所述测试数据比对报告和所述测试数据调节所述待测试应用程序的参数。
7.根据权利要求5所述的系统,其特征在于,所述RPA集中控制器还用于:
获取在预设时间段内进行至少2次测试的待测试应用程序的所有测试数据;基于所述待测试应用程序的所有测试数据进行统计,生成统计报告;及根据所述统计报告,确定所述待测试应用程序的测试情况是否符合预设的测试要求。
8.根据权利要求7所述的系统,其特征在于,所述基于所述待测试应用程序的所有测试数据进行统计,生成统计报告的所述RPA集中控制器,具体用于:
将进行多次测试得到的测试数据中的响应时间,CPU使用率,内存使用率,和漏洞BUG分别进行统计,得到所述响应时间,CPU使用率,内存使用率和漏洞BUG各自对应的统计表;集合得到的各个统计表,生成统计报告。
9.根据权利要求5所述的系统,其特征在于,所述RPA集中控制包括处理器和信息交互模块;
所述信息交互模块,用于接收每一所述RPA执行器反馈的测试数据;
所述处理器,用于基于每一所述RPA执行器反馈的测试数据生成测试数据比对报告,以便于测试人员基于所述测试数据比对报告和所述测试数据调节所述待测试应用程序的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011057527.XA CN112131129B (zh) | 2020-09-29 | 2020-09-29 | 一种应用程序的测试方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011057527.XA CN112131129B (zh) | 2020-09-29 | 2020-09-29 | 一种应用程序的测试方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112131129A true CN112131129A (zh) | 2020-12-25 |
CN112131129B CN112131129B (zh) | 2023-09-08 |
Family
ID=73843392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011057527.XA Active CN112131129B (zh) | 2020-09-29 | 2020-09-29 | 一种应用程序的测试方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112131129B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113156295A (zh) * | 2021-03-23 | 2021-07-23 | 中国电力科学研究院有限公司 | 一种适用于电力安全芯片响应时间的测试方法及系统 |
CN113420189A (zh) * | 2021-08-20 | 2021-09-21 | 达而观科技(北京)有限公司 | 一种基于RPA的智能终端安卓App控制方法及系统 |
CN114679402A (zh) * | 2022-03-25 | 2022-06-28 | 武汉联影智融医疗科技有限公司 | 一种医疗机器人上下位机间通信协议的测试方法及装置 |
WO2023124241A1 (zh) * | 2021-12-27 | 2023-07-06 | 中兴通讯股份有限公司 | 业务测试方法、服务器、终端设备及存储介质 |
CN114679402B (zh) * | 2022-03-25 | 2024-05-14 | 武汉联影智融医疗科技有限公司 | 一种医疗机器人上下位机间通信协议的测试方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425574A (zh) * | 2012-05-25 | 2013-12-04 | 腾讯科技(深圳)有限公司 | 一种测试应用程序的方法及装置 |
US20160062879A1 (en) * | 2014-08-29 | 2016-03-03 | International Business Machines Corporation | Testing a mobile application |
CN105975394A (zh) * | 2016-05-06 | 2016-09-28 | 华为技术有限公司 | 一种程序测试方法及装置 |
CN106227664A (zh) * | 2016-07-22 | 2016-12-14 | 华为技术有限公司 | 一种测试应用程序的方法及装置 |
CN111159023A (zh) * | 2019-12-20 | 2020-05-15 | 中国建设银行股份有限公司 | 测试方法、装置、电子设备及计算机可读存储介质 |
CN111427803A (zh) * | 2020-06-11 | 2020-07-17 | 平安国际智慧城市科技股份有限公司 | 自动化随机测试方法、装置、计算机设备及介质 |
-
2020
- 2020-09-29 CN CN202011057527.XA patent/CN112131129B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425574A (zh) * | 2012-05-25 | 2013-12-04 | 腾讯科技(深圳)有限公司 | 一种测试应用程序的方法及装置 |
US20160062879A1 (en) * | 2014-08-29 | 2016-03-03 | International Business Machines Corporation | Testing a mobile application |
CN105975394A (zh) * | 2016-05-06 | 2016-09-28 | 华为技术有限公司 | 一种程序测试方法及装置 |
CN106227664A (zh) * | 2016-07-22 | 2016-12-14 | 华为技术有限公司 | 一种测试应用程序的方法及装置 |
CN111159023A (zh) * | 2019-12-20 | 2020-05-15 | 中国建设银行股份有限公司 | 测试方法、装置、电子设备及计算机可读存储介质 |
CN111427803A (zh) * | 2020-06-11 | 2020-07-17 | 平安国际智慧城市科技股份有限公司 | 自动化随机测试方法、装置、计算机设备及介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113156295A (zh) * | 2021-03-23 | 2021-07-23 | 中国电力科学研究院有限公司 | 一种适用于电力安全芯片响应时间的测试方法及系统 |
CN113156295B (zh) * | 2021-03-23 | 2024-03-19 | 中国电力科学研究院有限公司 | 一种适用于电力安全芯片响应时间的测试方法及系统 |
CN113420189A (zh) * | 2021-08-20 | 2021-09-21 | 达而观科技(北京)有限公司 | 一种基于RPA的智能终端安卓App控制方法及系统 |
WO2023124241A1 (zh) * | 2021-12-27 | 2023-07-06 | 中兴通讯股份有限公司 | 业务测试方法、服务器、终端设备及存储介质 |
CN114679402A (zh) * | 2022-03-25 | 2022-06-28 | 武汉联影智融医疗科技有限公司 | 一种医疗机器人上下位机间通信协议的测试方法及装置 |
CN114679402B (zh) * | 2022-03-25 | 2024-05-14 | 武汉联影智融医疗科技有限公司 | 一种医疗机器人上下位机间通信协议的测试方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112131129B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112131129A (zh) | 一种应用程序的测试方法及系统 | |
CN111600781B (zh) | 一种基于测试仪的防火墙系统稳定性测试方法 | |
US9774407B2 (en) | Apparatus and method for non-determinative testing using unscripted communications between a network simulator and an equipment under test | |
US9569325B2 (en) | Method and system for automated test and result comparison | |
CN108733569B (zh) | 一种接口自动化测试方法、装置、存储介质及设备 | |
CN109633351B (zh) | 智能it运维故障定位方法、装置、设备及可读存储介质 | |
CN101576844A (zh) | 软件系统性能测试方法和系统 | |
CN106886493B (zh) | 一种自动化测试系统的建立方法与装置 | |
CN108683563B (zh) | 一种分布式准入性能测试方法、装置及系统 | |
WO2021139103A1 (zh) | 加压参数自适应调节方法、装置、计算机设备及存储介质 | |
CN106095682A (zh) | 一种模拟复杂网络的安卓应用稳定性测试方法 | |
CN109471763B (zh) | 抓取NVME硬盘trace的方法、装置、设备及系统 | |
CN106294097B (zh) | 一种应用程序测试方法及设备 | |
KR101792864B1 (ko) | 애플리케이션 검증 시스템 및 방법 | |
CN112911283A (zh) | 智能电视测试方法及装置 | |
CN106933694B (zh) | 应用程序错误定位方法及装置 | |
CN103577290A (zh) | 一种测试脚本的回放节奏控制方法及系统 | |
CN113722240B (zh) | 一种linux操作系统管理平台的稳定性测试方法及系统 | |
CN107231268B (zh) | 测试网站性能的方法和装置 | |
CN111723017A (zh) | 系统容量测试方法、装置、计算机设备及存储介质 | |
CN110297754A (zh) | 一种测试信息反馈方法及系统 | |
CN110489201B (zh) | 容器性能测试装置及方法 | |
CN111722997B (zh) | 自动化测试的异常检测方法及计算机可读存储介质 | |
CN107453944B (zh) | 一种确定网络吞吐量测试的最优测试连接数的方法及系统 | |
CN112131127A (zh) | 接口测试方法、装置、系统及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |