CN109376083A - 测试处理方法和装置 - Google Patents
测试处理方法和装置 Download PDFInfo
- Publication number
- CN109376083A CN109376083A CN201811145262.1A CN201811145262A CN109376083A CN 109376083 A CN109376083 A CN 109376083A CN 201811145262 A CN201811145262 A CN 201811145262A CN 109376083 A CN109376083 A CN 109376083A
- Authority
- CN
- China
- Prior art keywords
- test
- test result
- parameter
- data
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3696—Methods or tools to render software testable
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Stored Programmes (AREA)
Abstract
本公开提供了一种测试处理方法,包括:基于本地测试框架进行测试,得到第一类测试结果参数;基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中;接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数;基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。本公开还提供了一种测试处理装置、一种计算机设备以及一种计算机可读存储介质。
Description
技术领域
本公开涉及计算机技术领域,更具体地,涉及一种测试处理方法和装置。
背景技术
目前自动化测试方式多种多样,可以使用不同语言如java、python等,可以使用不同的测试框架如Fitnesse、TestNG、Unittest等。不同的测试平台在测试过程中,可以根据运营人员各自对语言以及测试框架的熟悉程度采用不同的自动化测试框架来进行测试,由于不同的测试框架采用不同的方式来呈现测试用例以及测试结果,导致测试结果数据分散独立、不能共享,给不同测试平台的自动化测试协作带来了困难。
发明内容
有鉴于此,本公开提供了一种能够兼容多个平台、多种测试框架的测试处理方法和装置。
本公开的一个方面提供了一种测试处理方法,包括:基于本地测试框架进行测试,得到第一类测试结果参数;基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中;接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数;基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。
根据本公开的实施例,任一第一类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第二类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果。上述方法还包括:根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中。
根据本公开的实施例,第一类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态。第二类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态。基于第一类测试结果参数构建第一预定格式的测试结果数据包括:将第一类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。基于第二类测试结果参数构建第一预定格式的测试结果数据包括:将第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
根据本公开的实施例,上述根据对应于同一次测试的各测试结果数据,得到对应于该同一次测试的第二预定格式的测试结果统计数据包括:对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。
根据本公开的实施例,基于第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格。基于第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格。得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:将所述测试结果统计数据存入数据库中的第二表格。
根据本公开的实施例,上述方法还包括:响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。
本公开的另一个方面提供了一种测试处理装置,包括:测试模块、第一统配模块和接收模块。测试模块用于基于本地测试框架进行测试,得到第一类测试结果参数。第一统配模块用于基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中。接收模块,用于接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数。第一统配模块还用于基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。
根据本公开的实施例,任一第一类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第二类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果。上述装置还包括第二统配模块,用于根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中。
根据本公开的实施例,第一类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态。第二类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态。第一统配模块基于第一类测试结果参数构建第一预定格式的测试结果数据包括:第一统配模块用于将所述第一类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。第一统配模块基于第二类测试结果参数构建第一预定格式的测试结果数据包括:第一统配模块用于将第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
根据本公开的实施例,第二统配模块根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据包括:第二统配模块用于对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。
根据本公开的实施例,第一统配模块基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:第一统配模块用于将所述测试结果数据存入数据库中的第一表格。第一统配模块基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:第一统配模块用于将所述测试结果数据存入数据库中的第一表格。第二统配模块得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:第二统配模块用于将所述测试结果统计数据存入数据库中的第二表格。
根据本公开的实施例,上述装置还包括展示模块,用于响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。
本公开的另一方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,可以至少部分地解决/减轻/抑制/甚至避免各测试平台的测试结果相互之间分散独立无法共享的问题,并因此可以实现兼容不同平台、不同测试框架的测试结果,进行统一的整合,便于后续的统一展示和处理的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用测试处理方法和装置的示例性系统架构;
图2示意性示出了根据本公开的实施例的测试处理方法的流程图;
图3A示意性示出了根据本公开的实施例的应用测试处理方法的系统架构图;
图3B示意性示出了根据本公开的实施例的测试处理方法的过程示意图;
图3C示意性示出了根据本公开的实施例的测试结果统计数据的饼图;
图3D示意性示出了根据本公开的实施例的测试结果统计数据的柱状图;
图3E示意性示出了根据本公开的另一个实施例的测试处理方法的用户管理权限示意图;
图3F示意性示出了根据本公开的实施例的测试处理方法的框架流程图;
图4示意性示出了根据本公开的实施例的测试处理装置的框图;
图5示意性示出了根据本公开的另一个实施例的测试处理装置的框图;
图6示意性示出了根据本公开的另一个实施例的测试处理装置的框图;以及
图7示意性示出了根据本公开实施例的计算机设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
本公开的实施例提供了一种测试处理方法以及能够应用该方法的装置。该方法包括本地测试过程和统配整合过程,在本地测试过程中基于本地的测试框架进行测试得到本地测试结果参数,称作第一类测试结果参数,在统配整合过程包括对第一类测试结果参数的处理和入库,还包括获取跨平台、跨测试框架的第二类测试结果参数并进行处理和入库,无论是本地的第一类测试结果参数还是跨平台跨测试框架的第二类测试结果,均被整合为相同格式的测试结果数据保存于数据库中。
图1示意性示出了根据本公开实施例的可以应用测试处理方法和装置的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括多个电子设备(101~107)。电子设备(101~107)可以是个人电脑(personal computer,
PC)、网络服务器、数据库服务器等。电子设备(101~107)中的每一个电子设备可以具有相同或不同的计算能力。
作为一种实施方式,多个电子设备(101~107)之间可以通过网络相互通信,网络用以在多个电子设备(101~107)之间提供通信链路的介质,网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
需要说明的是,多个电子设备(101~107)均可以作为测试平台基于各种类型的测试框架进行测试得到测试结果参数,此外,从多个电子设备(101~107)选出一个电子设备101,该电子设备101可以为单一设备或者为多个设备组成的集群,在选出的电子设备101中可以执行本公开实施例所提供的测试处理方法,即对于本地测试得到的测试结果参数以及其他电子设备测试得到的测试结果参数均构建为相同格式的测试结果数据并存入数据库中,实现跨平台跨、测试框架的测试结果的统一整合。
应该理解,图1中的电子设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的电子设备。
图2示意性示出了根据本公开的实施例的测试处理方法的流程图。
如图2所示,该方法包括在操作S201,基于本地测试框架进行测试,得到第一类测试结果参数。
本操作中,第一类测试结果参数表示当前测试平台本地执行的测试对应的测试结果参数。
然后,在操作S202,基于第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中。
在操作S203,接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数。
本操作中,其他测试平台所使用的测试框架可能与本地测试框架相同也可能与本地测试框架不同,则第二类测试结果参数表示其他测试平台基于各自的测试框架进行测试得到的相对于当前测试平台来说跨平台、跨测试框架的测试结果参数。
在操作S204,基于第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中。
其中,上述操作的执行顺序可以根据实际情形变化,在每次本地测试结束后可获得第一类测试结果参数,然后可执行操作S202,基于第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中,其他测试平台在每次测试结束后可将第二类测试结果参数发送至本测试平台,本测试平台在获得第二类测试结果参数后即执行操作S204,基于第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。基于第一类测试结果参数构建的测试结果数据与基于第二类测试结果参数构建的测试结果数据格式相同,被作为相同类型的数据一致地存于数据库中,即完成不同平台、不同框架的测试结果的整合。
可见,图2所示的方法无论对于本地测试生成的测试结果还是其他测试平台其他测试框架生成的测试结果,均可处理为统一格式的测试结果数据并存储,相比于现有技术中各测试平台相互独立的方案,本方案兼容不同平台、不同测试框架的测试结果,进行统一的整合,便于后续的统一展示和处理。
通常情况下,测试平台对于测试对象的每次测试需要利用多个测试用例分别对测试对象进行测试,例如,对测试对象A进行一次测试a,本次测试a包括测试用例a1、测试用例a2和测试用例a3,则在本次测试a中,利用测试用例al、测试用例a2和测试用例a3分别对测试对象A进行三个子测试,三个子测试共同构成本次测试a。对测试对象B进行一次测试b,本次测试b包括测试用例b1和测试用例b2,则在本次测试b中,利用测试用例b1和测试用例b2分别对测试对象B进行两个子测试,两个子测试共同构成本次测试b。在本公开的实施例中,一条第一类测试结果参数是指一次测试中的一个测试用例对应的测试结果参数,一条第二类测试结果参数是指一次测试中的一个测试用例对应的测试结果参数,则一条第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果。
沿用上文中的例子,本测试平台基于一种测试框架对测试对象A进行测试a,利用测试用例a1对测试对象A进行测试得到一条第一类测试结果参数f(a,a1),基于该条第一类测试结果参数f(a,a1)构建出相应的第一预定格式的测试结果数据F(f(a,a1));利用测试用例a2对测试对象A进行测试得到一条第一类测试结果参数f(a,a2),基于该条第一类测试结果参数f(a,a2)构建出相应的第一预定格式的测试结果数据F(f(a,a2));利用测试用例a3对测试对象A进行测试得到一条第一类测试结果参数f(a,a3),基于该条第一类测试结果参数f(a,a3)构建出相应的第一预定格式的测试结果数据F(f(a,a3))。以及,另一个测试平台基于另一种测试框架对测试对象B进行测试b,利用测试用例b1对测试对象B进行测试得到一条第二类测试结果参数g(b,b1),将该条第二类测试结果参数g(b,b1)发送至本测试平台,基于该条第二类测试结果参数g(b,b1)构建出相应的第一预定格式的测试结果数据F(g(b,b1));利用测试用例b2对测试对象B进行测试得到一条第二类测试结果数据g(b,b2),将该条第二类测试结果参数g(b,b2)发送至本测试平台,基于该条第二类测试结果参数g(b,b1)构建出相应的第一预定格式的测试结果数据F(g(b,b2))。
在此基础上,进一步地,作为一个可选的实施例,图2所示的方法还包括:根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中。
依然沿用上文中的例子,测试结果数据F(f(a,a1))、F(f(a,a2))和F(f(a,a3))对应于关于测试对象A的同一次测试a,则根据这三个测试结果数据可以得到对应于测试a的第二预定格式的测试结果统计数据并并存入所述数据库中。以及,测试结果数据F(g(b,b1))和F(g(b,b2))对应于关于测试对象B的同一次测试b,则根据这两个测试结果数据可以得到对应于测试b的第二预定格式的测试结果统计数据并并存入所述数据库中。在基于第一类测试结果参数构建的测试结果数据的基础上得到的测试结果统计数据与在基于第二类测试结果参数构建的测试结果数据的基础上得到的测试结果统计数据格式相同,被作为相同类型的数据一致地存于数据库中,即从另一维度完成不同平台、不同框架的测试结果的整合。
可见,在整合各不同平台、不同框架的测试结果数据的基础上,进一步统计得到测试结果统计数据,能够更清晰、全面地展示不同平台、不同框架所执行的各次测试的总的结果,具有更高的参考价值。当然,在其他实施例中,一条第一类测试结果参数可以是指一次测试对应的总的测试结果参数,一条第二类测试结果参数是指一次测试对应的总的测试结果参数,总的测试结果参数中既可以包括上述一次测试中各测试用例对应的测试结果参数,也可以包括一次测试对应的各测试用户对应的测试结果参数的统计结果,则一条第一预定格式的测试结果数据用于表征一次测试对应的测试结果及统计测试结果,这样的情况下,就无需执行上述基于测试结果数据得到测试结果统计数据的操作过程了。
上文中的实施例提到一条第一类测试结果参数是指一次测试中的一个测试用例对应的测试结果参数,一条第二类测试结果参数是指一次测试中的一个测试用例对应的测试结果参数,则一条第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果,更为具体地,作为一个可选的实施例,一条第一类测试结果参数可以包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态,则图2所示方法的操作S202基于所述第一类测试结果参数构建第一预定格式的测试结果数据包括:将所述第一类测试结果参数中的各项子参数按照第一预定顺序依次拼接构成所述测试结果数据。
同理,一条第二类测试结果参数可以包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态,则图2所示方法的操作S204基于第二类测试结果参数构建第一预定格式的测试结果数据包括:将所述第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
其中,一条测试结果参数中的项目信息表示该条测试结果参数所对应的测试所属的项目的相关信息,如项目名称、项目编号、项目标识等,时间信息表示该条测试结果参数所对应的测试时间,测试用例信息表示该条测试结果参数所对应的测试用例的相关信启、,如测试用例名称、测试用例编号、测试用例标识等,测试对象信息表示该条测试结果参数所对应的被测对象的相关信息,如被测对象的接口信息、索引信息等,本次测试标识表示该条测试结果参数所对应的本次测试的唯一标识,例如可以通过项目信息和时间信息共同构成,测试输入参数表示利用当前测试用例对测试对象进行测试时所输入的参数,测试输出参数表示利用当前测试用例对测试对象进行测试时输出的参数,测试结果状态表示利用当前测试用例对测试对象进行测试的结果是成功还是失败。在此基础上,整合后的测试结果数据包括按照第一预定顺序组成的上述一项或多项子参数,能够从多个维度、全面地描述各测试平台、各测试框架所进行的每一次测试中的每一个测试用例对应的测试结果。
在此基础上,在本公开的一个实施例中,上述根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据包括:对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。本实施例是按照测试标识归一化地进行统计得到统计子参数,在其他实施例中,也可以按照其他参数归一化地进行统计得到统计子参数,如对带有相同的项目信息的测试结果数据中的各项子参数进行统计得到相应的统计子参数,在此不做限制。
依然沿用上文中的例子,设测试结果数据F(f(a,a1))={测试标识=a,测试对象=A,测试用例标识=a1,测试结果状态=“成功”},测试结果数据F(f(a,a2))={测试标识=a,测试对象=A,测试用例标识=a2,测试结果状态=“成功”},测试结果数据F(f(a,a3))={测试标识=a,测试对象=A,测试用例标识=a3,测试结果状态=“失败”},这三个测试结果数据都带有测试标识a,即均对应于测试a,则根据这三个测试结果数据可以得到测试标识为a,执行测试用例数为3,失败测试用例数为1,成功测试用例数为2,测试成功率2/3,测试失败率为1/3。即根据属于同一次测试的各测试结果数据中所包含的子参数,可以分别计算出相应的统计子参数,各统计子参数按照第二预定顺序组成该次测试对应的测试结果统计数据,从统计的角度整体描述每次测试的结果,更为立体、形象地描述了测试对象的性能。
在本公开的一个实施例中,图2所示方法的操作S202基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格。图2所示方法的操作S204基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格。以及上述得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:将所述测试结果统计数据存入数据库中的第二表格。
可见,本公开实施例将来自不同测试平台、不同测试框架的测试结果对应的测试结果数据均统一、一致地存入数据库的第一表格中,将来自不同平台、不同测试框架的测试对应的测试结果统计数据均统一、一致地存入数据库的第二表格中,使得各不同测试平台、测试框架的测试人员能够共享这两种类型的测试数据,便于自动化测试的交互和协作。
进一步地,图2所示的方法还包括:响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。具体地,在展示测试结果数据时,可以展示各测试结果数据的各项子参数,也可以将用户输入的信息作为索引筛选出相应的测试结果数据并展示其各项子参数,在展示测试结果统计数据时,可以展示各测试结果数据的各项子参数,也可以将用户输入的信息作为索引筛选出相应的测试结果数据并展示其各项统计子参数,并且,在展示各项统计子参数时,可以以各种统计图标的形式进行展示,以方便用户的查看和分析。
下面参考图3A~图3F,结合具体实施例对图2所示的方法做进一步说明。
本公开实施例所提供的方案中的本测试平台不仅具有测试功能,还具有将不同来源的测试结果进行统一整合展示的功能,而其他测试平台仅具有测试功能,对于本测试平台所执行的测试处理方案来说,功能上主要由三部分组成,自动化测试执行、跨平台、跨测试框架的测试结果整合以及前端页面展示,自动化测试执行与其他测试平台中基本一致,前端页面展示是对整合后的测试结果的展示。在本实施例中,前端展示由PHP开发,主要展示每条测试结果数据对应的项目信息、测试用例信息,测试结果状态。在本实施例中,各测试平台中的自动化测试执行是对被测系统进行接口测试,不限于固定语言以及固定测试框架,语言可以用到java、python等,测试框架可以用到unittest、Fitnesse、TestNG、Selenium等,在此不做限制。
图3A示意性示出了根据本公开的实施例的应用测试处理方法的系统架构图。
如图3A所示,从架构上来讲本公开实施例所提供的方案由三个模块组成:用户界面展示层(UI展示层)、测试用例执行层(Case执行层)和被测接口层(Interface层)。UI展示层用于展示所整合的来自各测试平台、各测试框架的自动化测试的测试结果,通过展示测试结果数据和测试结果统计数据来表征如项目信息、测试用例信息、测试结果状态、测试用例成功率、失败率、用户权限等,进而依据这些信息可以进行相应的项目管理、具体测试的测试结果展示、分析项目执行趋势、用户管理、权限管理、分析用户行为日志等。本实施例中UI展示层可以采用Thinkphp架构,从数据库中读取相应的数据,并在WEB端展示。Case执行层是一个可扩展,多兼容的模块,部署于本测试平台和其他各测试平台,各不同测试平台、不同测试框架的自动化测试项目可根据项目特点,对语言熟悉程度,对框架了解层次进行设计,可以但不局限于使用Unitetest+python,Fitnesse+java,TestNG+java,selenium+java,selenium+python等各种模式组成,将测试对应的项目信息、测试用例信息,测试输入参数、测试输出参数、测试结果状态等组成的测试结果参数上传到本测试平台,基于该测试结果参数构建为第一预定格式的测试结果数据后存入数据库中,供UI展示模块使用。Interface层主要用于提供被测接口,部署于本测试平台和其他各测试平台,本方案中的各测试平台、测试框架所测试的接口不限于任何接口,可以是HTTP接口、JSF接口、UI接口等。
图3B示意性示出了根据本公开的实施例的测试处理方法的过程示意图。
为了使平台能够兼容现有的大多数自动化测试框架,本实施例在数据库中设计了两张数据表用来保存来自不同测试平台、不同测试框架的自动化测试结果,其中测试结果明细表(qw_atp_detail)用于存储测试结果数据,测试结果统计表(qw_atp_result)用于存储测试结果统计数据。如图3B所示,各测试平台、各测试框架的现有自动化测试过程、机制和参数不需要做大的改动,只需将每次测试的测试结果参数按照预定规则上传至本测试平台,在基于测试结果参数构建得到第一预定格式的测试结果数据和第二预定格式的测试结果统计数据后,分别存入上述两个表中,即可对来自不同测试平台、不同测试框架的测试结果进行统一展示。本实施例中采用mysql数据库设计数据表结构,在其他实施例中,也可以采用其他类型的数据库来设计数据表结构,在此不做限制。
在一个具体的例子中,上述测试结果明细表(qw_atp_detail)如表1所示:
表1
从表1可以看到,测试结果明细表(qw_atp_detail)中的每条测试结果数据由测试用例名称、测试用例编号、测试对象信息、测试标识、测试输入参数、测试输出参数和测试结果状态这7个子参数按照从前至后的顺序组成,各子参数在前文中已说明,在此不再赘述。
在一个具体的例子中,上述测试结果统计表(qw_atp_result)如表2所示:
图2
从表2可以看到,测试结果统计表(qw_atp_result)中的每条测试结果统计数据由项目编号、项目名称、执行用例数、失败用例数、成功率、测试标识和时间信息这7个统计子参数按照从前至后的顺序组成,各统计子参数在前文中已说明,在此不再赘述。此外,表2中还可以看到每一条测试结果统计数据带有一个结果详情,具有权限的用户可以通过触发该结果详情,可以查看相应一条测试结果统计数据对应的统计图表,也可以查看纵向多条测试结果统计数据的综合统计图表。
图3C示意性示出了根据本公开的实施例的测试结果统计数据的饼图。
如图3C所示,本实施例中的测试结果统计数据是按照项目信息进行统计的,图3C具体示出了不同项目的测试用例的分布情况,展示了各项目对应的测试所执行的测试用例数的相对分布情况,使得用户可以清晰明了地获知不同项目的测试用例的比对情况。
图3D示意性示出了根据本公开的实施例的测试结果统计数据的柱状图。
如图3D所示,本实施例中的测试结果统计数据是按照项目信息进行统计的,图3D具体示出了各项目的测试用例的失败用例数和用例总数的分布情况,展示了各项目对应的测试所执行的测试用例总数和其中失败用例数,使得用户可以清晰明了地获知每个项目对应的测试成功率和失败率,获知项目的状态。
在一个具体的例子中,数据库中可以预先构建参数的关联信息,例如预先构建项目编号和项目名称的关联信息,这样各测试平台在上传测试结果参数时,其中只需包含项目编号不需包含项目名称,在关联信息中根据项目编号即可找到对应的项目名称,诸如此类,可以使得各测试平台上传的数据较少,更加便捷高效。
图3E示意性示出了根据本公开的另一个实施例的测试处理方法的用户管理权限示意图。
如图3E所示,在本测试平台,用户(该用户可以理解为具有相应权限的运营人员)通过用户名和密码表示具有相应权限,该用户可以进行项目管理,获取各项目相关的项目名称、项目编号、项目标识等信息,为每个项目建立项目关联信息,为后续基于测试结果参数构建测试结果数据和测试结果统计数据做准备。而在其他各测试平台,具有相应权限的自动化测试框架用户(该用户可以理解为各测试平台的运营人员)可以进行测试用例管理,具体监控利用各测试用例进行测试所对应的项目名称、测试用例名称、输入参数、输出参数、测试结果状态、时间信息和所属测试的标识等信息,进而可以进行测试结果管理,具体获知各测试结果参数对应的项目名称、成功率统计、项目编号、时间信息、所属测试的标识、项目标识等信息,将测试结果参数上传至本测试平台进行统一整合和展示。
下面以一个具体的自动化测试框架为例说明上述测试处理过程。
图3F示意性示出了根据本公开的实施例的测试处理方法的框架流程图。
如图3F所示,本实施例以TestNG自动化测试框架框架为例进行说明,TestNG作为目前主流的自动化测试框架,是一个设计用来简化广泛的测试需求的测试框架,从单元测试(隔离测试一个类)到集成测试(测试由有多个类多个包甚至多个外部框架组成的整个系统,例如运用服务器)。目前各不同的测试平台都在应用该框架进行相关自动化测试工作,并积累了大量的测试脚本和用例,但是各测试平台都维护自己的测试数据彼此孤立,无法共享。则在本实施例中将测试过程与整合过程进行关联,过程如下:选择测试环境装载Spring组件初始化,准备参数化数据,具体地,可以利用Jenkins工具定时参数化构建,利用Maven工具构建根据参数选择环境,执行testing.xml用例配置,继承基类监听事件,装载spring组件。调取JSF接口、HTTP接口、appium接口、抓取页面元素,多种方式获取接口数据。利用maven构建执行TestNG测试用例,参数化数据与接口数据字段做断言处理,得到testng测试结果参数。
如果上述测试过程在本测试平台实施,则基于上述测试结果参数构建测试结果数据并存入数据库中。如果上述测试过程在其他测试平台实施,则对上述测试结果参数进行封装处理,上传至本测试平台,基于上述测试结果参数构建测试结果数据并存入数据库中,具体地,对Testng测试结果做二次封装处理并调用本测试平台的相应接口上传至本测试平台,本测试平台基于测试结果参数更新用例状态并计算执行总用例条数、成功率等信息,综合存入数据库表。
基于本方案所提供的统一的测试结果数据库,前端可以展示数据结果和测试结果详情,并且可以绘出统计结果图。这样各个自动化测试平台和团队只需要将精力专注于设计自动化测试用例,而不用关注测试结果的展示以及结果的统计。
图4示意性示出了根据本公开的实施例的测试处理装置的框图。
如图4所示,测试处理装置400包括测试模块410、第一统配模块420和接收模块430。
测试模块410用于基于本地测试框架进行测试,得到第一类测试结果参数。
第一统配模块420用于基于第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中。
接收模块430用于接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数。
以及,第一统配模块420还用于基于第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中。
图5示意性示出了根据本公开的另一个实施例的测试处理装置的框图。
如图5所示,测试处理装置500包括测试模块410、第一统配模块420、接收模块430和第二统配模块440。
其中,测试模块410、第一统配模块420和接收模块430在上文已说明,重复的部分在此不再赘述。
任一第一类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第二类测试结果参数为一次测试中的一个测试用例对应的测试结果参数,任一第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果。
第二统配模块440用于根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入数据库中。
在本公开的一个实施例中,第一类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态。第二类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态。第一统配模块420基于所述第一类测试结果参数构建第一预定格式的测试结果数据包括:第一统配模块420用于将所述第一类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。第一统配模块420基于所述第二类测试结果参数构建第一预定格式的测试结果数据包括:第一统配模块420用于将所述第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
在此基础上,作为一个可选的实施例,第二统配模块440根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据包括:第二统配模块440用于对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。
在本公开的一个实施例中,第一统配模块420基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:第一统配模块420用于将所述测试结果数据存入数据库中的第一表格。第一统配模块420基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:第一统配模块420用于将所述测试结果数据存入数据库中的第一表格。第二统配模块440得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:第二统配模块440用于将所述测试结果统计数据存入数据库中的第二表格。
图6示意性示出了根据本公开的另一个实施例的测试处理装置的框图。
如图6所示,测试处理装置600包括测试模块410、第一统配模块420、接收模块430、第二统配模块440和展示模块450。
其中,测试模块410、第一统配模块420、接收模块430和第二统配模块440在上文已说明,重复的部分在此不再赘述。
展示模块450用于响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。
需要说明的是,装置部分实施例中各模块/单元/子单元等的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,测试处理装置600包括测试模块410、第一统配模块420、接收模块430、第二统配模块440和展示模块450中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,身测试处理装置600包括测试模块410、第一统配模块420、接收模块430、第二统配模块440和展示模块450中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,测试处理装置600包括测试模块410、第一统配模块420、接收模块430、第二统配模块440和展示模块450中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图7示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机设备的框图。图7示出的计算机设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,根据本公开实施例的计算机设备700包括处理器701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。处理器701例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器701还可以包括用于缓存用途的板载存储器。处理器701可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 703中,存储有设备700操作所需的各种程序和数据。处理器701、ROM 702以及RAM 703通过总线704彼此相连。处理器701通过执行ROM 702和/或RAM 703中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 702和RAM 703以外的一个或多个存储器中。处理器701也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,设备700还可以包括输入/输出(I/O)接口705,输入/输出(I/O)接口705也连接至总线704。设备700还可以包括连接至I/O接口705的以下部件中的一项或多项:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被处理器701执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 702和/或RAM 703和/或ROM 702和RAM 703以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (14)
1.一种测试处理方法,包括:
基于本地测试框架进行测试,得到第一类测试结果参数;
基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中;
接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数;
基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。
2.根据权利要求1所述的方法,其中:
任一第一类测试结果参数为一次测试中的一个测试用例对应的测试结果参数;
任一第二类测试结果参数为一次测试中的一个测试用例对应的测试结果参数;
任一第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果;
所述方法还包括:根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中。
3.根据权利要求2所述的方法,其中:
所述第一类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态;
所述第二类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态;
基于所述第一类测试结果参数构建第一预定格式的测试结果数据包括:将所述第一类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据;
基于所述第二类测试结果参数构建第一预定格式的测试结果数据包括:将所述第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
4.根据权利要求3所述的方法,其中,所述根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据包括:
对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;
将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。
5.根据权利要求2所述的方法,其中:
基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格;
基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:将所述测试结果数据存入数据库中的第一表格;
得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:将所述测试结果统计数据存入数据库中的第二表格。
6.根据权利要求2所述的方法,还包括:
响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。
7.一种测试处理装置,包括:
测试模块,用于基于本地测试框架进行测试,得到第一类测试结果参数;
第一统配模块,用于基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中;
接收模块,用于接收其他测试平台基于各类型测试框架进行测试得到的第二类测试结果参数;
所述第一统配模块,还用于基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入所述数据库中。
8.根据权利要求7所述的装置,其中:
任一第一类测试结果参数为一次测试中的一个测试用例对应的测试结果参数;
任一第二类测试结果参数为一次测试中的一个测试用例对应的测试结果参数;
任一第一预定格式的测试结果数据用于表征一次测试中的一个测试用例对应的测试结果;
所述装置还包括:第二统配模块,用于根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中。
9.根据权利要求8所述的装置,其中:
所述第一类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、本次测试标识、测试输入参数、测试输出参数、和/或测试结果状态;
所述第二类测试结果参数包括如下至少一项子参数:项目信息、时间信息、测试用例信息、测试对象信息、测试标识、测试输入参数、测试输出参数、和/或测试结果状态;
所述第一统配模块基于所述第一类测试结果参数构建第一预定格式的测试结果数据包括:所述第一统配模块,用于将所述第一类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据;
所述第一统配模块基于所述第二类测试结果参数构建第一预定格式的测试结果数据包括:所述第一统配模块,用于将所述第二类测试结果参数中的各项子参数按照第一预定顺序构成所述测试结果数据。
10.根据权利要求9所述的装置,其中,所述第二统配模块根据对应于同一次测试的各测试结果数据,得到对应于所述同一次测试的第二预定格式的测试结果统计数据包括:
所述第二统配模块,用于对于任一次测试,根据带有该次测试标识的各测试结果数据中的各项子参数得到如下至少一项统计子参数:项目信息、时间信息、测试标识、执行测试用例数、失败测试用例数、成功测试用例数、测试成功率、和/或测试失败率;将各项统计子参数按照第二预定顺序构成所述测试结果统计数据。
11.根据权利要求8所述的装置,其中:
所述第一统配模块基于所述第一类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:所述第一统配模块,用于将所述测试结果数据存入数据库中的第一表格;
所述第一统配模块基于所述第二类测试结果参数构建第一预定格式的测试结果数据并存入数据库中包括:所述第一统配模块,用于将所述测试结果数据存入数据库中的第一表格;
所述第二统配模块得到对应于所述同一次测试的第二预定格式的测试结果统计数据并存入所述数据库中包括:所述第二统配模块,用于将所述测试结果统计数据存入数据库中的第二表格。
12.根据权利要求8所述的装置,还包括:
展示模块,用于响应于具有指定权限的用户的查询操作,展示数据库中存储的测试结果数据和/或测试结果统计数据。
13.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1~6中任一项所述的测试处理方法。
14.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行如权利要求1~6中任一项所述的测试处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811145262.1A CN109376083A (zh) | 2018-09-28 | 2018-09-28 | 测试处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811145262.1A CN109376083A (zh) | 2018-09-28 | 2018-09-28 | 测试处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109376083A true CN109376083A (zh) | 2019-02-22 |
Family
ID=65402500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811145262.1A Pending CN109376083A (zh) | 2018-09-28 | 2018-09-28 | 测试处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376083A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902026A (zh) * | 2019-03-27 | 2019-06-18 | 北京奇艺世纪科技有限公司 | 一种接口测试信息的处理方法及测试平台 |
CN110569198A (zh) * | 2019-09-18 | 2019-12-13 | 北京搜狐新媒体信息技术有限公司 | 一种业务功能自动化测试方法及装置 |
CN110874324A (zh) * | 2019-10-14 | 2020-03-10 | 平安普惠企业管理有限公司 | 一种测试结果数据保存方法、装置、终端设备及存储介质 |
CN113778843A (zh) * | 2020-08-28 | 2021-12-10 | 北京同邦卓益科技有限公司 | 应用程序的测试方法、装置、电子设备和可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130024847A1 (en) * | 2011-07-21 | 2013-01-24 | International Business Machines Corporation | Software test automation systems and methods |
CN103902446A (zh) * | 2012-12-27 | 2014-07-02 | 北京新媒传信科技有限公司 | 一种网络服务器自动化测试的方法和装置 |
CN106484612A (zh) * | 2015-08-27 | 2017-03-08 | 谷歌公司 | 用于设备兼容性测试和报告的系统和方法 |
CN106845927A (zh) * | 2016-12-28 | 2017-06-13 | 曙光信息产业(北京)有限公司 | 一种自动整理测试结果的方法及装置 |
CN108038054A (zh) * | 2017-12-01 | 2018-05-15 | 大唐微电子技术有限公司 | 一种自动化测试方法及装置、计算机可读存储介质 |
-
2018
- 2018-09-28 CN CN201811145262.1A patent/CN109376083A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130024847A1 (en) * | 2011-07-21 | 2013-01-24 | International Business Machines Corporation | Software test automation systems and methods |
CN103902446A (zh) * | 2012-12-27 | 2014-07-02 | 北京新媒传信科技有限公司 | 一种网络服务器自动化测试的方法和装置 |
CN106484612A (zh) * | 2015-08-27 | 2017-03-08 | 谷歌公司 | 用于设备兼容性测试和报告的系统和方法 |
CN106845927A (zh) * | 2016-12-28 | 2017-06-13 | 曙光信息产业(北京)有限公司 | 一种自动整理测试结果的方法及装置 |
CN108038054A (zh) * | 2017-12-01 | 2018-05-15 | 大唐微电子技术有限公司 | 一种自动化测试方法及装置、计算机可读存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902026A (zh) * | 2019-03-27 | 2019-06-18 | 北京奇艺世纪科技有限公司 | 一种接口测试信息的处理方法及测试平台 |
CN110569198A (zh) * | 2019-09-18 | 2019-12-13 | 北京搜狐新媒体信息技术有限公司 | 一种业务功能自动化测试方法及装置 |
CN110874324A (zh) * | 2019-10-14 | 2020-03-10 | 平安普惠企业管理有限公司 | 一种测试结果数据保存方法、装置、终端设备及存储介质 |
CN113778843A (zh) * | 2020-08-28 | 2021-12-10 | 北京同邦卓益科技有限公司 | 应用程序的测试方法、装置、电子设备和可读存储介质 |
CN113778843B (zh) * | 2020-08-28 | 2024-04-16 | 北京同邦卓益科技有限公司 | 应用程序的测试方法、装置、电子设备和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376083A (zh) | 测试处理方法和装置 | |
EP2778929B1 (en) | Test script generation system | |
US10719426B2 (en) | Methods and systems for testing web applications | |
CN105580032B (zh) | 用于降低升级软件时的不稳定性的方法和系统 | |
US20220245128A1 (en) | Utilizing Independently Stored Validation Keys to Enable Auditing of Instrument Measurement Data Maintained in a Blockchain | |
CN105824748B (zh) | 用于确定测试用例效率的方法和系统 | |
US9466087B2 (en) | Meter data management testing | |
CN110287097A (zh) | 批量测试方法、装置及计算机可读存储介质 | |
CN104380663A (zh) | 基于规则的自动化测试数据生成 | |
CN109891438A (zh) | 数值量子实验 | |
CN108958992A (zh) | 测试方法和装置 | |
CN104182347B (zh) | 一种基于自动化测试平台的测试需求自动分析方法 | |
US11743147B2 (en) | Post incident review | |
CN110377520A (zh) | 交易场景的测试方法及装置、电子设备和可读存储介质 | |
CN106201856A (zh) | 一种多版本性能测试方法及装置 | |
CN109377029A (zh) | 飞机运行安全风险评价方法、装置、电子设备及存储介质 | |
JP2015088189A (ja) | テスト環境を用いた、制御装置のテスト | |
US9380000B2 (en) | Deploying and modifying a service-oriented architecture deployment environment model | |
US20140095118A1 (en) | Concise modeling and architecture optimization | |
Corsini et al. | A configurable computer simulation model for reducing patient waiting time in oncology departments | |
Rozinat et al. | Process mining of test processes: A case study | |
CN103972122B (zh) | 一种晶圆针测方法及装置 | |
US20220206774A1 (en) | Systems and methods for building and deploying machine learning applications | |
Loper | The modeling and simulation life cycle process | |
CN105204383B (zh) | 应用伺服系统的生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Beijing Daxing District, Beijing Applicant after: Jingdong Digital Technology Holding Co., Ltd. Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176 Applicant before: Beijing Jingdong Financial Technology Holding Co., Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190222 |
|
RJ01 | Rejection of invention patent application after publication |