CN110059012A - 一种程序测试的控制方法、装置、存储介质及平台 - Google Patents
一种程序测试的控制方法、装置、存储介质及平台 Download PDFInfo
- Publication number
- CN110059012A CN110059012A CN201910333939.2A CN201910333939A CN110059012A CN 110059012 A CN110059012 A CN 110059012A CN 201910333939 A CN201910333939 A CN 201910333939A CN 110059012 A CN110059012 A CN 110059012A
- Authority
- CN
- China
- Prior art keywords
- test
- case
- result
- type
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Test And Diagnosis Of Digital Computers (AREA)
- Mobile Radio Communication Systems (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请实施例公开了一种程序测试的控制方法、装置、存储介质及平台。该方法包括:在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。通过执行本申请所提供的技术方案,可以实现对开发自测的质量进行有效评估的效果。
Description
技术领域
本申请实施例涉及软件开发技术领域,尤其涉及一种程序测试的控制方法、装置、存储介质及平台。
背景技术
目前互联网行业的项目迭代率非常快,对于某些软件或者程序的开发及测试要求也在不断提高。
对于开发和测试两个环节,都需要采用严谨的测试方式,对开发人员来说,需要执行用例来进行自测,确保所开发的程序可以正常运行,对于测试人员来说,需要执行用例来对自测后的节点进行检测,确保所检测的程序可以上线使用。而目前的开发和测试过程,对于用例的使用并不规范,而且难以保证开发测试用例的稳定性和全面覆盖性,因此,存在着开发人员自测所使用的用例和测试人员检测所使用的用例相分离,无法对开发自测的质量进行有效的评估。
发明内容
本申请实施例提供一种程序测试的控制方法、装置、存储介质及平台,以实现对开发自测的质量进行有效评估的效果。
第一方面,本申请实施例提供了一种程序测试的控制方法,该方法包括:
在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
进一步的,在识别测试节点的测试类型之后,所述方法还包括:
根据所述测试类型确定对目标用例测试后的测试结果统计方式;
相应的,统计得到自测类型统计结果和检测类型统计结果,包括:
依据所述测试结果统计方式,统计得到自测类型统计结果和检测类型统计结果。
进一步的,根据所述测试类型确定对目标用例测试后的测试结果统计方式,包括:
若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计;
若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。
进一步的,在预置的用例库中确定目标用例,包括:
在预置的用例库中,根据测试人员所建立的测试目录,确定针对测试目录的每一个测试节点的用例,作为目标用例。
进一步的,所述自测类型统计结果包括自测类型执行用例的总成功数与总失败数,所述检测类型统计结果包括检测类型执行用例的总成功数与总失败数;
相应的,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:
根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
进一步的,根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率,具体包括:
采用如下公式计算开发自测通过率:
E=B/(A1+A2);
其中,E为开发自测通过率,B为检测类型执行用例的总成功数,A1为自测类型执行用例的总成功数,A2为自测类型执行用例的总失败数。
进一步的,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:
确定目标测试节点,所述目标测试节点包括测试单元、至少两个测试单元构成的测试任务、至少两个测试任务构成的测试计划以及至少两个测试计划构成的测试业务线中任意一种所包括的测试节点;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定所述目标测试节点的开发自测质量结果。
进一步的,在根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果之后,所述方法还包括:
对每个测试节点的自测类型执行结果和检测类型执行结果进行记录;以及,
对每个目标测试用例,记录自测类型执行结果和检测类型执行结果。
第二方面,本申请实施例提供了一种程序测试的控制装置,该装置包括:
目标用例确定模块,用于在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
测试安排方式确定模块,用于识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
统计模块,用于根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
开发自测质量结果确定模块,用于根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
进一步的,所述装置还包括:
统计方式确定模块,用于根据所述测试类型确定对目标用例测试后的测试结果统计方式;
相应的,所述统计模块用于:
依据所述测试结果统计方式,统计得到自测类型统计结果和检测类型统计结果。
进一步的,所述统计模块具体用于:
若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计;
若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。
进一步的,所述目标用例确定模块具体用于:
在预置的用例库中,根据测试人员所建立的测试目录,确定针对测试目录的每一个测试节点的用例,作为目标用例。
进一步的,所述自测类型统计结果包括自测类型执行用例的总成功数与总失败数,所述检测类型统计结果包括检测类型执行用例的总成功数与总失败数;
相应的,所述开发自测质量结果确定模块用于:
根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
进一步的,所述开发自测质量结果确定模块具体用于:
采用如下公式计算开发自测通过率:
E=B/(A1+A2);
其中,E为开发自测通过率,B为检测类型执行用例的总成功数,A1为自测类型执行用例的总成功数,A2为自测类型执行用例的总失败数。
进一步的,所述开发自测质量结果确定模块包括:
目标测试节点确定单元,用于确定目标测试节点,所述目标测试节点包括测试单元、至少两个测试单元构成的测试任务、至少两个测试任务构成的测试计划以及至少两个测试计划构成的测试业务线中任意一种所包括的测试节点;
目标测试节点开发自测质量结果确定单元,用于根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定所述目标测试节点的开发自测质量结果。
进一步的,所述装置还记录模块,所述记录模块用于:
对每个测试节点的自测类型执行结果和检测类型执行结果进行记录;以及,
对每个目标测试用例,记录自测类型执行结果和检测类型执行结果。
第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的程序测试的控制方法。
第四方面,本申请实施例提供了一种平台,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的程序测试的控制方法。
本申请实施例所提供的技术方案,通过在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。通过采用本申请所提供的技术方案,可以实现对开发自测的质量进行有效评估的效果。
附图说明
图1是本申请实施例一提供的程序测试的控制方法的流程图;
图2是本申请实施例二提供的程序测试的控制方法的流程图;
图3是本申请实施例三提供的程序测试的控制装置的结构示意图;
图4是本申请实施例五提供的一种平台的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1是本申请实施例一提供的程序测试的控制方法的流程图,本实施例可适于程序的开发测试情况,该方法可以由本申请实施例所提供的程序测试的控制装置执行,该装置可以由软件和/或硬件的方式来实现,并可集成于程序开发及测试的平台中。
如图1所示,所述程序测试的控制方法包括:
S110、在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点。
其中,预置的用例库可以是工作人员针对于某个或者某种类型的测试需求,预先存储的用例的集合。示例性的,对于某个软件的开发,可以涉及到注册及登录过程的用例,还会涉及到在应用程序的页面之间跳转以及订单生成的用例等。从预置的用例库中确定的目标用例,可以是针对当前所需要开发自测和检测测试过程中实际使用的用例,例如预置的用例库中有1000个用例,当前需要使用的是其中的100个用例,则可以将该100个用例确定为目标用例。可以理解的,由于目标用例也可以是预置的用例库中的1个用例。具体的确定过程可以由程序测试的质量管理人员来人工选取。目标用例确定后,可以针对实际测试节点的需求,将测试用例分配至各测试节点来执行。其中,测试节点可以是程序测试的至少一个测试单元节点。例如在对登录操作的测试过程中,可以分为用户名验证、密码验证以及验证码验证三个测试节点。
在本实施例中,可选的,在预置的用例库中确定目标用例,包括:在预置的用例库中,根据测试人员所建立的测试目录,确定针对测试目录的每一个测试节点的用例,作为目标用例。在本实施例中,可以通过测试人员所建立的测试目录,如开发自测目录,测试人员根据项目需要,去指定本次项目需要执行的主流程用例,并将用例分配至各个开发人员,对每个开发人员所对应的一个或者多个测试节点进行测试使用。具体的,可以通过测试人员编写测试用例并导入至开发自测平台,并指定分配至各个开发及测试人员,平台通过智能识别身份,对开发和测试对相同用例的前后两次执行结果作对比,从而落地每次执行用例的测试结果数据,并根据此类数据生成不同维度的开发自测率统计数据。
S120、识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例。
其中,测试节点的测试类型包括自测类型和检测类型,其中,自测类型是针对开发人员而言,检测类型是针对测试人员而言,开发人员在开发过程中,可以使用用例对自己所开发的程序的测试节点进行自测,开发人员测试无问题后,检测人员可以对其所开发的节点进行检测。在本实施例中,平台通过智能识别身份,对开发和测试对相同用例的前后两次执行,这样就可以保证开发和测试过程中的所使用的用例的统一性。
在本实施例中,可以在识别测试节点的测试类型后,根据所述测试类型确定目标用例的测试安排方式。其中,针对一个测试节点存在一个或者多个测试用例,当测试节点为自测类型节点时,则分配未执行的目标用例,当测试节点为检测类型节点时,则分配已执行的目标用例。其中,已执行的目标用例可以是在开发人员自测过程中执行过的测试用例。可以理解的,当针对一个测试节点,存在5个目标用例时,在测试过程中,如果其中的4个已经执行完成,则可以在测试人员使用时直接分配第5个未执行的测试用例,而在检测过程中,如果其中只有4个测试用例在开发人员自测时被执行,则检测时只使用该4个测试用例。这样设置有利于保证每个测试节点对用例执行的一致性,而且平台可以根据登录人员的身份确定当前人员是开发人员还是测试人员,这样可以减少人工分配的负担。另外,值得说明的是,开发和测试过程中开发人员和测试人员可以在执行用例对测试节点测试过程中,选择执行一次或者多次。
在本实施例中,可选的,在识别测试节点的测试类型之后,所述方法还包括:根据所述测试类型确定对目标用例测试后的测试结果统计方式;相应的,统计得到自测类型统计结果和检测类型统计结果,包括:依据所述测试结果统计方式,统计得到自测类型统计结果和检测类型统计结果。其中,测试结果统计方式,可以是针对一个测试节点的所有用例的执行结果进行统计,还可以针对一个测试节点的一个或者部分用例的执行结果进行统计。本技术方案中,可以根据测试节点的类型的不同,分别确定不同的执行结果统计方式。这样设置的好处是可以根据实际使用的需求,确定最具代表性的执行结果作为统计结果进行统计,从而确保该统计方式所得到的结果可以更加准确的说明程序开发和测试情况,为得到准确的测试结果提供数据保障。
在本实施例中,可选的,根据所述测试类型确定对目标用例测试后的测试结果统计方式,包括:若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计;若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。
其中,结合上述内容可以知道,开发人员和测试人员可以针对一个用例执行多次,而实际进行统计的过程中,若对每次执行用例的结果都统计,会造成开发自测率统计数据失真的问题。例如,在自测过程中,对某个用例执行了两次,第一次失败,第二次成功,而在检测人员进行检测的过程中,对该用例也执行了两次,第一次失败,第二次成功。如果都统计,则无法有效的表达以哪一次检测结果确定该测试节点是否通过;或者如果采用检测过程中的第二次执行结果来统计,则该测试节点的检测结果为成功,而实际第一次检测结果为失败,会造成数据统计过程中的失真现象。因此,若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计。若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。这样设置的好处是针对每个测试节点,每个被执行的用例的统计次数为1次,并且针对开发人员而言,可以以其最后一次测试为基准进行统计,对测试人员而言,可以以其第一次测试为基准,这样既给了开发人员根据执行用例的结果进行程序代码的更新和重新执行用例的机会,还能够准确的反映出开发自测过程的质量。
S130、根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果。
其中,确定了安排方式以及控制所述测试节点执行分配至该测试节点的目标用例之后,可以得到测试结果,并统计得到测试节点的自测类型统计结果和检测类型统计结果。可以理解的,对于一个测试节点而言,可以对自测过程进行统计得到自测类型统计结果,还可以对检测类型进行统计得到检测类型统计结果。
S140、根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
在得到自测类型统计结果和检测类型统计结果之后,可以采用预设规则确定开发自测质量结果。其中,对开发自测质量的评估,可以是确定自测类型统计结果中自测成功用例总数与自测所有用例总数的比值,还可以采用其他方式进行计算。本申请通过自测过程和检测过程所使用的用例统一化,而且通过平台自动检测和执行该用例,可以大大的提高程序开发过程中的测试效果,并且可以达到为开发自测质量进行
本申请实施例所提供的技术方案,通过在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。通过采用本申请所提供的技术方案,可以实现对开发自测的质量进行有效评估的效果。
实施例二
图2是本申请实施例二提供的程序测试的控制方法的流程图。本实施例在上述实施例的基础上,具体优化为:所述自测类型统计结果包括自测类型执行用例的总成功数与总失败数,所述检测类型统计结果包括检测类型执行用例的总成功数与总失败数;相应的,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
如图2所示,所述程序测试的控制方法包括:
S210、在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点。
S220、识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式。
其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例。
S230、根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数。
其中,结合上述实施例,对于自测类型的测试节点,可以根据每个被执行的用例的最后一次的执行结果是成功还是失败,确定该被执行用例的测试结果为成功或者失败,对每个测试节点所执行的所有用例进行统计,从而得到该测试节点的自测类型执行用例的总成功数与总失败数。同理,可以得到检测类型执行用例的总成功数与总失败数。
S240、根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
在得到一个测试节点的自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数之后,可以利用这些数据来对开发自测通过率进行统计。
在本实施例中,可选的,根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率,具体包括:采用如下公式计算开发自测通过率:
E=B/(A1+A2);
其中,E为开发自测通过率,B为检测类型执行用例的总成功数,A1为自测类型执行用例的总成功数,A2为自测类型执行用例的总失败数。
其中,利用检测类型的总成功数,比上自测类型执行用例的总数,即自测类型执行用例的总成功数与总失败数之和,可以在开发人员自测过程中所使用的用例在检测过程中执行成功的用例进行筛选出来,可以用来表示开发自测通过率,从而对开发自测的质量进行评价。
本实施例在上述实施例的基础上,提供了一种对开发自测质量进行评价的方法,该方法可以通过在测试节点在检测过程的成功用例数与自测过程中的总用例数进行比较,来确定开发自测通过率,进而确定开发自测过程中的开发自测质量进行评价。该方法弥补了现有技术中对开发自测质量进行评价的技术空缺,可以辅助提高程序的开发和测试效率,同时简化开发人员和测试人员的操作步骤。
在上述各技术方案的基础上,可选的,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:确定目标测试节点,所述目标测试节点包括测试单元、至少两个测试单元构成的测试任务、至少两个测试任务构成的测试计划以及至少两个测试计划构成的测试业务线中任意一种所包括的测试节点;根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定所述目标测试节点的开发自测质量结果。其中,可以根据测试节点的单元,以及所属的测试任务,所属的测试计划甚至所属的测试业务,对测试节点的用例执行结果按照不同维度进行统计,进而可以得到不同维度的测试结果。本技术方案这样设置的好处是,可以辅助开发人员和测试人员对不同维度的开发自测质量进行评价,对于程序开发而言可以辅助提高程序开发的效率和对整个程序开发各环节质量的掌控。
在上述各技术方案的基础上,可选的,在根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果之后,所述方法还包括:对每个测试节点的自测类型执行结果和检测类型执行结果进行记录;以及,对每个目标测试用例,记录自测类型执行结果和检测类型执行结果。在本技术方案中,可以以测试节点的形式对该测试节点的每个目标用例的开发执行结果和检测执行结果进行记录,还可以以用例的形式,对该用例的开发执行结果和检测结果进行记录,从而可以使每个测试节点和每个用例的执行结果可视化。在本技术方案中,还可以生成查看各测试节点和查看各用例的连接,开发人员和测试人员开在平台上通过点击来实现跳转,进而对每个测试节点和每个用例的执行情况进行更加清晰准确的了解。这样设置的好处是有利于辅助开发人员和测试人员了解用例的执行情况,提高程序检测的效率。
本申请针对现有技术的缺陷,即开发编写的代码级别的单元测试用例,这部分的单元测试用例,很难进行数据化统计。提供了一种技术方案,该技术方案可以提高开发代码的提测质量,减少测试遇到的堵塞性问题,减少项目延期风险为项目分析提供入口,个人、任务、需求、计划、业务线、时间等维度,提供开发自测通过率情况的分析。具体的技术方案如下:
首先,通过QA编写测试用例并导入至开发自测平台,并指定分配至各个人员,平台通过智能识别身份,对开发和测试对相同用例的前后两次执行结果作对比,从而落地每次执行结果数据,并根据此类数据生成不同维度的开发自测率统计数据。
然后,通过以下执行模块执行各具体操作。
用例分配模块:测试人员通过新建目录,指定为开发自测类型,依次导入需要执行的测试用例,并针对不同的用例进行分配,指派执行人。
执行角色模块:用户登录后,可自动识别更改用户所属角色。其中,如果识别出是开发人员:将依据用例的状态和分配人员,将未执行的用例推送至当前人员。如果识别出是测试人员:将依据用例的状态和分配人员,将开发执行通过但是测试未执行的用例推送给当前人员。
测试执行模块:开发或测试人员根据实际情况进行验证,可针对单个用例进行多次运行,执行的同时数据也会一一落库进行记录。
数据统计模块:统计层级维度支持单目录,单任务(多个目录),单需求(多个任务),单计划(多个需求),单业务线(多个计划),和所有业务线。系统会自动筛选执行结果作为统计依据,依据如下:
针对开发统计数据,获取每个用例的最后一次执行结果;
针对测试统计数据,获取每个用例的第一次执行结果;
当所统计的自测类型目录中,存在开发或测试有未执行的用例,将会智能提示哪些没有执行完成,并可跳转链接。
如果所有数据符合标准,将会根据所选择的维度,生成统计报表数据,分为:总自测用例数,开发执行总通过数,开发执行总失败数,开发总未执行数,测试执行总通过数,测试执行总失败数,测试总未执行数,开发自测通过率同时还会生成最低维度到单个自测目录的此类统计数据。
统计出开发自测通过率,公式如下:
测试统计数据(成功数)/开发统计数据(开发执行成功数+开发执行失败数)。
通过采用上述技术方案,可以提高开发自测质量,使执行的自测用例有意义化,而非通过代码再去验证另外一个代码逻辑。并且,实现开发自测通过率可视化,可追溯,可分不同维度检索。
实施例三
图3是本申请实施例三提供的程序测试的控制装置的结构示意图。如图3所示,所述程序测试的控制装置,包括:
目标用例确定模块310,用于在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
测试安排方式确定模块320,用于识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
统计模块330,用于根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
开发自测质量结果确定模块340,用于根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
本申请实施例所提供的技术方案,通过在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。通过采用本申请所提供的技术方案,可以实现对开发自测的质量进行有效评估的效果。
在上述各技术方案的基础上,可选的,所述装置还包括:
统计方式确定模块,用于根据所述测试类型确定对目标用例测试后的测试结果统计方式;
相应的,所述统计模块用于:
依据所述测试结果统计方式,统计得到自测类型统计结果和检测类型统计结果。
在上述各技术方案的基础上,可选的,所述统计模块具体用于:
若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计;
若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。
在上述各技术方案的基础上,可选的,所述目标用例确定模块具体用于:
在预置的用例库中,根据测试人员所建立的测试目录,确定针对测试目录的每一个测试节点的用例,作为目标用例。
在上述各技术方案的基础上,可选的,所述自测类型统计结果包括自测类型执行用例的总成功数与总失败数,所述检测类型统计结果包括检测类型执行用例的总成功数与总失败数;
相应的,所述开发自测质量结果确定模块用于:
根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
在上述各技术方案的基础上,可选的,所述开发自测质量结果确定模块具体用于:
采用如下公式计算开发自测通过率:
E=B/(A1+A2);
其中,E为开发自测通过率,B为检测类型执行用例的总成功数,A1为自测类型执行用例的总成功数,A2为自测类型执行用例的总失败数。
在上述各技术方案的基础上,可选的,所述开发自测质量结果确定模块包括:
目标测试节点确定单元,用于确定目标测试节点,所述目标测试节点包括测试单元、至少两个测试单元构成的测试任务、至少两个测试任务构成的测试计划以及至少两个测试计划构成的测试业务线中任意一种所包括的测试节点;
目标测试节点开发自测质量结果确定单元,用于根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定所述目标测试节点的开发自测质量结果。
在上述各技术方案的基础上,可选的,所述装置还记录模块,所述记录模块用于:
对每个测试节点的自测类型执行结果和检测类型执行结果进行记录;以及,
对每个目标测试用例,记录自测类型执行结果和检测类型执行结果。
上述产品可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
实施例四
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种程序测试的控制方法,该方法包括:
在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到计算机系统。第二计算机系统可以提供程序指令给计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的程序测试的控制操作,还可以执行本申请任意实施例所提供的程序测试的控制方法中的相关操作。
实施例五
本申请实施例提供了一种平台,该平台中可集成本申请实施例提供的程序测试的控制装置。图4是本申请实施例五提供的一种平台的结构示意图。如图4所示,本实施例提供了一种平台400,其包括:一个或多个处理器420;存储装置410,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器420执行,使得所述一个或多个处理器420实现本申请实施例所提供的程序测试的控制方法,该方法包括:
在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
当然,本领域技术人员可以理解,处理器420还可以实现本申请任意实施例所提供的程序测试的控制方法的技术方案。
图4显示的平台400仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图4所示,该平台400包括处理器420、存储装置410、输入装置430和输出装置440;平台中处理器420的数量可以是一个或多个,图4中以一个处理器420为例;平台中的处理器420、存储装置410、输入装置430和输出装置440可以通过总线或其他方式连接,图4中以通过总线450连接为例。
存储装置410作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块单元,如本申请实施例中的程序测试的控制方法对应的程序指令。
存储装置410可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置410可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置410可进一步包括相对于处理器420远程设置的存储器,这些远程存储器可以通过网络连接。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的数字、字符信息或语音信息,以及产生与平台的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏、扬声器等设备。
本申请实施例提供的平台,可以实现对开发自测的质量进行有效评估的效果。
上述实施例中提供的程序测试的控制装置、存储介质及平台可执行本申请任意实施例所提供的程序测试的控制方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的程序测试的控制方法。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (11)
1.一种程序测试的控制方法,其特征在于,包括:
在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
2.根据权利要求1所述的方法,其特征在于,在识别测试节点的测试类型之后,所述方法还包括:
根据所述测试类型确定对目标用例测试后的测试结果统计方式;
相应的,统计得到自测类型统计结果和检测类型统计结果,包括:
依据所述测试结果统计方式,统计得到自测类型统计结果和检测类型统计结果。
3.根据权利要求2所述的方法,其特征在于,根据所述测试类型确定对目标用例测试后的测试结果统计方式,包括:
若识别测试节点的测试类型为自测类型,则在同一目标用例的执行次数为两次或者两次以上时,对最后一次的测试结果进行统计;
若识别测试节点的测试类型为检测类型,则在同一目标用例的执行次数为两次或者两次以上时,对第一次的测试结果进行统计。
4.根据权利要求1所述的方法,其特征在于,在预置的用例库中确定目标用例,包括:
在预置的用例库中,根据测试人员所建立的测试目录,确定针对测试目录的每一个测试节点的用例,作为目标用例。
5.根据权利要求1所述的方法,其特征在于,所述自测类型统计结果包括自测类型执行用例的总成功数与总失败数,所述检测类型统计结果包括检测类型执行用例的总成功数与总失败数;
相应的,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:
根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率。
6.根据权利要求5所述的方法,其特征在于,根据自测类型执行用例的总成功数与总失败数,和检测类型执行用例的总成功数与总失败数,采用预设规则确定开发自测通过率,具体包括:
采用如下公式计算开发自测通过率:
E=B/(A1+A2);
其中,E为开发自测通过率,B为检测类型执行用例的总成功数,A1为自测类型执行用例的总成功数,A2为自测类型执行用例的总失败数。
7.根据权利要求1所述的方法,其特征在于,根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果,包括:
确定目标测试节点,所述目标测试节点包括测试单元、至少两个测试单元构成的测试任务、至少两个测试任务构成的测试计划以及至少两个测试计划构成的测试业务线中任意一种所包括的测试节点;
根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定所述目标测试节点的开发自测质量结果。
8.根据权利要求1所述的方法,其特征在于,在根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果之后,所述方法还包括:
对每个测试节点的自测类型执行结果和检测类型执行结果进行记录;以及,
对每个目标测试用例,记录自测类型执行结果和检测类型执行结果。
9.一种程序测试的控制装置,其特征在于,包括:
目标用例确定模块,用于在预置的用例库中确定目标用例,并将目标用例分配至各个测试节点;其中,所述测试节点为程序测试的至少一个测试单元节点;
测试安排方式确定模块,用于识别测试节点的测试类型,根据所述测试类型确定目标用例的测试安排方式;其中,所述测试类型包括自测类型和检测类型;所述测试安排方式包括为自测类型节点分配未执行的目标用例,以及为检测类型节点分配已执行的目标用例;
统计模块,用于根据安排方式以及控制所述测试节点执行分配至该测试节点的目标用例,统计得到测试节点的自测类型统计结果和检测类型统计结果;
开发自测质量结果确定模块,用于根据所述自测类型统计结果和检测类型统计结果,采用预设规则确定开发自测质量结果。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的程序测试的控制方法。
11.一种平台,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8中任一项所述的程序测试的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333939.2A CN110059012B (zh) | 2019-04-24 | 2019-04-24 | 一种程序测试的控制方法、装置、存储介质及平台 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333939.2A CN110059012B (zh) | 2019-04-24 | 2019-04-24 | 一种程序测试的控制方法、装置、存储介质及平台 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110059012A true CN110059012A (zh) | 2019-07-26 |
CN110059012B CN110059012B (zh) | 2022-08-23 |
Family
ID=67320542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910333939.2A Active CN110059012B (zh) | 2019-04-24 | 2019-04-24 | 一种程序测试的控制方法、装置、存储介质及平台 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110059012B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113934646A (zh) * | 2021-12-17 | 2022-01-14 | 中建电子商务有限责任公司 | 一种用于软件测试的系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329652A (zh) * | 2008-07-30 | 2008-12-24 | 中兴通讯股份有限公司 | 一种回归测试自动化系统及方法 |
US20130117609A1 (en) * | 2011-11-03 | 2013-05-09 | Tata Consultancy Services Limited | System and Method for Testing and Analyses of the Computer Applications |
CN107729255A (zh) * | 2017-11-10 | 2018-02-23 | 北京奇虎科技有限公司 | 软件测试方法、装置及系统 |
CN108255707A (zh) * | 2017-11-30 | 2018-07-06 | 平安科技(深圳)有限公司 | 测试用例的开发角色创建方法、装置、设备及存储介质 |
CN114519008A (zh) * | 2022-02-18 | 2022-05-20 | 中国农业银行股份有限公司 | 一种回归测试用例的推荐方法、装置、介质及设备 |
-
2019
- 2019-04-24 CN CN201910333939.2A patent/CN110059012B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329652A (zh) * | 2008-07-30 | 2008-12-24 | 中兴通讯股份有限公司 | 一种回归测试自动化系统及方法 |
US20130117609A1 (en) * | 2011-11-03 | 2013-05-09 | Tata Consultancy Services Limited | System and Method for Testing and Analyses of the Computer Applications |
CN107729255A (zh) * | 2017-11-10 | 2018-02-23 | 北京奇虎科技有限公司 | 软件测试方法、装置及系统 |
CN108255707A (zh) * | 2017-11-30 | 2018-07-06 | 平安科技(深圳)有限公司 | 测试用例的开发角色创建方法、装置、设备及存储介质 |
CN114519008A (zh) * | 2022-02-18 | 2022-05-20 | 中国农业银行股份有限公司 | 一种回归测试用例的推荐方法、装置、介质及设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113934646A (zh) * | 2021-12-17 | 2022-01-14 | 中建电子商务有限责任公司 | 一种用于软件测试的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110059012B (zh) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105389256B (zh) | 一种单元测试方法及系统 | |
CN107688526A (zh) | 应用程序的性能测试方法、装置、计算机设备和存储介质 | |
CN109144857A (zh) | 跨平台的算法测试方法及系统 | |
CN108446221A (zh) | 系统测试方法、装置、计算机设备和存储介质 | |
CN106294120A (zh) | 测试代码的方法、设备和计算机程序产品 | |
CN108984418A (zh) | 软件测试管理方法、装置、电子设备及存储介质 | |
CN111090478A (zh) | Erp系统业务审批流配置方法以及相关装置 | |
CN103761189B (zh) | 一种测试用例管理方法及系统 | |
CN107832207A (zh) | 接口性能测试方法、装置、存储介质和计算机设备 | |
CN107977308A (zh) | 接口测试方法及装置 | |
CN109726105A (zh) | 测试数据构造方法、装置、设备及存储介质 | |
CN108021505A (zh) | 数据上线方法、装置和计算机设备 | |
CN110188036A (zh) | 一种软件测试方法及装置 | |
CN110377471A (zh) | 接口校验数据的生成方法、装置、存储介质及电子设备 | |
US9064038B2 (en) | Method and system for combining multiple benchmarks | |
CN111966585A (zh) | 一种测试任务的执行方法、装置、设备及系统 | |
CN110059012A (zh) | 一种程序测试的控制方法、装置、存储介质及平台 | |
CN107451058A (zh) | 一种软件开发方法和装置 | |
CN109460365A (zh) | 一种系统性能测试方法、装置、设备及存储介质 | |
CN108932118A (zh) | 一种基于卡牌的需求获取模型建立方法 | |
CN105653445B (zh) | 一种满足do‑178c测试结果的实现方法 | |
CN107402883B (zh) | 一种数据测试处理方法和装置 | |
CN110489329A (zh) | 一种测试报告的输出方法、装置及终端设备 | |
CN107807885A (zh) | 任务信息显示方法及装置 | |
CN113986753A (zh) | 接口测试方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20190726 Assignee: Nanjing Manyun Cold Chain Technology Co.,Ltd. Assignor: JIANGSU MANYUN SOFTWARE TECHNOLOGY Co.,Ltd. Contract record no.: X2023980038397 Denomination of invention: A control method, device, storage medium, and platform for program testing Granted publication date: 20220823 License type: Common License Record date: 20230724 |