CN113836019A - 测试任务分配方法及装置、存储介质及电子设备 - Google Patents
测试任务分配方法及装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN113836019A CN113836019A CN202111120298.6A CN202111120298A CN113836019A CN 113836019 A CN113836019 A CN 113836019A CN 202111120298 A CN202111120298 A CN 202111120298A CN 113836019 A CN113836019 A CN 113836019A
- Authority
- CN
- China
- Prior art keywords
- task
- test
- data
- test task
- screened
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供一种测试任务分配方法及装置、存储介质及电子设备,该方法包括:确定待测试的软件项目;基于软件筛选规则,获取软件项目的测试任务,对于软件项目的每个测试任务,获取测试任务的风险指标数据,并将风险指标数据输入分配模型中,使得分配模型基于风险指标数据对测试任务的风险进行评估,并基于对测试任务进行评估的结果生成分配标识;基于每个测试任务的分配标识,为每个测试任务分配执行方式。通过使用分配模型评估测试软件的风险,并基于对测试软件进行评估的结果生成分配标识,并根据分配标识为测试软件分配执行方式,由此可以为测试软件分配合适的执行方式,从而提高系统的工作效率,有效提高系统的收益,使得系统的收益最大化。
Description
技术领域
本发明涉及金融技术领域,特别涉及一种测试任务分配方法及装置、存储介质及电子设备。
背景技术
随着计算机技术在银行中的普遍应用,银行中基于计算机技术开发的各种软件项目越来越多,每种软件项目在投入使用前,需要对软件项目进行测试,对软件项目进行测试的方式通常是执行软件项目的测试任务或是测试案例实现对软件项目的测试。
目前执行测试任务的方式有两种,一种是手工执行,另一种是自动执行,当测试任务为自动执行时,系统的工作效率会提高,从而提高了系统的收益,然而,并非所有的测试任务都适合自动执行的方式,如何为测试任务分配执行方式,使得系统的收益最大化成为各开发人员亟需解决的问题。
发明内容
有鉴于此,本发明提供一种测试任务分配方法及装置、存储介质及电子设备,为测试任务分配合适的执行方式,提高系统的测试效率,使得系统的收益最大化。
为实现上述目的,本发明实施例提供如下技术方案:
本申请第一发明面公开一种测试任务分配方法,包括:
确定待测试的软件项目;
基于预设的任务筛选规则,获取所述软件项目的测试任务;
对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
上述的方法,可选的,所述基于预设的任务筛选规则,获取所述软件项目的测试任务,包括:
获取所述软件项目的各个待筛选任务;
对每个所述待筛选任务进行抽象处理,得到每个所述待筛选任务的特征向量数据;
基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务。
上述的方法,可选的,所述基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务,包括:
对于每个所述待筛选任务的特征向量数据,在预设的特征数据集合中确定与所述特征向量数据对应的目标特征数据;
对于每个所述特征向量数据,获取所述特征向量数据的目标特征数据的数据标记,在所述数据标记表征为合法数据时,将所述特征向量数据所对应的待筛选任务确定为所述软件项目的测试任务。
上述的方法,可选的,所述基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式,包括:
对于每个所述测试任务,在所述分配标识为自动化标识时,为所述测试任务分配的执行方式为自动化执行;在所述分配标识手动标识时,为所述测试任务分配的执行方式为手动执行。
上述的方法,可选的,分配模型的训练过程,包括:
确定初始模型的项目信息;
确定所述项目信息所对应的各个已完成测试的软件项目;
基于预设的风险指标信息,从每个所述已完成测试的软件项目中获取风险训练数据;
使用各个所述风险训练数据对所述初始模型进行训练,不断调整所述初始模型中的神经网络的权重参数,直至所述神经网络中的收敛函数输出的数值达到预设的阈值时,完成对所述初始模型的训练,并将训练完成的初始模型作为与所述项目信息对应的分配模型。
本申请第二方面公开一种测试任务分配装置,包括:
第一确定单元,用于确定待测试的软件项目;
第一获取单元,用于基于预设的任务筛选规则,获取所述软件项目的测试任务;
风险评估单元,用于对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
分配单元,用于基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
上述的装置,可选的,所述第一获取单元,包括:
获取子单元,用于获取所述软件项目的各个待筛选任务;
抽象处理子单元,用于对每个所述待筛选任务进行抽象处理,得到每个所述待筛选任务的特征向量数据;
筛选子单元,用于基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务。
上述的装置,可选的,所述筛选子单元,包括:
确定模块,用于对于每个所述待筛选任务的特征向量数据,在预设的特征数据集合中确定与所述特征向量数据对应的目标特征数据;
获取模块,用于对于每个所述特征向量数据,获取所述特征向量数据的目标特征数据的数据标记,在所述数据标记表征为合法数据时,将所述特征向量数据所对应的待筛选任务确定为所述软件项目的测试任务。
上述的装置,可选的,所述分配单元,包括:
分配子单元,用于对于每个所述测试任务,在所述分配标识为自动化标识时,为所述测试任务分配的执行方式为自动化执行;在所述分配标识手动标识时,为所述测试任务分配的执行方式为手动执行。
上述的装置,可选的,还包括:
第二确定单元,用于确定初始模型的项目信息;
第三确定单元,用于确定所述项目信息所对应的各个已完成测试的软件项目;
第二获取单元,用于基于预设的风险指标信息,从每个所述已完成测试的软件项目中获取风险训练数据;
训练单元,用于使用各个所述风险训练数据对所述初始模型进行训练,不断调整所述初始模型中的神经网络的权重参数,直至所述神经网络中的收敛函数输出的数值达到预设的阈值时,完成对所述初始模型的训练,并将训练完成的初始模型作为与所述项目信息对应的分配模型。
本申请第三方面公开一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如上所述的测试任务分配方法。
本申请第四方面公开一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如上所述的测试任务分配方法。
与现有技术相比,本发明具有以下优点:
本发明提供一种测试任务分配方法及装置、存储介质及电子设备,该方法包括:确定待测试的软件项目;基于预设的软件筛选规则,获取软件项目的测试任务,对于软件项目的每个测试任务,获取测试任务的风险指标数据,并将风险指标数据输入预先训练完成的分配模型中,使得分配模型基于风险指标数据对测试任务的风险进行评估,并基于对测试任务进行评估的结果生成测试任务的分配标识;基于每个测试任务的分配标识,为每个测试任务分配执行方式。本发明通过使用分配模型评估测试软件的风险,并基于对测试软件进行评估的结果生成分配标识,并根据分配标识为测试软件分配执行方式,由此可以为测试软件分配合适的执行方式,从而提高系统的工作效率,有效提高系统的收益,使得系统的收益最大化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种测试任务分配方法的方法流程图;
图2为本发明实施例提供的一种测试任务分配方法的又一方法流程图;
图3为本发明实施例提供的一种测试任务分配方法的另一方法流程图;
图4为本发明实施例提供的一种测试任务分配方法的再一方法流程图;
图5为本发明实施例提供的一种神经网络的结构示例图;
图6为本发明实施例提供的一种测试任务分配装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
由背景技术可知,目前对测试任务的执行方式的分配方式通常是依赖于工作人员的经验进行分配,这种分配方式通常不考虑测试系统的写实收益,导致测试系统的测试收益难以提升。
为了解决现有技术中的问题,本发明提供了一种测试任务分配方法,该方法依据任务筛选规则获取软件项目的测试任务,并获取每个测试任务的风险指标数据,并基于每个测试任务的风险指标数据对每个测试任务的风险进行评估,并基于评估结果输出每个测试任务的分配标识,基于每个分配标识为每个测试任务分配执行方式,通过引入分配模型对测试任务的风险进行评估,从而为测试任务分配合适的执行方式,使得系统执行测试任务时花费的时间和物力最少,进而最大化的提高系统的收益。
本发明可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等;执行主体为服务器或处理器,参照图1,为本发明实施例提供的一种测试任务分配方法的方法流程图,具体说明如下所述:
S101、确定待测试的软件项目。
待测试的软件项目可以为银行中的银行软件产品,例如刚开发完成的业务产品、处于开发过程中的项目等等。
S102、基于预设的任务筛选规则,获取软件项目的测试任务。
任务筛选规则用于筛选软件项目的任务,以便得到软件项目的合法的测试任务。
参照图2,为本发明另一实施例提供的基于预设的任务筛选规则,获取软件项目的测试任务的方法流程图,具体说明如下所述:
S201、获取软件项目的各个待筛选任务。
软件项目的各个待筛选任务可以为计算机自动编写的任务或是案例,也可以是工作人员编写的任务或是案例,每个软件项目的待筛选任务有多个。
S202、对每个待筛选任务进行抽象处理,得到每个待筛选任务的特征向量数据。
待筛选任务为使用文字编写的任务,计算机不能直接识别文字,因此需要对待筛选任务进行抽象处理,将待筛选任务抽象为一系列具有特殊意义的符号,也就是特征向量,以便计算识别。
在对待筛选任务进行抽象处理时,从不同的维度对待筛选任务进行抽象处理,以便得到的特征向量数据为多维的数据。优选的,特征向量数据为六维的向量数据,具体如:待筛选任务=[任务编号,需求编号,输入域,输出域,执行域,关联任务];进一步的,每一维的特征向量对应一个有限维数据表,例如输入域对应的输入域表为:[(1,用户名),(2,密码),(3,卡号),(4,身份证号),…];输出域对应的输出域表为:[(1,余额),(2,客户号),…];执行域对应的输出域表为:[(1,根据卡号在客户编号表中查询客户编号),(2,根据卡号在余额表中查询余额),…]。
示例性的,待筛选任务为:<输入卡号查询对应卡的余额>,对待筛选任务进行抽象处理,可以得到待筛选任务的特征向量数据:[1,1,3,1,2,0]。
S203、基于各个所述待筛选任务的特征向量数据,对各个待筛选任务进行筛选,得到软件项目的测试任务。
需要说明的是,软件项目的各个待筛选任务中有些任务并非是合法的任务,需要通过特征向量数据对各个待筛选任务进行筛选,得到软件项目的合法的测试任务。
参照图3,为本发明另一实施例提供的基于各个待筛选任务的特征向量数据,对各个待筛选任务进行筛选,得到软件项目的测试任务的方法流程图,具体说明如下所述:
S301、对于每个待筛选任务的特征向量数据,在预设的特征数据集合中确定与特征向量数据对应的目标特征数据。
特征数据集合中包含多组预设特征向量数据,具体的,特征数据集合中包含合法的预设特征向量数据和不合法的预设特征向量数据。
将特征向量数据与特征数据集合中的各个预设特征向量数据进行对比,将与与特征向量数据一致的预设特征向量数据确定为与特征向量数据对应的目标特征数据。
S302、对于每个特征向量数据,获取特征向量数据的目标特征数据的数据标记,在数据标记表征为合法数据时,将特征向量数据所对应的待筛选任务确定为软件项目的测试任务。
需要说明的是,优选的,特征数据集合还可以应用由笛卡尔积描述的特征空间进行表示,其中,特征空间有多个维度,每个维度对应一种特征;需要说明的是,特征空间是稀疏的,即,并非特征空间中的每个点都对应实际中的合法的待测试案例。具体如:特征空间中的预设特征向量数据:[2,2,2,2,2,0]翻译成对应的待测试案例就是“根据密码在余额表中查询客户编号”,这显然是个不合法的任务,因此,该预设特征向量数据被标记为不合法数据。
优选的,特征数据集合中的每个预设特征向量数据均存在数据标记,该数据标记用于表征预设特征向量数据是否为合法数据。
进一步的,通过使用特征数据集合中的预设特征向量数据的数据标记,可以有效的筛选出不合法的任务,从而得到软件项目的合格的测试任务。
本发明实施例提供的方法中,通过使用特征数据集合中的预设特征向量数据的数据标记筛选任务,可以快速、自动将不合法的任务去除,从而可以得到软件项目的合法的测试任务,提高自动化程度,进而提升系统的测试收益。
本发明实施例提供的方法中,通过对待筛选任务进行抽象处理,得到待筛选任务的特征向量数据,并基于特征向量数据对各个待筛选任务进行筛选,得到软件项目的测试任务。对待筛选任务进行抽象处理,可以将手工任务特征向量化,将手工任务转换成为自动化案例,提高自动化程度,提高系统的测试收益。
S103、对于软件项目的每个测试任务,获取测试任务的风险指标数据,并将风险指标数据输入预先训练完成的分配模型中,使得分配模型基于风险指标数据对测试任务的风险进行评估,并基于对测试任务进行评估的结果输出测试任务的分配标识。
分配模型用于对测试任务的风险进行评估,以确定测试任务的风险是否可控,最后根据对测试任务的评估结果输出测试任务的分配标识。
本发明实施例提供的方法中,一个分配模型对应同一类型的各个软件项目,进一步的,在获取测试任务的风险指标数据时,是根据分配模型的评估指标进行获取的,具体的,分配模型的评估指标包含但不限于自动化测试任务的执行效率、手工测试任务的执行效率、自动化测试任务的执行通过率、手工测试任务的执行通过率、自动化测试任务的缺陷数以及手工测试任务的缺陷数。
S104、基于每个测试任务的分配标识,为每个测试任务分配执行方式。
对于每个测试任务,在分配标识为自动化标识时,为测试任务分配的执行方式为自动化执行;在分配标识手动标识时,为测试任务分配的执行方式为手动执行。
本发明实施例提供的方法中,分配模型为将测试任务的风险进行量化后建立的模型,该模型可以对测试任务的风险进行评估,进而生成测试任务的分配标识,在评估结果为风险可控时,生成的分配标识为自动化标识,从而为测试任务分配的执行方式为自动化执行;在评估结果为风险不可控时,生成的分配标识为手动标识,从而为测试任务分配的执行方式为手动执行;由此可知,在测试任务的风险可控的情况下,测试任务可以自动执行,从而提高了系统的工作效率,进而实现了在控制风险的前提下提高收益,实现了系统的风险和收益的平衡。
本发明实施例提供的方法中,确定待测试的软件项目;基于预设的软件筛选规则,获取软件项目的测试任务,对于软件项目的每个测试任务,获取测试任务的风险指标数据,并将风险指标数据输入预先训练完成的分配模型中,使得分配模型基于风险指标数据对测试任务的风险进行评估,并基于对测试任务进行评估的结果生成测试任务的分配标识;基于每个测试任务的分配标识,为每个测试任务分配执行方式。本发明通过使用分配模型评估测试软件的风险,并基于对测试软件进行评估的结果生成分配标识,并根据分配标识为测试软件分配执行方式,由此可以为测试软件分配合适的执行方式,从而提高系统的工作效率,有效提高系统的收益,使得系统的收益最大化。
本发明实施例提供的方法中,在应用本发明提供的方法之前,需要训练分配模型,具体过程参照图4,具体说明如下所述:
S401、确定初始模型的项目信息。
项目信息中包含项目类型信息,不同的模型存在不同的项目信息;具体如:不同类型的业务对应不同的初始模型,每种类型的业务对应多个软件项目。
S402、确定项目信息所对应的各个已完成测试的软件项目。
确定各个已完成测试的软件项目的项目标识,将每个项目标识与项目信息进行对比,从而筛选出与项目信息对应的各个项目标识,并将与项目信息标识对应的项目标识所属的已完成测试的软件项目确定为与项目信息对应的已完成测试的软件项目。
S403、基于预设的风险指标信息,从每个已完成测试的软件项目中获取风险训练数据。
风险指标信息中包含经过量化的风险指标的信息,从每个以完成测试的软件项目中获取风险训练数据,可将各个风险训练数据均确定初始模型的训练样本数据。
优选的,经过量化的风险指标包括但不限于:a.自动化测试案例的执行效率;b.手工测试案例的执行效率;c.自动化测试案例的执行通过率;d.手工测试案例的执行通过率;e.自动化测试案例的缺陷数;f.手工测试案例的缺陷数。
S404、使用各个风险训练数据对初始模型进行训练,不断调整初始模型中的神经网络的权重参数,直至所述神经网络中的收敛函数输出的数值达到预设的阈值时,完成对初始模型的训练,并将训练完成的初始模型作为与项目信息对应的分配模型。
参照图5,为本发明实施例提供的初始模型中的神经网络的示例图,如图所示,最左边一列表示神经网络的输入,称为输入层,对应上述的各个风险指标a-f;中间两列表示隐藏层,m表示隐藏层数,n表示每一个隐藏层的节点数,Hmn表示第m个隐藏层的第n个节点;y表示神经网络的输出,称为输出层;节点与节点间的连线构成了神经网络。采集已完成测试的软件项目的数据对神经网络进行训练,可以调整神经网络的权重值,并使用训练完成的神经网络对未来的软件项目的测试任务进行优化分配,采集待测试的软件项目的测试任务的风险指标数据,代入神经网络进行预测,使得模型中的神经网络预判该测试任务是否适合自动化执行的方式。
本发明实施例提供的方法中,通过对使用神经网络构建的初始模型进行训练,最终可以得到一个用于评估测试任务的风险,并根据评估风险输入表征测试任务的执行方式的分配标识,由此可以为测试软件分配更合适的执行方式,使得风险和收益处于均衡的状态,让系统的自动化达到合适的程度,使得系统的收益最大化。
本发明实施例提供的方法中,为了提高系统的收益,需要为软件项目的各个测试任务分配执行方式,其中,根据对测试任务的风险评估为测试任务分配执行方式,以便对软件项目进行测试时所花费的时间和投入的人力最少,使得软件项目的收益风险比最大化,从而使得系统的收益最大化。
需要说明的是,软件项目的收益风险比与软件项目的收益和总比风险存在关联,进一步的,将软件项目的收益风险比定义为其中,P为软件项目的收益,K为软件项目的总体风险;进一步的,软件项目的收益P为时间t与人力资源h的减函数,因此,P=p(t,h);软件项目的总体风险与软件项目的两个契合度有关,一个是软件项目真实的输入输出与软件需求的契合度,另一个是软件项目的业务期望与软件需求的契合度;在软件项目中,假设对需求的描述为R,业务层的期望为F,引入度量N(F,R)表示业务期望与软件项目需求的契合度,假设软件项目的最终状态是A,引入度量M(R,A)表示软件项目真实的输入输出与产品需求的契合度;优选的,在尽可能保证软件项目的真实输入输出满足软件需求时,最小化度量M(R,A);在使软件项目的软件需求尽可能与业务期望相符时,最小化度量N(F,R),软件项目的总体风险为上述两个度量的乘积,即软件项目的总体风险K=N(F,R)×M(R,A)。
综上所述,软件项目的收益风险比为:基于软件项目的收益风险比可知,软件项目的收益和软件项目的总体风险是矛盾的,要做到减少风险最直接的方式就是延长测试时间与增加人力投入,即为软件项目的测试任务选择人工执行的方式可以有效的减少风险,而根据收益风险比可知,这意味着收益将随之降低,因此,使得软件项目的收益风险比最大化,是使得系统的收益最大化的关键。
使得系统的收益最大化的关键在于对软件项目进行测试做到风险收益的均衡,提高系统的收益的关键在于增大收益,而增大收益的有效方法之一是提高软件项目的测试的自动化程度,自动化测试以程序测试程序,以脚本的运行替代手工测试,能够切实帮助项目进度的推动、提高项目的质量和协助测试人员提高工作效率,具体表现在回归测试更方便、可靠,可运行更多、更繁琐的测试,更好的利用资源,使软件更有信任度等;自动化测试的优势在于完成同样测试效果的同时,能够显著提高测试效率,并减少测试人力资源,即不改变风险K,而提升了收益P。其中,收益与风险的均衡是软件项目测试的关键,在资源有限的条件下合理进行项目资源分配是实现均衡的途径。
综上所述,本发明通过将测试任务的风险量化,进而构建可评估测试任务的风险的分配模型,使用分配模型寻找软件项目中适合自动化执行的测试任务,进一步的,适合自动化执行的测试任务为指用自动执行代替手工执行后可以控制测试任务的风险水平的任务,为这些测试任务分配的执行方式为自动执行,使用分配模型可为测试任务分配合理的执行方式,由此可以在不改变风险的情况下提高收益。
与图1所示的方法相对应的,本发明实施例还提供一种测试任务分配装置,该装置用于支持图1所示的方法在现实生活中的应用,该装置可应用于计算机终端或智能设备中,参照图6,为本发明实施例提供的一种测试任务分配装置的结构示意图,具体说明如下所述:
第一确定单元601,用于确定待测试的软件项目;
第一获取单元602,用于基于预设的任务筛选规则,获取所述软件项目的测试任务;
风险评估单元603,用于对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
分配单元604,用于基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
本发明实施例提供的装置中,确定待测试的软件项目;基于预设的软件筛选规则,获取软件项目的测试任务,对于软件项目的每个测试任务,获取测试任务的风险指标数据,并将风险指标数据输入预先训练完成的分配模型中,使得分配模型基于风险指标数据对测试任务的风险进行评估,并基于对测试任务进行评估的结果生成测试任务的分配标识;基于每个测试任务的分配标识,为每个测试任务分配执行方式。本发明通过使用分配模型评估测试软件的风险,并基于对测试软件进行评估的结果生成分配标识,并根据分配标识为测试软件分配执行方式,由此可以为测试软件分配合适的执行方式,从而提高系统的工作效率,有效提高系统的收益,使得系统的收益最大化。
本发明实施例提供的装置中,所述第一获取单元602,可以配置为:
获取子单元,用于获取所述软件项目的各个待筛选任务;
抽象处理子单元,用于对每个所述待筛选任务进行抽象处理,得到每个所述待筛选任务的特征向量数据;
筛选子单元,用于基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务。
本发明实施例提供的装置中,所述筛选子单元,可以配置为:
确定模块,用于对于每个所述待筛选任务的特征向量数据,在预设的特征数据集合中确定与所述特征向量数据对应的目标特征数据;
获取模块,用于对于每个所述特征向量数据,获取所述特征向量数据的目标特征数据的数据标记,在所述数据标记表征为合法数据时,将所述特征向量数据所对应的待筛选任务确定为所述软件项目的测试任务。
本发明实施例提供的装置中,所述分配单元604,可以配置为:
分配子单元,用于对于每个所述测试任务,在所述分配标识为自动化标识时,为所述测试任务分配的执行方式为自动化执行;在所述分配标识手动标识时,为所述测试任务分配的执行方式为手动执行。
本发明实施例提供的装置,还可以配置为:
第二确定单元,用于确定初始模型的项目信息;
第三确定单元,用于确定所述项目信息所对应的各个已完成测试的软件项目;
第二获取单元,用于基于预设的风险指标信息,从每个所述已完成测试的软件项目中获取风险训练数据;
训练单元,用于使用各个所述风险训练数据对所述初始模型进行训练,不断调整所述初始模型中的神经网络的权重参数,直至所述神经网络中的收敛函数输出的数值达到预设的阈值时,完成对所述初始模型的训练,并将训练完成的初始模型作为与所述项目信息对应的分配模型。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行以下操作:
确定待测试的软件项目;
基于预设的任务筛选规则,获取所述软件项目的测试任务;
对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器701,以及一个或者一个以上的指令702,其中一个或者一个以上指令702存储于存储器701中,且经配置以由一个或者一个以上处理器703执行所述一个或者一个以上指令702进行以下操作:
确定待测试的软件项目;
基于预设的任务筛选规则,获取所述软件项目的测试任务;
对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种测试任务分配方法,特征在于,包括:
确定待测试的软件项目;
基于预设的任务筛选规则,获取所述软件项目的测试任务;
对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
2.根据权利要求1所述的方法,其特征在于,所述基于预设的任务筛选规则,获取所述软件项目的测试任务,包括:
获取所述软件项目的各个待筛选任务;
对每个所述待筛选任务进行抽象处理,得到每个所述待筛选任务的特征向量数据;
基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务。
3.根据权利要求2所述的方法,其特征在于,所述基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务,包括:
对于每个所述待筛选任务的特征向量数据,在预设的特征数据集合中确定与所述特征向量数据对应的目标特征数据;
对于每个所述特征向量数据,获取所述特征向量数据的目标特征数据的数据标记,在所述数据标记表征为合法数据时,将所述特征向量数据所对应的待筛选任务确定为所述软件项目的测试任务。
4.根据权利要求1所述的方法,其特征在于,所述基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式,包括:
对于每个所述测试任务,在所述分配标识为自动化标识时,为所述测试任务分配的执行方式为自动化执行;在所述分配标识手动标识时,为所述测试任务分配的执行方式为手动执行。
5.根据权利要求1所述的方法,其特征在于,分配模型的训练过程,包括:
确定初始模型的项目信息;
确定所述项目信息所对应的各个已完成测试的软件项目;
基于预设的风险指标信息,从每个所述已完成测试的软件项目中获取风险训练数据;
使用各个所述风险训练数据对所述初始模型进行训练,不断调整所述初始模型中的神经网络的权重参数,直至所述神经网络中的收敛函数输出的数值达到预设的阈值时,完成对所述初始模型的训练,并将训练完成的初始模型作为与所述项目信息对应的分配模型。
6.一种测试任务分配装置,其特征在于,包括:
第一确定单元,用于确定待测试的软件项目;
第一获取单元,用于基于预设的任务筛选规则,获取所述软件项目的测试任务;
风险评估单元,用于对于所述软件项目的每个测试任务,获取所述测试任务的风险指标数据,并将所述风险指标数据输入预先训练完成的分配模型中,使得所述分配模型基于所述风险指标数据对所述测试任务的风险进行评估,并基于对所述测试任务进行评估的结果输出所述测试任务的分配标识;
分配单元,用于基于每个所述测试任务的分配标识,为每个所述测试任务分配执行方式。
7.根据权利要求6所述的装置,其特征在于,所述第一获取单元,包括:
获取子单元,用于获取所述软件项目的各个待筛选任务;
抽象处理子单元,用于对每个所述待筛选任务进行抽象处理,得到每个所述待筛选任务的特征向量数据;
筛选子单元,用于基于各个所述待筛选任务的特征向量数据,对各个所述待筛选任务进行筛选,得到所述软件项目的测试任务。
8.根据权利要求7所述的装置,所述筛选子单元,包括:
确定模块,用于对于每个所述待筛选任务的特征向量数据,在预设的特征数据集合中确定与所述特征向量数据对应的目标特征数据;
获取模块,用于对于每个所述特征向量数据,获取所述特征向量数据的目标特征数据的数据标记,在所述数据标记表征为合法数据时,将所述特征向量数据所对应的待筛选任务确定为所述软件项目的测试任务。
9.一种存储介质,其特征在于,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如权利要求1~5任意一项所述的测试任务分配方法。
10.一种电子设备,其特征在于,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如权利要求1~5任意一项所述的测试任务分配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111120298.6A CN113836019A (zh) | 2021-09-24 | 2021-09-24 | 测试任务分配方法及装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111120298.6A CN113836019A (zh) | 2021-09-24 | 2021-09-24 | 测试任务分配方法及装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113836019A true CN113836019A (zh) | 2021-12-24 |
Family
ID=78969788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111120298.6A Pending CN113836019A (zh) | 2021-09-24 | 2021-09-24 | 测试任务分配方法及装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113836019A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109324978A (zh) * | 2018-11-28 | 2019-02-12 | 北京精密机电控制设备研究所 | 一种多人协同的软件测试管理系统 |
CN110083528A (zh) * | 2019-03-19 | 2019-08-02 | 深圳壹账通智能科技有限公司 | 测试任务的分配方法、装置、计算机设备及存储介质 |
WO2020233320A1 (zh) * | 2019-05-20 | 2020-11-26 | 深圳壹账通智能科技有限公司 | 提醒任务分配方法、装置、计算机设备和存储介质 |
CN113010430A (zh) * | 2021-03-30 | 2021-06-22 | 中信银行股份有限公司 | 一种测试方式推荐方法、装置和电子设备 |
-
2021
- 2021-09-24 CN CN202111120298.6A patent/CN113836019A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109324978A (zh) * | 2018-11-28 | 2019-02-12 | 北京精密机电控制设备研究所 | 一种多人协同的软件测试管理系统 |
CN110083528A (zh) * | 2019-03-19 | 2019-08-02 | 深圳壹账通智能科技有限公司 | 测试任务的分配方法、装置、计算机设备及存储介质 |
WO2020233320A1 (zh) * | 2019-05-20 | 2020-11-26 | 深圳壹账通智能科技有限公司 | 提醒任务分配方法、装置、计算机设备和存储介质 |
CN113010430A (zh) * | 2021-03-30 | 2021-06-22 | 中信银行股份有限公司 | 一种测试方式推荐方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chatterjee et al. | Understanding AI adoption in manufacturing and production firms using an integrated TAM-TOE model | |
Tervonen et al. | Implementing stochastic multicriteria acceptability analysis | |
CN105051693B (zh) | 管理计算机服务器能力的方法、装置和系统 | |
Balci | A methodology for certification of modeling and simulation applications | |
CN112735535B (zh) | 预测模型训练、数据预测方法、装置和存储介质 | |
Gallego et al. | Open source software: The effects of training on acceptance | |
Figueiredo et al. | Innovation and co-creation in knowledge intensive business services: The Spinner model | |
US8655794B1 (en) | Systems and methods for candidate assessment | |
Fanjiang et al. | Search based approach to forecasting QoS attributes of web services using genetic programming | |
CN112016826A (zh) | 变电站设备腐蚀程度确定方法、装置和计算机设备 | |
Souza et al. | Comparing business value modeling methods: A family of experiments | |
Sehra et al. | Applications of multi-criteria decision making in software engineering | |
CN111814117A (zh) | 模型解释方法、设备及可读存储介质 | |
Akbar et al. | Classical to quantum software migration journey begins: a conceptual readiness model | |
CN108629355A (zh) | 用于生成工作量信息的方法和装置 | |
Osman et al. | Attributes for the quality in use of mobile government systems | |
Núñez et al. | CloudExpert: An intelligent system for selecting cloud system simulators | |
CN113836019A (zh) | 测试任务分配方法及装置、存储介质及电子设备 | |
Saylam et al. | A process mining approach in software development and testing process: a case study | |
CN110659947A (zh) | 商品推荐方法及装置 | |
Akgün et al. | Discriminating instance generation from abstract specifications: A case study with CP and MIP | |
Fatima et al. | Knowledge sharing, a key sustainable practice is on risk: An insight from Modern Code Review | |
Guldner et al. | Development and evaluation of a reference measurement model for assessing the resource and energy efficiency of software products and components—Green Software Measurement Model (GSMM) | |
Thantharate | SCALE-IT: Distributed and Realistic Simulation Frameworks for Testing Cloud-Based Software | |
Bukhari et al. | A conceptual framework for metrics selection: SMeS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |