CN108763079A - 项目流自动化测试和部署的方法及其系统 - Google Patents

项目流自动化测试和部署的方法及其系统 Download PDF

Info

Publication number
CN108763079A
CN108763079A CN201810515396.1A CN201810515396A CN108763079A CN 108763079 A CN108763079 A CN 108763079A CN 201810515396 A CN201810515396 A CN 201810515396A CN 108763079 A CN108763079 A CN 108763079A
Authority
CN
China
Prior art keywords
test
code
deployment
information
automatic test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810515396.1A
Other languages
English (en)
Inventor
蔡春娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dingfeng Cattle Technology Co Ltd
Original Assignee
Shenzhen Dingfeng Cattle Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dingfeng Cattle Technology Co Ltd filed Critical Shenzhen Dingfeng Cattle Technology Co Ltd
Priority to CN201810515396.1A priority Critical patent/CN108763079A/zh
Publication of CN108763079A publication Critical patent/CN108763079A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Stored Programmes (AREA)

Abstract

本发明涉及项目流自动化测试和部署的方法及其系统,该方法包括配置项目的相关信息;根据相关信息进行开发代码,并对代码进行扫描和程序自测;根据相关信息进行项目自动化远程部署;检测URL地址,并判断程序是否成功启动;若是,则进行自动化测试;输出测试报告信息。本发明通过配置项目的相关信息,代码开发完毕后对代码进行扫码和程序自测,挑选代码的问题所在并予以解决,再根据部署配置进行项目自动化远程部署,部署后进行程序启动的判断以及自动化测试,使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。

Description

项目流自动化测试和部署的方法及其系统
技术领域
本发明涉及计算机,更具体地说是指项目流自动化测试和部署的方法及其系统。
背景技术
长期以来,软件项目的线上出错率一直困扰着人们,线上出错的原因主要有:一是应用项目的场景复杂性,二是软件项目测试的全面性。为了提高效率,流程在一定程度上对项目的进行起了指导和督促的作用,怎样在使用流程指导相关的测试工作,提高测试效率并能完好的发现软件中问题成了至今重要的话题。
一般软件上线流程是开发人员根据需求文档、UI等进行业务逻辑代码的开发,开发人员自己进行代码的测试,一般开发人员会先进行代码的单元测试,选择使用sonarQube等代码扫描工具进行一下代码的扫描操作,看下是否有隐藏的漏洞等信息,完成代码的开发,将代码提交给测试人员进行测试;测试人员拿到开发的代码进行专项的技术测试,比如mock挡板测试、接口自动化测试、性能测试等等;测试人员测试完成之后将测试通过的部署包交付给运维人员进行部署;各个环节之间是有交互和重复修改和测试的,相应的配置文件也是有调整的,必须保证每次测试人员的测试的代码和配置,且保证数据的一致性,但是现在上述的环节之间大多数是断开的,都是通过人为的进行沟通,存在了很多弊端和隐患;而且测试有很多的方面和数据,大多数是通过很多不同的软件得到的结果,很难将这些结果进行整合并个性化关联定制到系统中,另外,很多软件项目在新功能增加开发的时候,又得重新投入人力重复测试,一个软件测试通常依赖于多个系统,在部署测试的时候需要一起部署多个服务进行测试,成本较高。
因此,有必要设计一种测试和部署的方法,实现使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,可以根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。
发明内容
本发明的目的在于克服现有技术的缺陷,提供项目流自动化测试和部署的方法及其系统。
为实现上述目的,本发明采用以下技术方案:项目流自动化测试和部署的方法,所述方法包括:
配置项目的相关信息;
根据相关信息进行开发代码,并对代码进行扫描和程序自测;
根据相关信息进行项目自动化远程部署;
检测URL地址,并判断程序是否成功启动;
若是,则进行自动化测试;
输出测试报告信息。
其进一步技术方案为:配置项目的相关信息的步骤,所述相关信息包括项目代码信息、账号信息、需要部署的服务器信息、部署配置以及执行的命令中至少一个。
其进一步技术方案为:根据相关信息进行开发代码,并对代码进行扫描和程序自测的步骤,包括以下具体步骤:
配置代码库地址、类型和分支信息;
远程拉取代码,对代码进行编译扫描;
获取扫描的数据报告信息;
根据报告信息中的问题,进行问题定位和具体修改操作。
其进一步技术方案为:根据相关信息进行开发代码,并对行代码扫描和程序自测的步骤之前,还包括:
根据需求进行测试前的准备工作。
其进一步技术方案为:根据需求进行测试前的准备工作的步骤,所述准备工作包括测试用例的编写、自动化计划编写、接口自动化编写以及性能计划编写中至少一个。
其进一步技术方案为:检测URL地址,并判断程序是否成功启动的步骤,包括以下具体步骤:
获取代码中录入的URL地址链接;
根据链接循环请求判断URL地址是否存在且能成功返回数据;
若是,则跳出循环,并标记程序成功启动;
若否,则抛出节点异常的通知,并标记程序未成功启动。
其进一步技术方案为:进行自动化测试的步骤,所述自动化测试包括接口自动化测试、性能自动化测试以及用例执行测试中至少一个。
本发明还提供了项目流自动化测试和部署的系统,包括信息配置单元、自测单元、部署单元、检测判断单元、测试单元以及报告输出单元;
所述信息配置单元,用于配置项目的相关信息;
所述自测单元,用于根据相关信息进行开发代码,并对代码进行扫描和程序自测;
所述部署单元,用于根据相关信息进行项目自动化远程部署;
所述检测判断单元,用于检测URL地址,并判断程序是否成功启动;
所述测试单元,用于若是,则进行自动化测试;
所述报告输出单元,用于输出测试报告信息。
其进一步技术方案为:所述自测单元包括配置模块、扫描模块、报告获取模块以及定位模块;
所述配置模块,用于配置代码库地址、类型和分支信息;
所述扫描模块,用于远程拉取代码,对代码进行编译扫描;
所述报告获取模块,用于获取扫描的数据报告信息;
所述定位模块,用于根据报告信息中的问题,进行问题定位和具体修改操作。
其进一步技术方案为:所述系统还包括准备单元;
所述准备单元,用于根据需求进行测试前的准备工作。
本发明与现有技术相比的有益效果是:本发明的项目流自动化测试和部署的方法,通过配置项目的相关信息,在代码开发完毕后对代码进行扫码和程序自测,挑选出代码的问题所在并予以解决,再根据部署配置进行项目自动化远程部署,部署后进行程序启动的判断以及自动化测试,使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
图1为本发明具体实施例提供的项目流自动化测试和部署的方法的流程图;
图2为本发明具体实施例提供的根据相关信息进行开发代码并对行代码扫描和程序自测的流程图;
图3为本发明具体实施例提供的检测URL地址并判断程序是否成功启动的流程图;
图4为本发明具体实施例提供的项目流自动化测试和部署的方法的框架图;
图5为本发明具体实施例提供的项目流自动化测试和部署的系统的结构框图;
图6为本发明具体实施例提供的自测单元的结构框图;
图7为本发明具体实施例提供的检测判断单元的结构框图。
具体实施方式
为了更充分理解本发明的技术内容,下面结合具体实施例对本发明的技术方案进一步介绍和说明,但不局限于此。
如图1~7所示的具体实施例,本实施例提供的项目流自动化测试和部署的方法,可以运用于软件开发和测试等过程,实现使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,可以根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。
如图1所示,本实施例提供了项目流自动化测试和部署的方法,该方法包括:
S1、配置项目的相关信息;
S2、根据相关信息进行开发代码,并对代码进行扫描和程序自测;
S3、根据相关信息进行项目自动化远程部署;
S4、检测URL地址,并判断程序是否成功启动;
S5、若是,则进行自动化测试;
S6、输出测试报告信息。
对于上述的S1步骤,配置项目的相关信息的步骤,上述的相关信息包括项目代码信息、账号信息、需要部署的服务器信息、部署配置以及执行的命令中至少一个。
具体地,上述的项目代码信息包括代码库地址、项目关键字、清除数据、 POM地址、URL类型、账号标识。分支名称、子目录、编译命令以及删除的文件路径。
如图2所示,更进一步地,上述的S2步骤,根据相关信息进行开发代码,并并对代码进行扫描和程序自测的步骤,包括以下具体步骤:
S21、配置代码库地址、类型和分支信息;
S22、远程拉取代码,对代码进行编译扫描;
S23、获取扫描的数据报告信息;
S24、根据报告信息中的问题,进行问题定位和具体修改操作。
对于上述的S21步骤至S24步骤,开发人员在平台配置好代码库地址、类型和分支信息,在项目流运行测试的时候,自动从远程拉取代码,对代码进行编译扫描,自动根据每次提交获取每次扫描得到的结果和问题列表,即获取到扫描的数据报告信息,以便查看及定位到问题所在的代码行信息;具体地,获取到数据报告信息包括文件数目、注释比例、重复比例、违规数、坏文件、Bug、漏洞。开发阶段先进行代码扫描和自测,让初步问题浮现并解决,为软件项目提供一些软件项目自动化测试依据和实践,帮助用户在软件项目中提高测试效率,并能保证软件项目测试的各项指标正常进行。将开发测试运维几个环节关联起来,将很多配置数据、代码信息等都进行透明化一致性,避免人为传输沟通存在差异,确保环境之间的一致性,不会存在开发的时候代码是一份、测试的时候是一份、运维的时候又是一份且这三份代码有可能是有差异的。
于其他实施例,在上述的S2步骤,根据相关信息进行开发代码,并对行代码扫描和程序自测的步骤之前,还包括:
根据需求进行测试前的准备工作。
具体地,上述的准备工作包括测试用例的编写、自动化计划编写、接口自动化编写以及性能计划编写中至少一个。
对于测试用例的编写而言,用例在实施测试时作为测试的标准,测试人员会按照用例进行实施测试,并对测试情况记录在用例结果中,用户可以在平台进行用例的编写,包括用例名称、唯一标识、优先级、前置条件、状态、用例类型以及用例步骤。
对于自动化计划编写而言,自动化计划关联相应的接口信息(包含接口的 url、参数等),用户在针对系统进行自动化计划编写之后,在执行自动化计划的时候就会相应的执行接口,从而达到自动化测试的目的;该自动化计划编写包括创建人、计划名称、计划描述、测试集、执行时间类型、执行时间和执行环境。
对于上述的性能计划编写而言,性能计划是针对程序的性能方面的计划编写,主要是应对高并发、大批量数据的处理进行的压测功能,在项目流运行的时候会调用触发执行相应的性能计划相关的测试;具体地,上述的性能计划编写包括ID、名称、描述、状态、公司、部门、系统、脚本、场景、监控机、创造人以及操作。
对于上述的S3步骤,开发自测扫描成功后根据部署配置进行自动化远程部署,可以部署一个或者多个项目到一个或者多个服务器中,有效与很多第三方中间件进行集成,比如:sonarQube、jenkins、git、svn、jaccoo等,利用这些中间件的底层技术去实现并存储项目中相关的数据,通过关联到项目,将相应的报告报表等数据进行动态的整合;将测试部署等操作自动化,不需要人为的去干预,也不需要人为的去服务器配置不同环境的配置文件信息;通过自动化部署测试,将过程运行等自动化,节省人力成本。
上述的部署过程依据具备账号标识、存放的路径地址、远程执行命令、上传文件地址和校验地址的部署配置进行部署。
更进一步地,如图3所示,上述的S4步骤,检测URL地址,并判断程序是否成功启动的步骤,包括以下具体步骤:
S41、获取代码中录入的URL地址链接;
S42、根据链接循环请求判断URL地址是否存在且能成功返回数据;
S43、若是,则跳出循环,并标记程序成功启动;
S44、若否,则抛出节点异常的通知,并标记程序未成功启动。
具体地,上述的S41步骤至S44步骤、S5步骤,远程部署之后自动检测URL 地址判断程序是否完全成功启动,根据录入的URL地址链接,循环定时4分钟请求判断URL是否存在并且能成功返回数据,成功返回则跳出循环,否则40分钟之后节点抛出异常,认为程序未成功启动,不进行后续的自动化测试。启动成功之后进行后续的一系列的自动化测试,具体地,上述的自动化测试包括接口自动化测试、性能自动化测试以及用例执行测试中至少一个。
对于上述的S6步骤,输出的测试报告信息包括接口自动化覆盖率、接口自动化执行表、性能测试执行统计、性能脚本统计等内容。
在新功能开发的时候,测试人员可以根据代码的差异性进行针对性的测试与验证,原先的测试直接走自动化验证,节省人力投入成本。针对一个或者多个软件项目进行部署测试,真正做到整个应用软件系统的整体关联测试,而不是只是单个系统内部测试,针对本次项目的修改点进行部署测试,不用全盘进行部署,可以选择单个或者多个进行部署,步骤简单,速度快,内容广,可大规模部署,适用于开发、测试、运维人员。
上述的项目流自动化测试和部署的方法,通过配置项目的相关信息,在代码开发完毕后对代码进行扫码和程序自测,挑选出代码的问题所在并予以解决,再根据部署配置进行项目自动化远程部署,部署后进行程序启动的判断以及自动化测试,使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。
如图5所示,本实施例还提供了项目流自动化测试和部署的系统,其包括信息配置单元1、自测单元2、部署单元3、检测判断单元4、测试单元5以及报告输出单元6。
信息配置单元1,用于配置项目的相关信息,该相关信息包括项目代码信息、账号信息、需要部署的服务器信息、部署配置以及执行的命令中至少一个;项目代码信息包括代码库地址、项目关键字、清除数据、POM地址、URL类型、账号标识。分支名称、子目录、编译命令以及删除的文件路径。
自测单元2,用于根据相关信息进行开发代码,并对代码进行扫描和程序自测。
部署单元3,用于根据相关信息进行项目自动化远程部署。
检测判断单元4,用于检测URL地址,并判断程序是否成功启动。
测试单元5,用于若是,则进行自动化测试。
报告输出单元6,用于输出测试报告信息。
如图6所示,上述的自测单元2包括配置模块21、扫描模块22、报告获取模块23以及定位模块24。
配置模块21,用于配置代码库地址、类型和分支信息。
扫描模块22,用于远程拉取代码,对代码进行编译扫描。
报告获取模块23,用于获取扫描的数据报告信息。
定位模块24,用于根据报告信息中的问题,进行问题定位和具体修改操作。
开发人员在平台配置好代码库地址、类型和分支信息,在项目流运行测试的时候,自动从远程拉取代码,对代码进行编译扫描,自动根据每次提交获取每次扫描得到的结果和问题列表,即获取到扫描的数据报告信息,以便查看及定位到问题所在的代码行信息;具体地,获取到数据报告信息包括文件数目、注释比例、重复比例、违规数、坏文件、Bug、漏洞。开发阶段先进行代码扫描和自测,让初步问题浮现并解决,为软件项目提供一些软件项目自动化测试依据和实践,帮助用户在软件项目中提高测试效率,并能保证软件项目测试的各项指标正常进行。将开发测试运维几个环节关联起来,将很多配置数据、代码信息等都进行透明化一致性,避免人为传输沟通存在差异,确保环境之间的一致性,不会存在开发的时候代码是一份、测试的时候是一份、运维的时候又是一份且这三份代码有可能是有差异的。
于其他实施例,上述的系统还包括准备单元;准备单元,用于根据需求进行测试前的准备工作。
具体地,上述的准备工作包括测试用例的编写、自动化计划编写、接口自动化编写以及性能计划编写中至少一个。
对于测试用例的编写而言,用例在实施测试时作为测试的标准,测试人员会按照用例进行实施测试,并对测试情况记录在用例结果中,用户可以在平台进行用例的编写,包括用例名称、唯一标识、优先级、前置条件、状态、用例类型以及用例步骤。
对于自动化计划编写而言,自动化计划关联相应的接口信息(包含接口的url、参数等),用户在针对系统进行自动化计划编写之后,在执行自动化计划的时候就会相应的执行接口,从而达到自动化测试的目的;该自动化计划编写包括创建人、计划名称、计划描述、测试集、执行时间类型、执行时间和执行环境。
对于上述的性能计划编写而言,性能计划是针对程序的性能方面的计划编写,主要是应对高并发、大批量数据的处理进行的压测功能,在项目流运行的时候会调用触发执行相应的性能计划相关的测试;具体地,上述的性能计划编写包括ID、名称、描述、状态、公司、部门、系统、脚本、场景、监控机、创造人以及操作。
对于上述的部署单元3,开发自测扫描成功后根据部署配置进行自动化远程部署,可以部署一个或者多个项目到一个或者多个服务器中,有效与很多第三方中间件进行集成,比如:sonarQube、jenkins、git、svn、jaccoo等,利用这些中间件的底层技术去实现并存储项目中相关的数据,通过关联到项目,将相应的报告报表等数据进行动态的整合;将测试部署等操作自动化,不需要人为的去干预,也不需要人为的去服务器配置不同环境的配置文件信息;通过自动化部署测试,将过程运行等自动化,节省人力成本。
上述的部署过程依据具备账号标识、存放的路径地址、远程执行命令、上传文件地址和校验地址的部署配置进行部署。
更进一步地,上述的检测判断单元4包括链接获取模块41、判断模块42、成功启动标记模块43以及异常通知模块44。
链接获取模块41,用于获取代码中录入的URL地址链接。
判断模块42,用于根据链接循环请求判断URL地址是否存在且能成功返回数据。
成功启动标记模块43,用于若是,则跳出循环,并标记程序成功启动。
异常通知模块44,用于若否,则抛出节点异常的通知,并标记程序未成功启动。
具体地,远程部署之后自动检测URL地址判断程序是否完全成功启动,根据录入的URL地址链接,循环定时4分钟请求判断URL是否存在并且能成功返回数据,成功返回则跳出循环,否则40分钟之后节点抛出异常,认为程序未成功启动,不进行后续的自动化测试。启动成功之后进行后续的一系列的自动化测试,具体地,上述的自动化测试包括接口自动化测试、性能自动化测试以及用例执行测试中至少一个。
对于上述的述报告输出单元6,输出的测试报告信息包括接口自动化覆盖率、接口自动化执行表、性能测试执行统计、性能脚本统计等内容。
在新功能开发的时候,测试人员可以根据代码的差异性进行针对性的测试与验证,原先的测试直接走自动化验证,节省人力投入成本。针对一个或者多个软件项目进行部署测试,真正做到整个应用软件系统的整体关联测试,而不是只是单个系统内部测试,针对本次项目的修改点进行部署测试,不用全盘进行部署,可以选择单个或者多个进行部署,步骤简单,速度快,内容广,可大规模部署,适用于开发、测试、运维人员。
上述的项目流自动化测试和部署的系统,通过配置项目的相关信息,在代码开发完毕后对代码进行扫码和程序自测,挑选出代码的问题所在并予以解决,再根据部署配置进行项目自动化远程部署,部署后进行程序启动的判断以及自动化测试,使用同一套配置进行管理,自动化编译部署,解决人为操作的差异性问题,在新功能开发时,根据代码的差异性进行针对性的测试与验证,原先的测试可以直接走自动化验证,节省人力投入成本。
上述仅以实施例来进一步说明本发明的技术内容,以便于读者更容易理解,但不代表本发明的实施方式仅限于此,任何依本发明所做的技术延伸或再创造,均受本发明的保护。本发明的保护范围以权利要求书为准。

Claims (10)

1.项目流自动化测试和部署的方法,其特征在于,所述方法包括:
配置项目的相关信息;
根据相关信息进行开发代码,并对代码进行扫描和程序自测;
根据相关信息进行项目自动化远程部署;
检测URL地址,并判断程序是否成功启动;
若是,则进行自动化测试;
输出测试报告信息。
2.根据权利要求1所述的项目流自动化测试和部署的方法,其特征在于,配置项目的相关信息的步骤,所述相关信息包括项目代码信息、账号信息、需要部署的服务器信息、部署配置以及执行的命令中至少一个。
3.根据权利要求1所述的项目流自动化测试和部署的方法,其特征在于,根据相关信息进行开发代码,并对代码进行扫描和程序自测的步骤,包括以下具体步骤:
配置代码库地址、类型和分支信息;
远程拉取代码,对代码进行编译扫描;
获取扫描的数据报告信息;
根据报告信息中的问题,进行问题定位和具体修改操作。
4.根据权利要求3所述的项目流自动化测试和部署的方法,其特征在于,根据相关信息进行开发代码,并对行代码扫描和程序自测的步骤之前,还包括:
根据需求进行测试前的准备工作。
5.根据权利要求4所述的项目流自动化测试和部署的方法,其特征在于,根据需求进行测试前的准备工作的步骤,所述准备工作包括测试用例的编写、自动化计划编写、接口自动化编写以及性能计划编写中至少一个。
6.根据权利要求1至5任一项所述的项目流自动化测试和部署的方法,其特征在于,检测URL地址,并判断程序是否成功启动的步骤,包括以下具体步骤:
获取代码中录入的URL地址链接;
根据链接循环请求判断URL地址是否存在且能成功返回数据;
若是,则跳出循环,并标记程序成功启动;
若否,则抛出节点异常的通知,并标记程序未成功启动。
7.根据权利要求6所述的项目流自动化测试和部署的方法,其特征在于,进行自动化测试的步骤,所述自动化测试包括接口自动化测试、性能自动化测试以及用例执行测试中至少一个。
8.项目流自动化测试和部署的系统,其特征在于,包括信息配置单元、自测单元、部署单元、检测判断单元、测试单元以及报告输出单元;
所述信息配置单元,用于配置项目的相关信息;
所述自测单元,用于根据相关信息进行开发代码,并对代码进行扫描和程序自测;
所述部署单元,用于根据相关信息进行项目自动化远程部署;
所述检测判断单元,用于检测URL地址,并判断程序是否成功启动;
所述测试单元,用于若是,则进行自动化测试;
所述报告输出单元,用于输出测试报告信息。
9.根据权利要求8所述的项目流自动化测试和部署的系统,其特征在于,所述自测单元包括配置模块、扫描模块、报告获取模块以及定位模块;
所述配置模块,用于配置代码库地址、类型和分支信息;
所述扫描模块,用于远程拉取代码,对代码进行编译扫描;
所述报告获取模块,用于获取扫描的数据报告信息;
所述定位模块,用于根据报告信息中的问题,进行问题定位和具体修改操作。
10.根据权利要求9所述的项目流自动化测试和部署的系统,其特征在于,所述系统还包括准备单元;
所述准备单元,用于根据需求进行测试前的准备工作。
CN201810515396.1A 2018-05-25 2018-05-25 项目流自动化测试和部署的方法及其系统 Withdrawn CN108763079A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810515396.1A CN108763079A (zh) 2018-05-25 2018-05-25 项目流自动化测试和部署的方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810515396.1A CN108763079A (zh) 2018-05-25 2018-05-25 项目流自动化测试和部署的方法及其系统

Publications (1)

Publication Number Publication Date
CN108763079A true CN108763079A (zh) 2018-11-06

Family

ID=64006634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810515396.1A Withdrawn CN108763079A (zh) 2018-05-25 2018-05-25 项目流自动化测试和部署的方法及其系统

Country Status (1)

Country Link
CN (1) CN108763079A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828917A (zh) * 2019-01-04 2019-05-31 烽火通信科技股份有限公司 一种全流程自动化的持续集成管理方法及系统
CN112650670A (zh) * 2020-12-17 2021-04-13 京东数科海益信息科技有限公司 应用测试方法、装置、系统、电子设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828917A (zh) * 2019-01-04 2019-05-31 烽火通信科技股份有限公司 一种全流程自动化的持续集成管理方法及系统
CN112650670A (zh) * 2020-12-17 2021-04-13 京东数科海益信息科技有限公司 应用测试方法、装置、系统、电子设备和存储介质

Similar Documents

Publication Publication Date Title
Li et al. A survey on model-based testing tools for test case generation
CN104424088B (zh) 软件的测试方法及装置
Gross et al. Search-based system testing: high coverage, no false alarms
US6986125B2 (en) Method and apparatus for testing and evaluating a software component using an abstraction matrix
CN103577324B (zh) 移动应用中隐私信息泄露的静态检测方法
CN103377120B (zh) 一种应用程序测试方法及装置
CN102012814B (zh) 软件版本的构建方法和系统
US20020091968A1 (en) Object-oriented data driven software GUI automated test harness
CN109726107A (zh) 测试方法、装置、设备及存储介质
CN104731566B (zh) 集成开发环境测试装置、方法及系统
CN106250178A (zh) 通过多语言云编译实现系统动态功能在线拦截扩展的方法
CN104156224B (zh) 一种软件构建持续集成方法及系统
CN105094783A (zh) 安卓应用稳定性测试的方法及装置
CN106330599B (zh) Android应用程序网络流量多线程采集系统及方法
CN105653946A (zh) 基于组合事件行为触发的Android恶意行为检测系统及其检测方法
CN108491330A (zh) 一种应用于卫星cpu软件在轨重构的试验验证系统及其方法
Valetto et al. A case study in software adaptation
CN112650670A (zh) 应用测试方法、装置、系统、电子设备和存储介质
CN108763079A (zh) 项目流自动化测试和部署的方法及其系统
CN107480048A (zh) 测试工具生成方法、装置、存储介质及计算机设备
CN117370203A (zh) 自动化测试方法、系统、电子设备及存储介质
Mao et al. FAUSTA: scaling dynamic analysis with traffic generation at whatsapp
Suganya et al. A study of object oriented testing techniques: Survey and challenges
Mateo Navarro et al. A proposal for automatic testing of GUIs based on annotated use cases
Nahar et al. SSTF: A novel automated test generation framework using software semantics and syntax

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20181106