CN111813662A - 用户行为驱动的可持续集成的测试方法、装置和设备 - Google Patents
用户行为驱动的可持续集成的测试方法、装置和设备 Download PDFInfo
- Publication number
- CN111813662A CN111813662A CN202010545758.9A CN202010545758A CN111813662A CN 111813662 A CN111813662 A CN 111813662A CN 202010545758 A CN202010545758 A CN 202010545758A CN 111813662 A CN111813662 A CN 111813662A
- Authority
- CN
- China
- Prior art keywords
- test
- user
- executable
- test case
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010354 integration Effects 0.000 title claims abstract description 26
- 238000010998 test method Methods 0.000 title abstract description 7
- 238000012360 testing method Methods 0.000 claims abstract description 230
- 238000000034 method Methods 0.000 claims abstract description 27
- 230000006399 behavior Effects 0.000 claims description 46
- 230000002688 persistence Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 244000035744 Hura crepitans Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013522 software testing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45591—Monitoring or debugging support
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请一种用户行为驱动的可持续集成的测试方法、装置和设备。其中所述方法包括:在用户登录待测试软件后,收集用户调用的所有接口的接口日志并进行解析,得到对应的接口基本信息和入参数据并组装测试用例,得到初步的测试用例集;根据初步的测试用例集,组装符合用户行为的可执行的自动化测试用例并进行测试;生成测试报告。如此设置,将真实用户的行为画像运用到回归测试中,从而可以更全面的覆盖更真实的操作路径,更真实的还原系统在线上的使用情况,提高系统的稳定性。此外,测试过程完全自动化完成,从而可以有效节约测试人员精力。并且,随着用户持续使用待测试软件,系统可以不断集成更多测试用例,保证测试结果的高可靠性。
Description
技术领域
本申请涉及软件测试技术领域,尤其涉及一种用户行为驱动的可持续集成的测试方法、装置和设备。
背景技术
回归测试是指软件修改了旧代码后,重新进行测试以确认修改没有引入新的错误或导致其他代码产生错误。
现阶段的回归测试仅仅局限在新增或者修改的功能部分;或者测试人员根据个人的理解和操作习惯做一些全局的回归测试;又或者项目里有一定比例覆盖率的自动回归测试的方式方法,但是难以保证全面。综上所述,由于测试人员的人力精力有限等原因,导致设计的测试用例有限,不能很好的覆盖真实场景。
发明内容
本申请提供一种用户行为驱动的可持续集成的测试方法、装置和设备,将真实用户的行为画像运用到回归测试中,从而可以更全面的覆盖更真实的操作路径,更真实的还原系统在线上的使用情况,提高系统的稳定性。
本申请的上述目的是通过以下技术方案实现的:
第一方面,本申请实施例提供一种用户行为驱动的可持续集成的测试方法,包括:
在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
分别解析各接口日志,得到对应的接口基本信息和入参数据;
根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
基于所述可执行测试用例集进行测试;
汇总测试结果,生成测试报告。
可选的,所述在用户登录待测试软件后,收集用户调用所有接口的接口日志,包括:
在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;
收集该sessionID调用的所有接口的接口日志。
可选的,所述初步的测试用例集包括多个原子级接口测试用例;
所述根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集,包括:
利用预设的自动化测试框架,基于由各所述原子级接口测试用例创建的接口类库,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集。
可选的,所述基于所述可执行测试用例集进行测试,包括:
由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;
基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试。
可选的,解析接口日志得到的接口基本信息和入参数据以及后续步骤中组装得到的各测试用例,均存储至MySQL数据库中进行持久化。
第二方面,本申请实施例还提供一种用户行为驱动的可持续集成的测试装置,包括:
收集模块,用于在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
解析模块,用于分别解析各接口日志,得到对应的接口基本信息和入参数据;
第一组装模块,用于根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
第二组装模块,用于根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
测试模块,用于基于所述可执行测试用例集进行测试;
报告生成模块,用于汇总测试结果,生成测试报告。
可选的,所述收集模块包括:
分配单元,用于在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;
收集单元,用于收集该sessionID调用的所有接口的接口日志。
可选的,所述初步的测试用例集包括多个原子级接口测试用例;
所述第二组装模块包括:
组装单元,用于利用预设的自动化测试框架,基于由各所述原子级接口测试用例创建的接口类库,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集。
可选的,所述测试模块包括:
获取单元,用于由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;
测试单元,用于基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试。
第三方面,本申请实施例还提供一种用户行为驱动的可持续集成的测试设备,包括:
存储器和与所述存储器相连接的处理器;
所述存储器,用于存储程序,所述程序至少用于执行以上任一项所述的用户行为驱动的可持续集成的测试方法;
所述处理器,用于调用并执行所述存储器存储的所述程序。
本申请的实施例提供的技术方案可以包括以下有益效果:
本申请的实施例提供的技术方案中,在用户登录待测试软件后,记录线上用户的行为画像到日志系统,通过日志系统的分析处理后,得到该用户的操作链路,再解析出对应的后台接口调用链路和数据,最终组装成测试用例并进行测试,如此设置,将真实用户的行为画像运用到回归测试中,从而可以更全面的覆盖更真实的操作路径,更真实的还原系统在线上的使用情况,提高系统的稳定性。此外,测试过程完全自动化完成,从而可以有效节约测试人员精力。并且,随着用户持续使用待测试软件,系统可以不断集成更多测试用例,保证测试结果的高可靠性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例示出的一种用户行为驱动的可持续集成的测试方法的流程示意图;
图2为本申请实施例示出的一种用户行为驱动的可持续集成的测试系统的测试流程示意图;
图3为本申请实施例示出的一种用户行为驱动的可持续集成的测试装置的结构示意图;
图4为本申请实施例示出的一种用户行为驱动的可持续集成的测试设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
实施例
请参阅图1和图2,图1为本申请实施例示出的一种用户行为驱动的可持续集成的测试方法的流程示意图,图2为本申请实施例示出的一种用户行为驱动的可持续集成的测试系统的测试流程示意图。
如图1所示,该方法包括以下步骤:
S101:在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
在实际应用中,该步骤可以设置为:在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;收集该sessionID调用的所有接口的接口日志。
其中,Session,在计算机中,尤其是在网络应用中,称为“会话控制”。Session对象存储特定用户会话所需的属性及配置信息。这样,当用户在应用程序的Web页之间跳转时,存储在Session对象中的变量将不会丢失,而是在整个用户会话中一直存在下去。本实施例中,创建的这个sessionID会伴随相应用户的整个生命周期,从而基于此sessionID记录用户的接口调用链路,也即,由系统记录所有该seesionID调用的链式接口日志,并存入日志文档。
S102:分别解析各接口日志,得到对应的接口基本信息和入参数据;
实际应用中,可以使用常用的日志处理工具来实现对接口日志的搜集和解析,例如可以使用Logstash工具,它是一个用来搜集、分析、过滤日志的工具,并且支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。本实施例中,Logstash通过流式方式收集日志,并且解析该日志内容,将解析出来的接口基本信息(例如接口全类名)和入参数据存储至MySQL数据库中进行持久化。
S103:根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
在具体实现时,可以由JAVA语言编写的用例组装系统通过监听MySQL数据库中binlog日志的变化来获取接口基本信息,其中,binlog日志是MySQLServer中的二进制日志文件,其用于记录MySQL数据库的改动,如建表、数据改动等,用例组装系统监听到binlog日志发生改变后,即可从中获取接口基本信息,之后,用例组装系统将接口信息和数据组装成标准格式的测试用例,形成初步的基于用户画像的测试用例集,最后自动push测试用例至Gitlab上。其中,Gitlab是一个用于仓库管理系统的开源项目,也即代码仓库。此外,标准格式的测试用例是指用户预先设定的测试用例格式,即测试用例中包含用户设定的特定信息。
进一步的,由于前一步骤中已经得到各接口的全类名等信息,因此,用例组装系统组装初步的测试用例时,可以组装得到多个原子级接口测试用例,进而可以基于多个原子级接口测试用例来创建一个接口类库,便于后续步骤中组装完整的测试用例。其中,原子级接口是指对应的接口仅能实现一个最基础的功能。
S104:根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
在前述步骤的基础上,用户行为数据(用户画像)已经转化成对应的测试用例,当这些用例被push至Gitlab上后,会触发Gitlab的webhook,直接驱动预设的自动化测试框架的开启。其中,webhook是一个API(Application Programming Interface,应用程序接口)概念,是微服务API的使用范式之一,也被成为反向API,特点是:前端不主动发送请求,完全由后端推送。基于Gitlab的webhook驱动自动化测试框架启动的优点在于,可以实时检测到测试用例数据的更新,并基于此快速进行后续的测试过程。
而自动化测试框架可以帮助技术人员更快速的实现自动化测试,自动化测试框架的种类很多,不过,由于本系统为基于JAVA语言实现,因此,需要采用JAVA语言对应的测试框架,例如JUnit单元测试框架、TestNG单元测试框架等,上述二者类似,但TestNG相对JUnit集成了更多依赖测试、并发测试等功能。
自动化测试框架从Gitlab中获取到初步的用例后,(如果采用TestNG测试框架)即可将原子级接口测试用例按照TestNG模式组装成符合用户行为的可执行自动化用例,并持久化于MySQL数据库。
S105:基于所述可执行测试用例集进行测试;
在具体实施时,该步骤可以包括:由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试。
目前有多种任务调度系统,在具体实施时,可以根据需要自行选择。在本实施例中,其作用包括:定时从测试用例数据库中获取可执行的测试用例,以及分配测试容器,从而完成测试。
进一步的,测试容器可以选择开源的应用容器引擎Docker,其完全使用沙箱机制,相互之间不会有任何接口。本实施例中,每个docker镜像都预先配置好测试用例运行的全套环境,因此任务调度系统按照测试用例的数量分配好Docker容器之后,即可通过脚本执行docker-compose插件,编排并启动docker集群中的docker容器,启动docker容器后,所有容器内并发执行相应的测试用例,并且测试结果通过挂载形式输出至宿主机器上。
S106:汇总测试结果,生成测试报告。
最后,汇总宿主机器上的所有测试结果,并生成测试报告,完成测试。
本申请的实施例提供的技术方案可以包括以下有益效果:
本申请的实施例提供的技术方案中,在用户登录待测试软件后,记录线上用户的行为画像到日志系统,通过日志系统的分析处理后,得到该用户的操作链路,再解析出对应的后台接口调用链路和数据,最终组装成测试用例并进行测试,如此设置,将真实用户的行为画像运用到回归测试中,从而可以更全面的覆盖更真实的操作路径,更真实的还原系统在线上的使用情况,提高系统的稳定性。此外,测试过程完全自动化完成,从而可以有效节约测试人员精力。并且,随着用户持续使用待测试软件,系统可以不断集成更多测试用例,保证测试结果的高可靠性。
为了对本申请的技术方案进行更全面的介绍,对应于本申请上述实施例提供的用户行为驱动的可持续集成的测试方法,本申请实施例还提供一种用户行为驱动的可持续集成的测试装置。
请参阅图3,图3为本申请实施例示出的一种用户行为驱动的可持续集成的测试装置的结构示意图。如图3所示,该装置包括:
收集模块21,用于在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
解析模块22,用于分别解析各接口日志,得到对应的接口基本信息和入参数据;
第一组装模块23,用于根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
第二组装模块24,用于根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
测试模块25,用于基于所述可执行测试用例集进行测试;
报告生成模块26,用于汇总测试结果,生成测试报告。
可选的,所述收集模块包括:
分配单元,用于在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;
收集单元,用于收集该sessionID调用的所有接口的接口日志。
可选的,所述初步的测试用例集包括多个原子级接口测试用例;
所述第二组装模块包括:
组装单元,用于利用预设的自动化测试框架,基于由各所述原子级接口测试用例创建的接口类库,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集。
可选的,所述测试模块包括:
获取单元,用于由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;
测试单元,用于基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试
具体的,该装置的各功能模块的具体实现方法请参阅上述实施例中的用户行为驱动的可持续集成的测试方法中的相关内容来实现,对此不再详述。
为了对本申请的技术方案进行更全面的介绍,对应于本申请上述实施例提供的用户行为驱动的可持续集成的测试方法,本申请实施例还提供一种用户行为驱动的可持续集成的测试设备。
请参阅图4,图4为本申请实施例示出的一种用户行为驱动的可持续集成的测试设备的结构示意图。如图4所示,该设备包括:
存储器31和与存储器31相连接的处理器32;
存储器31用于存储程序,所述程序至少用于执行以上实施例所述的用户行为驱动的可持续集成的测试方法;
处理器32用于调用并执行存储器31存储的所述程序
具体的,其中程序的功能的具体实现方式可以参照上述用户行为驱动的可持续集成的测试方法中的内容来实现,对此不再详述。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种用户行为驱动的可持续集成的测试方法,其特征在于,包括:
在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
分别解析各接口日志,得到对应的接口基本信息和入参数据;
根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
基于所述可执行测试用例集进行测试;
汇总测试结果,生成测试报告。
2.根据权利要求1所述的方法,其特征在于,所述在用户登录待测试软件后,收集用户调用所有接口的接口日志,包括:
在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;
收集该sessionID调用的所有接口的接口日志。
3.根据权利要求1所述的方法,其特征在于,所述初步的测试用例集包括多个原子级接口测试用例;
所述根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集,包括:
利用预设的自动化测试框架,基于由各所述原子级接口测试用例创建的接口类库,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集。
4.根据权利要求1所述的方法,其特征在于,所述基于所述可执行测试用例集进行测试,包括:
由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;
基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试。
5.根据权利要求1所述的方法,其特征在于,解析接口日志得到的接口基本信息和入参数据以及后续步骤中组装得到的各测试用例,均存储至MySQL数据库中进行持久化。
6.一种用户行为驱动的可持续集成的测试装置,其特征在于,包括:
收集模块,用于在用户登录待测试软件后,收集用户调用的所有接口的接口日志;
解析模块,用于分别解析各接口日志,得到对应的接口基本信息和入参数据;
第一组装模块,用于根据所述接口基本信息和入参数据组装测试用例,得到初步的测试用例集;
第二组装模块,用于根据所述初步的测试用例集,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集;
测试模块,用于基于所述可执行测试用例集进行测试;
报告生成模块,用于汇总测试结果,生成测试报告。
7.根据权利要求6所述的装置,其特征在于,所述收集模块包括:
分配单元,用于在用户登录待测试软件后,为该用户分配一个全局唯一的sessionID;
收集单元,用于收集该sessionID调用的所有接口的接口日志。
8.根据权利要求6所述的装置,其特征在于,所述初步的测试用例集包括多个原子级接口测试用例;
所述第二组装模块包括:
组装单元,用于利用预设的自动化测试框架,基于由各所述原子级接口测试用例创建的接口类库,组装符合用户行为的可执行的自动化测试用例,得到可执行测试用例集。
9.根据权利要求6所述的装置,其特征在于,所述测试模块包括:
获取单元,用于由预设的任务调度系统从所述可执行测试用例集中获取所有可执行的自动化测试用例;
测试单元,用于基于可执行的自动化测试用例的数量,所述任务调度系统分配合理数量的测试容器,从而在测试容器内完成测试。
10.一种用户行为驱动的可持续集成的测试设备,其特征在于,包括:
存储器和与所述存储器相连接的处理器;
所述存储器,用于存储程序,所述程序至少用于执行如权利要求1-5任一项所述的用户行为驱动的可持续集成的测试方法;
所述处理器,用于调用并执行所述存储器存储的所述程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010545758.9A CN111813662A (zh) | 2020-06-16 | 2020-06-16 | 用户行为驱动的可持续集成的测试方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010545758.9A CN111813662A (zh) | 2020-06-16 | 2020-06-16 | 用户行为驱动的可持续集成的测试方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111813662A true CN111813662A (zh) | 2020-10-23 |
Family
ID=72845106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010545758.9A Pending CN111813662A (zh) | 2020-06-16 | 2020-06-16 | 用户行为驱动的可持续集成的测试方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111813662A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113505068A (zh) * | 2021-07-09 | 2021-10-15 | 杭州遥望网络科技有限公司 | 一种http接口自动化测试方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050204201A1 (en) * | 2004-03-15 | 2005-09-15 | Ramco Systems Limited | Method and system for testing software development activity |
CN107436844A (zh) * | 2017-07-07 | 2017-12-05 | 北京奇安信科技有限公司 | 一种接口用例合集的生成方法及装置 |
CN107908549A (zh) * | 2017-10-24 | 2018-04-13 | 北京小米移动软件有限公司 | 测试用例生成方法、装置及计算机可读存储介质 |
CN109032941A (zh) * | 2018-07-20 | 2018-12-18 | 郑州云海信息技术有限公司 | 测试用例驱动的可持续集成接口自动化测试方法及系统 |
CN111221743A (zh) * | 2020-03-18 | 2020-06-02 | 时时同云科技(成都)有限责任公司 | 自动化测试方法及系统 |
-
2020
- 2020-06-16 CN CN202010545758.9A patent/CN111813662A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050204201A1 (en) * | 2004-03-15 | 2005-09-15 | Ramco Systems Limited | Method and system for testing software development activity |
CN107436844A (zh) * | 2017-07-07 | 2017-12-05 | 北京奇安信科技有限公司 | 一种接口用例合集的生成方法及装置 |
CN107908549A (zh) * | 2017-10-24 | 2018-04-13 | 北京小米移动软件有限公司 | 测试用例生成方法、装置及计算机可读存储介质 |
CN109032941A (zh) * | 2018-07-20 | 2018-12-18 | 郑州云海信息技术有限公司 | 测试用例驱动的可持续集成接口自动化测试方法及系统 |
CN111221743A (zh) * | 2020-03-18 | 2020-06-02 | 时时同云科技(成都)有限责任公司 | 自动化测试方法及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113505068A (zh) * | 2021-07-09 | 2021-10-15 | 杭州遥望网络科技有限公司 | 一种http接口自动化测试方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8074204B2 (en) | Test automation for business applications | |
US8312322B2 (en) | System for automated generation of computer test procedures | |
US7673179B2 (en) | Online testing unification system with remote test automation technology | |
CN105094783B (zh) | 安卓应用稳定性测试的方法及装置 | |
KR101132560B1 (ko) | 로봇 소프트웨어 컴포넌트를 위한 시뮬레이션 기반 인터페이스 테스팅 자동화 시스템 및 그 방법 | |
CN111651366B (zh) | Sdk测试方法、装置、设备及存储介质 | |
US20070006041A1 (en) | Analytical regression testing on a software build | |
CN112241360A (zh) | 一种测试用例生成方法、装置、设备及存储介质 | |
CN113032262A (zh) | 一种自动化仿真测试方法 | |
CN115629967A (zh) | 基于流量采集完成接口自动化用例生成及执行的方法及系统 | |
US20020116153A1 (en) | Test automation framework | |
CN113568839A (zh) | 软件测试和统计测试覆盖率的方法、装置、设备及介质 | |
CN111651342A (zh) | 基于Charles录制会话的HTTP接口自动化测试框架 | |
CN113535538A (zh) | 应用全链路自动化测试方法、装置、电子设备和存储介质 | |
CN117931666B (zh) | 一种软件无线电通信设备核心框架测试系统及方法 | |
CN114996127A (zh) | 固态硬盘固件模块智能化测试方法及系统 | |
CN112527312B (zh) | 一种嵌入式系统的测试方法和测试装置 | |
CN111813662A (zh) | 用户行为驱动的可持续集成的测试方法、装置和设备 | |
CN117493188A (zh) | 接口测试方法及装置、电子设备及存储介质 | |
CN116527553A (zh) | 一种交换机自动化测试报告的处理方法、系统及存储介质 | |
CN114860619B (zh) | 一种数据库审计程序回归测试方法和装置 | |
CN113535560B (zh) | 测试执行方法、装置、存储介质和计算设备 | |
CN116016270A (zh) | 一种交换机测试管理方法、装置、电子设备和存储介质 | |
CN112035356B (zh) | 一种web应用兼容性的自动化测试方法及系统 | |
CN113282505A (zh) | 软件测试进度分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |