CN116483730A - 基于国产软硬件和开源测试工具的业务系统自动测试方法 - Google Patents

基于国产软硬件和开源测试工具的业务系统自动测试方法 Download PDF

Info

Publication number
CN116483730A
CN116483730A CN202310519603.1A CN202310519603A CN116483730A CN 116483730 A CN116483730 A CN 116483730A CN 202310519603 A CN202310519603 A CN 202310519603A CN 116483730 A CN116483730 A CN 116483730A
Authority
CN
China
Prior art keywords
test
domestic
hardware
test case
software
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310519603.1A
Other languages
English (en)
Inventor
陈毓
左礼宸
李刚
张贞艳
谭林
曾治国
李胜广
鞠汉
黄学臻
张荣光
张腾化
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING MUNICIPAL PUBLIC SECURITY BUREAU
First Research Institute of Ministry of Public Security
Original Assignee
BEIJING MUNICIPAL PUBLIC SECURITY BUREAU
First Research Institute of Ministry of Public Security
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING MUNICIPAL PUBLIC SECURITY BUREAU, First Research Institute of Ministry of Public Security filed Critical BEIJING MUNICIPAL PUBLIC SECURITY BUREAU
Priority to CN202310519603.1A priority Critical patent/CN116483730A/zh
Publication of CN116483730A publication Critical patent/CN116483730A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3676Test management for coverage analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明提供一种基于国产软硬件和开源测试工具的业务系统自动测试方法,包括准备阶段、执行阶段、结果分析与优化阶段、持续集成与部署阶段。本发明采用自动化测试方法,能够大幅提高测试效率,减少测试时间和测试成本,可以对系统进行全面的性能测试,包括CPU、内存、磁盘、网络等各项指标,提高测试覆盖率;可以消除人为误差,更准确地检测出性能瓶颈和错误原因;可以重复执行测试用例,确保测试结果的可靠性和一致性;可以方便地集成到持续集成工具中,如Jenkins,实现持续集成和自动化测试,提高测试效率和测试覆盖率;可以提高系统性能和稳定性:通过测试结果分析和优化建议,找到系统的性能瓶颈和错误原因,优化系统性能和稳定性,提高系统可靠性。

Description

基于国产软硬件和开源测试工具的业务系统自动测试方法
技术领域
本发明涉及软件测试技术领域,具体涉及一种基于国产软硬件和开源测试工具的业务系统自动测试方法。
背景技术
在业务系统开发过程中,测试环节至关重要。传统的手动测试方法效率低下、容易出错,难以满足快速迭代和高质量的需求。近年来,自动化测试技术逐渐受到关注,但很多自动化测试方案依赖于进口软硬件和商业测试工具,成本较高,且缺乏针对性。
国外自动化测试工具有诸如Selenium、JMeter、LoadRunner等国外开源和商业自动化测试工具,虽然功能强大,但受制于国外技术,可能在适配国产软硬件和国内业务场景方面存在不足。近年来,国内也出现了一些自动化测试工具,如UFT、TestNG等,但在功能、性能和智能化方面尚有提升空间。现有的一些自动化测试方法尝试引入机器学习和人工智能技术,以提高测试用例生成的效率和质量。然而,这些方法在集成国产软硬件、开源测试工具以及支持多种业务场景方面尚有改进空间。
现有技术中,虽然存在一定数量的自动化测试工具和方法,但在充分利用国产基础软硬件、集成开源测试工具以及满足多样化业务场景的需求方面仍有不足。因此,研究并发展一种基于国产基础软硬件和开源测试工具的业务系统自动测试方法具有重要意义和市场潜力。
现有技术在自动化测试领域已经取得了一定的成果,但仍存在一些缺点,主要包括:
(1)高度依赖国外技术:许多现有自动化测试工具和框架,如Selenium、LoadRunner等,依赖于国外技术,可能在适配国产软硬件和国内业务场景方面存在局限性。
(2)成本问题:一些商业化的自动化测试工具,如HPUFT、IBMRFT等,需要购买昂贵的许可证,增加了企业的投入成本。
(3)缺乏针对性:现有自动化测试工具和框架可能在适应特定行业和业务场景方面存在不足,需要用户自行定制和扩展,增加了实施难度和维护成本。
(4)学习成本:许多自动化测试工具和框架需要掌握特定的编程语言、API和测试技巧,对于初学者和非程序员用户来说,学习成本较高。
(5)自动化程度有限:虽然现有技术实现了部分测试流程的自动化,但在测试用例生成、错误诊断等方面仍依赖人工,自动化程度有待提高。
(6)智能化程度不足:现有技术中,尽管一些方法尝试引入机器学习和人工智能技术,但在实际应用中,智能化程度仍有提升空间,如智能测试用例生成、自动错误诊断等方面。
(7)集成问题:现有技术在集成国产软硬件、开源测试工具以及支持多种业务场景方面存在局限,可能需要额外的开发和配置工作。
发明内容
针对现有技术的不足,本发明旨在提供一种基于国产软硬件和开源测试工具的业务系统自动测试方法。
为了实现上述目的,本发明采用如下技术方案:
基于国产软硬件和开源测试工具的业务系统自动测试方法,具体包括如下步骤:
一、准备阶段:
A1、选择适用于国产软硬件的开源测试工具和框架;
A2、针对目标行业和业务场景,设计和优化测试用例生成方法;
A3、集成国产软硬件环境,包括国产操作系统、国产浏览器、国产数据库;
二、执行阶段:
B1、自动生成测试用例:利用智能化的测试用例生成方法,针对目标业务场景生成测试用例;
B2、执行测试用例:在国产软硬件环境下,运行测试用例,自动执行操作;
B3、结果验证:自动比较测试用例的实际执行结果与预期结果,判断测试是否通过;
三、结果分析与优化阶段:
C1、自动生成测试报告:整合测试结果,生成详细的测试报告,包括执行情况以及通过或失败用例;
C2、自动错误诊断:应用机器学习和人工智能技术,自动识别错误原因,提供修复建议;
C3、测试用例优化:根据测试结果,自动优化测试用例,提高测试覆盖率和有效性;
四、持续集成与部署阶段:
D1、集成持续集成工具,如国产的持续集成工具;
D2、配置持续集成流程,将自动化测试脚本与代码仓库关联,实现自动执行测试;
D3、持续部署:测试通过后,自动将代码部署到生产环境。
进一步地,步骤A1中,适用于国产软硬件的开源测试工具和框架包括基于Kylin操作系统的Selenium WebDriver,用于自动化Web应用测试;JUnit和TestNG,用于Java应用的单元和集成测试,兼容国产JDK;Locust,用于测试国产数据库和Web服务的性能和负载;Pytest,用于Python应用的单元和功能测试,支持国产Python解释器。
进一步地,步骤A2的具体过程为:首先,收集和标注大量历史测试用例作为训练数据;然后,利用自然语言处理技术提取测试用例的关键特征,构建测试用例表示;接下来,使用深度学习模型训练测试用例生成器;最后,结合领域知识对生成的测试用例进行优化和筛选,确保覆盖关键功能点、边界条件和异常场景。
进一步地,步骤A3的具体过程为:
A31、使用国产操作系统搭建测试基础环境;
A32、安装国产浏览器,用于进行Web应用测试;
A33、集成国产数据库,用于数据存储和管理;
A34、使用国产中间件,满足系统集成需求;
A35、采用国产安全产品,保障测试环境安全。
进一步地,步骤B1的具体过程为:首先收集和整理业务场景需求文档,通过自然语言处理技术提取关键信息;然后,构建领域知识图谱,将业务场景、功能点、边界条件等关联起来;接着,在步骤A2中训练好的测试用例生成器中输入关键信息,生成初始测试用例,并结合领域知识对生成的测试用例进行验证。
本发明的有益效果在于:
1.提高测试效率:本发明采用自动化测试方法,能够大幅提高测试效率,减少测试时间和测试成本。
2.提高测试覆盖率:自动化测试可以对系统进行全面的性能测试,包括CPU、内存、磁盘、网络等各项指标,提高测试覆盖率。
3.提高测试精度:自动化测试消除了人为误差,可以更准确地检测出性能瓶颈和错误原因。
4.提高测试可靠性:自动化测试可以重复执行测试用例,确保测试结果的可靠性和一致性。
5.便于集成和持续集成:本发明的自动化测试方法可以方便地集成到持续集成工具中,如Jenkins,实现持续集成和自动化测试,提高测试效率和测试覆盖率。
6.提高系统性能和稳定性:通过测试结果分析和优化建议,可以找到系统的性能瓶颈和错误原因,进而优化系统性能和稳定性,提高系统可靠性。
综上所述,本发明基于国产软硬件和开源测试工具的自动测试方法相对于现有技术具有较大的优势,可以提高测试效率、测试覆盖率和测试精度,同时也有助于提高系统的性能和稳定性。
附图说明
图1为本发明实施例1的方法流程图;
图2为本发明实施例2的方法流程图;
图3为本发明实施例3的方法流程图。
具体实施方式
以下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
实施例1
本实施例提供一种基于国产软硬件和开源测试工具的业务系统自动测试方法,如图1所示,具体包括如下步骤:
一、准备阶段:
A1、选择适用于国产软硬件的开源测试工具和框架,如基于国产操作系统的测试工具、适用于国产数据库的测试框架等。包括:基于Kylin(麒麟)操作系统的SeleniumWebDriver,用于自动化Web应用测试;JUnit和TestNG,用于Java应用的单元和集成测试,兼容国产JDK;Locust,用于测试国产数据库和Web服务的性能和负载;Pytest,用于Python应用的单元和功能测试,支持国产Python解释器。这些工具和框架可帮助开发者在国产环境下高效地进行软件测试。
A2、针对目标行业和业务场景,设计和优化测试用例生成方法,如基于机器学习的智能测试用例生成策略。首先,收集和标注大量历史测试用例作为训练数据。然后,利用自然语言处理(NLP)技术提取测试用例的关键特征,构建测试用例表示。接下来,使用深度学习模型(如LSTM、Transformer)训练测试用例生成器。最后,结合领域知识对生成的测试用例进行优化和筛选,确保覆盖关键功能点、边界条件和异常场景。通过这种方法,可以提高测试用例的质量和覆盖率。
A3、集成国产软硬件环境,如国产操作系统、国产浏览器、国产数据库等,确保测试环境的稳定性和兼容性。具体过程为:A31、使用国产操作系统,如麒麟、统信等,搭建测试基础环境。A32、安装国产浏览器,如360安全浏览器、统信浏览器等,进行Web应用测试。A33、集成国产数据库,如达梦、人大金仓、神通数据库等,用于数据存储和管理。A34、使用国产中间件,如东方同、中创等,满足系统集成需求。A35、采用国产安全产品,如安全防火墙、入侵检测系统等,保障测试环境安全。通过这种集成,可以充分验证软件在国产环境下的稳定性和兼容性。
二、执行阶段:
B1、自动生成测试用例:利用智能化的测试用例生成方法,针对目标业务场景生成测试用例。首先收集和整理业务场景需求文档,通过自然语言处理(NLP)技术提取关键信息。然后,构建领域知识图谱,将业务场景、功能点、边界条件等关联起来。接着,在步骤A2中训练好的测试用例生成器中输入关键信息,生成初始测试用例,并结合领域知识对生成的测试用例进行验证。
B2、执行测试用例:在国产软硬件环境下,运行步骤B1中生成的测试用例,自动执行操作,如访问页面、输入数据、点击按钮等。
B3、结果验证:自动比较测试用例的实际执行结果与预期结果,判断测试是否通过。
三、结果分析与优化阶段:
C1、自动生成测试报告:整合测试结果,生成详细的测试报告,包括执行情况、通过/失败用例等信息。
C2、自动错误诊断:应用机器学习和人工智能技术,自动识别错误原因,提供修复建议。
C3、测试用例优化:根据测试结果,对现有测试用例进行分析和评估。找出重复、过时或无关的测试用例,根据业务需求、风险和关键性对测试用例进行优先级排序,对源代码进行测试覆盖率分析,确保测试用例覆盖了所有重要的功能和场景。通过增加缺失的测试用例,提高测试覆盖率。通过以上手段自动优化测试用例,提高测试覆盖率和有效性。
四、持续集成与部署阶段:
D1、集成持续集成工具,如国产的持续集成工具。
D2、配置持续集成流程,将自动化测试脚本与代码仓库关联,实现自动执行测试。
D3、持续部署:测试通过后,自动将代码部署到生产环境。
实施例2
本实施例提供一种实施例1的应用实例,具体是测试某业务系统在300并发下的响应时间,如图2所示。
①准备阶段:
a.选择适用于国产基础软硬件的开源测试工具。在本实施例中,选择JMeter作为性能测试工具,因为它是一个开源工具,支持国产操作系统和数据库。
b.针对特定业务场景设计和优化测试用例生成方法。根据业务系统的需求,为JMeter编写适当的测试脚本,包括访问目标网站、执行操作等。
c.集成国产软硬件环境。确保JMeter可以在国产操作系统、国产浏览器和国产数据库环境下正常运行。
②执行阶段:
a.自动生成测试用例。根据业务系统的需求,为JMeter配置测试计划,包括线程组数量(并发用户数)、循环次数等。
b.执行测试用例。运行JMeter测试计划,在300并发用户下执行性能测试。
c.结果验证。根据业务系统的性能要求,检查JMeter测试结果中的响应时间、吞吐量等指标,以判断系统是否满足需求。
③结果分析与优化阶段:
a.自动生成测试报告。使用JMeter的内置功能或第三方插件,根据测试结果生成详细的性能测试报告。
b.自动错误诊断。分析测试报告,找出性能瓶颈和错误原因,提供优化建议。
c.测试用例优化。根据测试结果和优化建议,调整JMeter测试计划,如增加/减少线程组数量、修改循环次数等。
④持续集成与部署阶段(可选):
a.集成持续集成工具。将JMeter测试计划与持续集成工具(如Jenkins)集成。
b.配置持续集成流程。配置Jenkins,使其在代码提交或构建时自动执行JMeter测试计划。
c.持续部署。如果JMeter测试通过,自动将代码部署到生产环境。
实施例3
本实施例提供一种实施例1方法的应用实例,具体是测试某业务系统部署在国产软硬件环境中的CPU性能,如图3所示。
①确定测试环境:选择适用于国产基础软硬件的CPU性能测试工具(如SPEC CPU2006等),并在目标系统上部署测试工具。
②设计测试用例:根据测试目的和要求,设计CPU负载测试用例,如负载变化测试、负载稳定性测试、极限负载测试等。
③执行测试用例:运行CPU性能测试工具,按照测试用例设置负载和测试时长,并记录测试结果。
④结果验证:对测试结果进行分析和验证,检查CPU的运行状态、负载变化情况和稳定性等指标。
⑤生成测试报告:使用测试工具的内置功能或第三方插件,生成详细的性能测试报告,包括测试结果、测试参数、测试环境、测试用例等信息。
⑥错误诊断:对测试结果进行分析,找出性能瓶颈和错误原因,提供优化建议。
⑦优化测试用例:根据测试结果和优化建议,调整测试用例,如调整负载和测试时长等。
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变和变形,而所有的这些改变和变形,都应该包括在本发明权利要求的保护范围之内。

Claims (5)

1.基于国产软硬件和开源测试工具的业务系统自动测试方法,其特征在于,具体包括如下步骤:
一、准备阶段:
A1、选择适用于国产软硬件的开源测试工具和框架;
A2、针对目标行业和业务场景,设计和优化测试用例生成方法;
A3、集成国产软硬件环境,包括国产操作系统、国产浏览器、国产数据库;
二、执行阶段:
B1、自动生成测试用例:利用智能化的测试用例生成方法,针对目标业务场景生成测试用例;
B2、执行测试用例:在国产软硬件环境下,运行测试用例,自动执行操作;
B3、结果验证:自动比较测试用例的实际执行结果与预期结果,判断测试是否通过;
三、结果分析与优化阶段:
C1、自动生成测试报告:整合测试结果,生成详细的测试报告,包括执行情况以及通过或失败用例;
C2、自动错误诊断:应用机器学习和人工智能技术,自动识别错误原因,提供修复建议;
C3、测试用例优化:根据测试结果,自动优化测试用例,提高测试覆盖率和有效性;
四、持续集成与部署阶段:
D1、集成持续集成工具,如国产的持续集成工具;
D2、配置持续集成流程,将自动化测试脚本与代码仓库关联,实现自动执行测试;
D3、持续部署:测试通过后,自动将代码部署到生产环境。
2.根据权利要求1所述的方法,其特征在于,步骤A1中,适用于国产软硬件的开源测试工具和框架包括基于Kylin操作系统的Selenium WebDriver,用于自动化Web应用测试;JUnit和TestNG,用于Java应用的单元和集成测试,兼容国产JDK;Locust,用于测试国产数据库和Web服务的性能和负载;Pytest,用于Python应用的单元和功能测试,支持国产Python解释器。
3.根据权利要求1所述的方法,其特征在于,步骤A2的具体过程为:首先,收集和标注大量历史测试用例作为训练数据;然后,利用自然语言处理技术提取测试用例的关键特征,构建测试用例表示;接下来,使用深度学习模型训练测试用例生成器;最后,结合领域知识对生成的测试用例进行优化和筛选,确保覆盖关键功能点、边界条件和异常场景。
4.根据权利要求1所述的方法,其特征在于,步骤A3的具体过程为:
A31、使用国产操作系统搭建测试基础环境;
A32、安装国产浏览器,用于进行Web应用测试;
A33、集成国产数据库,用于数据存储和管理;
A34、使用国产中间件,满足系统集成需求;
A35、采用国产安全产品,保障测试环境安全。
5.根据权利要求1所述的方法,其特征在于,步骤B1的具体过程为:首先收集和整理业务场景需求文档,通过自然语言处理技术提取关键信息;然后,构建领域知识图谱,将业务场景、功能点、边界条件等关联起来;接着,在步骤A2中训练好的测试用例生成器中输入关键信息,生成初始测试用例,并结合领域知识对生成的测试用例进行验证。
CN202310519603.1A 2023-05-10 2023-05-10 基于国产软硬件和开源测试工具的业务系统自动测试方法 Pending CN116483730A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310519603.1A CN116483730A (zh) 2023-05-10 2023-05-10 基于国产软硬件和开源测试工具的业务系统自动测试方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310519603.1A CN116483730A (zh) 2023-05-10 2023-05-10 基于国产软硬件和开源测试工具的业务系统自动测试方法

Publications (1)

Publication Number Publication Date
CN116483730A true CN116483730A (zh) 2023-07-25

Family

ID=87221370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310519603.1A Pending CN116483730A (zh) 2023-05-10 2023-05-10 基于国产软硬件和开源测试工具的业务系统自动测试方法

Country Status (1)

Country Link
CN (1) CN116483730A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117093376A (zh) * 2023-10-19 2023-11-21 中共山东省委组织部党员教育中心 一种应用于国产gpu环境下的智能识别模型适配方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117093376A (zh) * 2023-10-19 2023-11-21 中共山东省委组织部党员教育中心 一种应用于国产gpu环境下的智能识别模型适配方法

Similar Documents

Publication Publication Date Title
US11675691B2 (en) System and method for performing automated API tests
CN109189684B (zh) 基于Python的接口自动化测试方法
Hammoudi et al. Why do record/replay tests of web applications break?
CN110309071B (zh) 测试代码的生成方法及模块、测试方法及系统
US7810070B2 (en) System and method for software testing
CN110399300B (zh) 一种基于动态类型感知的Python软件模糊测试方法
CN102981958B (zh) 软件测试方法和测试装置
CN110716870B (zh) 服务的自动化测试方法及装置
CN103399814B (zh) 自动化测试的方法及装置
Li et al. Classification of software defect detected by black-box testing: An empirical study
CN116483730A (zh) 基于国产软硬件和开源测试工具的业务系统自动测试方法
CN111597104A (zh) 一种多协议适配的接口回归测试方法、系统、设备和介质
US11615016B2 (en) System and method for executing a test case
Belli et al. Event-based GUI testing and reliability assessment techniques--An experimental insight and preliminary results
CN111444109B (zh) 一种移动端ui自动化测试方法及系统
Krishna et al. Test automation of web application Login Page by using selenium ide in a web browser
Liu et al. A maintainability spreadsheet-driven regression test automation framework
CN115934559A (zh) 表单智能测试系统的测试方法
CN110309059A (zh) Ui界面测试方法、系统、计算机设备和存储介质
CN114297057A (zh) 一种自动化测试用例的设计及使用方法
CN113986263A (zh) 代码自动化测试方法、装置、电子设备、存储介质
Ahmed et al. An Adaptation Model for Android Application Testing with Refactoring
CN109669868A (zh) 软件测试的方法及系统
Samir et al. A survey on automated user interface testing for mobile applications
Fülöp et al. BEFRIEND-a benchmark for evaluating reverse engineering tools

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination