CN106919498A - 基准测试系统的测试指标信息的界面展示方法及系统 - Google Patents
基准测试系统的测试指标信息的界面展示方法及系统 Download PDFInfo
- Publication number
- CN106919498A CN106919498A CN201710089318.5A CN201710089318A CN106919498A CN 106919498 A CN106919498 A CN 106919498A CN 201710089318 A CN201710089318 A CN 201710089318A CN 106919498 A CN106919498 A CN 106919498A
- Authority
- CN
- China
- Prior art keywords
- test
- index information
- affairs
- benchmark
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3409—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
- G06F11/3419—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明公开了基准测试系统的测试指标信息的界面展示方法及系统,用以解决现有的基准测试系统不能针对测试过程中的性能和功能测试数据进行检测的问题。该方法包括:建立基准测试系统的测试指标信息的数据结构体;实时更新测试过程中所述测试指标信息在TPC‑E负载下的结果数据;将所述在TPC‑E负载下的结果数据以动态图标的形式展示出来。采用本发明,可以实现实时监控基准测试系统的运行情况的功能。
Description
技术领域
本发明涉及基准测试领域,尤其涉及基准测试系统的测试指标信息的界面展示方法及系统。
背景技术
基准测试是指通过设计科学的测试方法、测试工具和测试系统,实现对一类测试对象的某项性能指标进行定量的和可对比的测试。可测量、可重复、可对比是基准测试的三大原则,其中可测量是指测试的输入和输出之间是可达的,也就是测试过程是可以实现的,并且测试的结果可以量化表现;可重复是指按照测试过程实现的结果是相同的或处于可接受的置信区间之内,而不受测试的时间、地点和执行者的影响;可对比是指一类测试对象的测试结果具有线性关系,测试结果的大小直接决定性能的高低。
SQLite是一款轻型的数据库,是遵守ACID的关系型数据库管理系统,它包含在一个相对小的C库中。它的设计目标是嵌入式的,而且目前已经在很多嵌入式产品中使用了它,它占用资源非常的低,在嵌入式设备中,可能只需要几百K的内存就够了。
面向SQLite的TPC-E基准测试系统的测试过程中测试指标信息的统计和记录,建立测试结果的实时变化的界面展示机制,从而实现实时监控基准测试系统的运行情况的功能。TPC是“事务处理性能委员会”的简称。TPC不给出基准程序的代码,而只给出基准程序的标准规范。任何厂家或其它测试者都可以根据规范,最优地构造出自己的系统(测试平台和测试程序)。其中,TPC-E是指大型企业信息服务测试基准程序。
TPC已经推出了四套基准程序,被称为TPC-A、TPC-B、TPC-C和TPC-D。其中A和B已经过时,不再使用了。TPC-C是在线事务处理(OLTP)的基准程序,TPC-D是决策支持的基准程序。TPC即将推TPC-E,作为大型企业信息服务的基准程序。TPC-C的模型采用的还是过时的C/S架构,而当今WEB2.0时代的OLTP应用,大多采用流行的B/S架构,需要更大规模的并行处理能力,数据库和业务逻辑也更加复杂。为此,TPC-E从C/S架构过渡到B/S架构,数据库构成更加复杂,也更加符合实际应用,当然对服务器的性能要求也更高了。根据计算,TPC-C的硬件投入比TPC-E要高出3倍以上,由于TPC-E所需要的磁盘数量仅是TPC-C的十分之一,从而大大降低了服务器厂商搭建硬件环境的成本由此可见,TPC-E看的不仅仅是CPU的性能,服务器系统设计、操作系统与数据库软件、存储架构等都非常关键,除了一般的操作外,还包含了多表连接查询,更加复杂。
公开号为CN105068934A的专利提供了一种用于云平台的基准测试系统及方法,属于云平台管理技术领域;利用本发明该基准系统可用于开源或闭源云平台的操作系统基准测试、在开发、测试、生产环境中进行操作系统验证。对云平台中的虚拟机生命周期管理、虚拟硬盘管理、虚拟网络的管理的性能进行测试和评估,以此来评价建设的云平台是否满足客户的生产需求。该方法和系统是针对虚拟机生命周期管理、虚拟硬盘管理、虚拟网络的管理的性能的测试和评估结果进行检测,不能检测测试过程中的性能和功能测试数据。
发明内容
本发明要解决的技术问题目的在于提供基准测试系统的测试指标信息的界面展示方法及系统,用以解决现有的基准测试系统不能针对测试过程中的性能和功能测试数据进行检测的问题。
为了实现上述目的,本发明采用的技术方案为:
基准测试系统的测试指标信息的界面展示方法,包括步骤:
S1、建立基准测试系统的测试指标信息的数据结构体;
S2、实时更新测试过程中所述测试指标信息在TPC-E负载下的结果数据;
S3、将所述在TPC-E负载下的结果数据以动态图标的形式展示出来。
进一步地,所述测试指标信息的统计通过第一字典结构体进行存储。
进一步地,所述测试指标信息的统计通过记录单个事务测试执行情况的第二字典结构体和记录系统测试执行情况的第三字典结构体进行记录。
进一步地,
所述第二字典结构体通过记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数获取单个事务测试执行情况;
所述第三字典结构体通过记录系统执行时间的上限、系统开始执行时间、系统结束时间和多种事务对应的第三字典结构体获取系统测试执行情况。
进一步地,步骤S3具体包括:
设置展示所述结果数据的最小时隙;
根据最小时隙输出所述结果数据。
基准测试系统的测试指标信息的界面展示系统,包括:
建立模块,用于建立基准测试系统的测试指标信息的数据结构体;
计算模块,用于实时更新测试过程中所述测试指标信息在TPC-E负载下的结果数据;
展示模块,用于将所述在TPC-E负载下的结果数据以动态图标的形式展示出来。
进一步地,所述建立模块包括:
第一字典结构体,用于存储所述测试指标信息。
进一步地,所述建立模块还包括:
第二字典结构体,用于记录单个事务测试执行情况;
第三字典结构体,用于记录系统测试执行情况。
进一步地,
所述第二字典结构体具体用于记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数
所述第三字典结构体具体用于记录系统执行时间的上限、系统开始执行时间、系统结束时间和多种事务对应的第二字典结构体。
进一步地,所述展示模块包括:
设置单元,用于设置展示所述结果数据的最小时隙;
输出单元,用于根据最小时隙输出所述结果数据。
本发明与传统的技术相比,有如下优点:
本发明通过对基准测试系统的测试过程中测试指标信息的统计和记录,建立测试结果的实时变化的界面展示机制,从而实现实时监控基准测试系统的运行情况。
附图说明
图1为基准测试系统的测试指标信息的界面展示方法流程图;
图2为基准测试系统的测试指标信息的界面展示系统结构图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
本发明实施例提供了基准测试系统的测试指标信息的界面展示方法,如图1所示,包括步骤:
S11:建立基准测试系统的测试指标信息的数据结构体;
S12:实时更新测试过程中测试指标信息在TPC-E负载下的结果数据;
S13:将在TPC-E负载下的结果数据以动态图标的形式展示出来。
基准测试是指通过设计科学的测试方法、测试工具和测试系统,实现对一类测试对象的某项性能指标进行定量的和可对比的测试。可测量、可重复、可对比是基准测试的三大原则,其中可测量是指测试的输入和输出之间是可达的,也就是测试过程是可以实现的,并且测试的结果可以量化表现;可重复是指按照测试过程实现的结果是相同的或处于可接受的置信区间之内,而不受测试的时间、地点和执行者的影响;可对比是指一类测试对象的测试结果具有线性关系,测试结果的大小直接决定性能的高低。基准测试的关键是要获得一致的、可再现的结果。可再现的结果有两个好处:减少重新运行测试的次数;对测试的产品和产生的数字更为确信。使用的性能测试工具可能会对测试结果产生很大影响。当软件系统中增加了一个新模块,此时需要做基准测试,以判断新的模块对整个软件系统的性能影响。
本实施例通过对面向SQLite的TPC-E基准测试系统的测试过程中测试指标信息的统计和记录,建立测试结果的实时变化的界面展示机制,从而实现实时监控基准测试系统的运行情况的功能。
其中,SQLite是一款轻型的数据库,是遵守ACID的关系型数据库管理系统,它包含在一个相对小的C库中。它的设计目标是嵌入式的,而且目前已经在很多嵌入式产品中使用了它,它占用资源非常的低,在嵌入式设备中,可能只需要几百K的内存就够了。它能够支持Windows/Linux/Unix等主流的操作系统,同时能够跟很多程序语言相结合,比如Tcl、C#、PHP、Java等,还有ODBC接口,同样比起Mysql、PostgreSQL这两款开源的世界著名数据库管理系统来讲,它的处理速度比他们都快。
ACID,指数据库事务正确执行的四个基本要素的缩写。包含:原子性、一致性、隔离性、持久性。一个支持事务的数据库,必需要具有这四种特性,否则在事务过程当中无法保证数据的正确性,交易过程极可能达不到交易方的要求。事务是指访问并可能更新数据库中各种数据项的一个程序执行单元。
本实施例中,建立基准测试系统的测试指标信息的数据结构体包括第一字典结构体、第二字典结构体、第三字典结构体。
优选的,建立基准测试系统的测试指标信息的数据结构体包括Result字典结构体、SUTTxnResult字典结构体和SUTAllTxnResult字典结构体。
TPC是“事务处理性能委员会”的简称。TPC不给出基准程序的代码,而只给出基准程序的标准规范。任何厂家或其它测试者都可以根据规范,最优地构造出自己的系统(测试平台和测试程序)。其中,TPC-E是指大型企业信息服务测试基准程序。
TPC已经推出了四套基准程序,被称为TPC-A、TPC-B、TPC-C和TPC-D。其中A和B已经过时,不再使用了。TPC-C是在线事务处理(OLTP)的基准程序,TPC-D是决策支持的基准程序。TPC即将推TPC-E,作为大型企业信息服务的基准程序。TPC-C的模型采用的还是过时的C/S架构,而当今WEB2.0时代的OLTP应用,大多采用流行的B/S架构,需要更大规模的并行处理能力,数据库和业务逻辑也更加复杂。为此,TPC-E从C/S架构过渡到B/S架构,数据库构成更加复杂,也更加符合实际应用,当然对服务器的性能要求也更高了。根据计算,TPC-C的硬件投入比TPC-E要高出3倍以上,由于TPC-E所需要的磁盘数量仅是TPC-C的十分之一,从而大大降低了服务器厂商搭建硬件环境的成本由此可见,TPC-E看的不仅仅是CPU的性能,服务器系统设计、操作系统与数据库软件、存储架构等都非常关键,除了一般的操作外,还包含了多表连接查询,更加复杂。
数据字典是指对数据的数据项、数据结构、数据流、数据存储、处理逻辑、外部实体等进行定义和描述,其目的是对数据流程图中的各个元素做出详细的说明,使用数据字典为简单的建模项目。
数据字典是一种用户可以访问的记录数据库和应用程序元数据的目录。数据字典是对于数据模型中的数据对象或者项目的描述的集合,这样做有利于程序员和其他需要参考的人。分析一个用户交换的对象系统的第一步就是去辨别每一个对象,以及它与其他对象之间的关系。这个过程称为数据建模,结果产生一个对象关系图。当每个数据对象和项目都给出了一个描述性的名字之后,它的关系再进行描述(或者是成为潜在描述关系的结构中的一部分),然后再描述数据的类型(例如文本还是图像,或者是二进制数值),列出所有可能预先定义的数值,以及提供简单的文字性描述。这个集合被组织成书的形式用来参考,就叫做数据字典。
本实施例中,面向SQLite的TPC-E基准测试指标信息的统计通过Result字典结构体进行存储。其中Result字典结构具体实现代码如表1所示。
表1 Result字典结构定义和保存信息打印功能实现代码
本实施例中,面向SQLite的TPC-E基准测试指标信息的统计通过SUTTxnResult字典结构体和SUTAllTxnReslt字典结构体记录。其中SUTTxnResult字典结构体是用来记录单个事务的测试执行情况;SUTAllTxnResult字典结构体是用来记录系统测试执行情况。SUTTxnResult字典结构体和SUTAllTxnReslt字典结构体具体定义程序代码如表2所示。
表2 SUTTxnResult和SUTAllTxnResult结构体实现代码展示
本实施例中,SUTTxnResult字典结构体通过记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数获取单个事务测试执行情况。
SUTAllTxnResult字典结构体通过记录系统执行时间的上限、系统开始执行时间、系统结束时间和12种事务对应的SUTTxnResult字典结构体获取系统测试执行情况。
Result字典结构体保存SUTTxnResult字典结构体和SUTAllTxnResult字典结构体的结果数据。
本实施例中,结果数据以动态图标的形式展示出来。具体包括步骤:
设置展示结果数据的最小时隙;
根据最小时隙输出结果数据。
其中,设置最小时隙即测试指标信息打印输出的精确度。通过设定的最小时隙,定时对SUTTxnResult字典结构体、SUTAllTxnResult字典结构体和Result字典结构体中的信息进行统计、计算和结果显示输出,从而实现基准测试系统的指标信息实时监控系统。
其中显示的指标信息包括各个事务的性能实时变化情况、整个系统的性能实时变化情况、各个事务执行比例分布和每种事务的最大响应时间,从而监控基准测试系统的整体运行情况。
本发明实施例还提供了基准测试系统的测试指标信息的界面展示系统,如图2所示,包括:
建立模块21,用于建立基准测试系统的测试指标信息的数据结构体;
计算模块22,用于实时更新测试过程中测试指标信息在TPC-E负载下的结果数据;
展示模块23,用于将在TPC-E负载下的结果数据以动态图标的形式展示出来。
本实施例通过对面向SQLite的TPC-E基准测试系统的测试过程中测试指标信息的统计和记录,建立测试结果的实时变化的界面展示机制,从而实现实时监控基准测试系统的运行情况的功能。
其中,SQLite是一款轻型的数据库,是遵守ACID的关系型数据库管理系统,它包含在一个相对小的C库中。ACID,指数据库事务正确执行的四个基本要素的缩写。包含:原子性、一致性、隔离性、持久性。事务是指访问并可能更新数据库中各种数据项的一个程序执行单元。
TPC是“事务处理性能委员会”的简称。TPC不给出基准程序的代码,而只给出基准程序的标准规范。任何厂家或其它测试者都可以根据规范,最优地构造出自己的系统(测试平台和测试程序)。其中,TPC-E是指大型企业信息服务测试基准程序。
数据字典是指对数据的数据项、数据结构、数据流、数据存储、处理逻辑、外部实体等进行定义和描述,其目的是对数据流程图中的各个元素做出详细的说明,使用数据字典为简单的建模项目。数据字典是一种用户可以访问的记录数据库和应用程序元数据的目录。数据字典是对于数据模型中的数据对象或者项目的描述的集合,这样做有利于程序员和其他需要参考的人。
本实施例中,建立模块21包括:
第一字典结构体,用于存储所述测试指标信息;
第二字典结构体,用于记录单个事务测试执行情况;
第三字典结构体,用于记录系统测试执行情况。
优选的,建立模块21具体包括:
Result字典结构体,用于存储所述测试指标信息。具体实现代码如表1所示。
SUTTxnResult字典结构体,用于记录单个事务测试执行情况;
SUTTAllTxnResult字典结构体,用于记录系统测试执行情况。
SUTTxnResult字典结构体和SUTAllTxnReslt字典结构体具体定义程序代码如表2所示。
其中,SUTTxnResult字典结构体具体用于记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数
SUTTAllTxnResult字典结构体具体用于记录系统执行时间的上限、系统开始执行时间、系统结束时间和多种事务对应的SUTTAllTxnResult字典结构体。
本实施例中,展示模块23包括:
设置单元,用于设置展示结果数据的最小时隙;
输出单元,用于根据最小时隙输出结果数据。
设置最小时隙即测试指标信息打印输出的精确度。通过设定的最小时隙,定时对SUTTxnResult字典结构体、SUTAllTxnResult字典结构体和Result字典结构体中的信息进行统计、计算和结果显示输出,从而实现基准测试系统的指标信息实时监控系统。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (10)
1.基准测试系统的测试指标信息的界面展示方法,其特征在于,包括步骤:
S1、建立基准测试系统的测试指标信息的数据结构体;
S2、实时更新测试过程中所述测试指标信息在TPC-E负载下的结果数据;
S3、将所述在TPC-E负载下的结果数据以动态图标的形式展示出来。
2.根据权利要求1所述的一种基准测试系统的测试指标信息的界面展示方法,其特征在于,所述测试指标信息的统计通过第一字典结构体进行存储。
3.根据权利要求1所述的一种基准测试系统的测试指标信息的界面展示方法,其特征在于,所述测试指标信息的统计通过记录单个事务测试执行情况的第二字典结构体和记录系统测试执行情况的第三字典结构体进行记录。
4.根据权利要求3所述的一种基准测试系统的测试指标信息的界面展示方法,其特征在于,
所述第二字典结构体通过记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数获取单个事务测试执行情况;
所述第三字典结构体通过记录系统执行时间的上限、系统开始执行时间、系统结束时间和多种事务对应的第三字典结构体获取系统测试执行情况。
5.根据权利要求1所述的一种基准测试系统的测试指标信息的界面展示方法,其特征在于,步骤S3具体包括:
设置展示所述结果数据的最小时隙;
根据最小时隙输出所述结果数据。
6.基准测试系统的测试指标信息的界面展示系统,其特征在于,包括:
建立模块,用于建立基准测试系统的测试指标信息的数据结构体;
计算模块,用于实时更新测试过程中所述测试指标信息在TPC-E负载下的结果数据;
展示模块,用于将所述在TPC-E负载下的结果数据以动态图标的形式展示出来。
7.根据权利要求6所述的基准测试系统的测试指标信息的界面展示系统,其特征在于,所述建立模块包括:
第一字典结构体,用于存储所述测试指标信息。
8.根据权利要求6所述的基准测试系统的测试指标信息的界面展示系统,其特征在于,所述建立模块还包括:
第二字典结构体,用于记录单个事务测试执行情况;
第三字典结构体,用于记录系统测试执行情况。
9.根据权利要求8所述的基准测试系统的测试指标信息的界面展示系统,其特征在于,
所述第二字典结构体具体用于记录事务执行的累计时间、事务执行开始时间、事务执行结束时间和事务执行的累计次数
所述第三字典结构体具体用于记录系统执行时间的上限、系统开始执行时间、系统结束时间和多种事务对应的第二字典结构体。
10.根据权利要求6所述的基准测试系统的测试指标信息的界面展示系统,其特征在于,所述展示模块包括:
设置单元,用于设置展示所述结果数据的最小时隙;
输出单元,用于根据最小时隙输出所述结果数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710089318.5A CN106919498A (zh) | 2017-02-20 | 2017-02-20 | 基准测试系统的测试指标信息的界面展示方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710089318.5A CN106919498A (zh) | 2017-02-20 | 2017-02-20 | 基准测试系统的测试指标信息的界面展示方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106919498A true CN106919498A (zh) | 2017-07-04 |
Family
ID=59453754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710089318.5A Pending CN106919498A (zh) | 2017-02-20 | 2017-02-20 | 基准测试系统的测试指标信息的界面展示方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106919498A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345537A (zh) * | 2018-01-26 | 2018-07-31 | 北京计算机技术及应用研究所 | Tpc-c基准测试工具的并发执行控制方法 |
CN110457188A (zh) * | 2019-06-28 | 2019-11-15 | 武汉迎风聚智科技有限公司 | 可保持事务类型比例的tpc-e测试方法及测试系统 |
CN110618920A (zh) * | 2019-06-28 | 2019-12-27 | 武汉迎风聚智科技有限公司 | 应用于tpc-e测试的通讯方法以及驱动器设备 |
CN110704301A (zh) * | 2019-08-27 | 2020-01-17 | 武汉迎风聚智科技有限公司 | Tpc-e自动化测试方法以及tpc-e测试系统 |
CN111382037A (zh) * | 2018-12-28 | 2020-07-07 | 阿里巴巴集团控股有限公司 | 应用性能管理信息的展示方法及装置、设备、存储介质 |
CN113051145A (zh) * | 2021-04-08 | 2021-06-29 | 武汉极意网络科技有限公司 | 一种线上验证系统的性能检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1561036A (zh) * | 2004-02-24 | 2005-01-05 | 华中科技大学 | 基于tpc-w基准的网站服务器性能测试系统 |
CN105324756A (zh) * | 2013-07-09 | 2016-02-10 | 甲骨文国际公司 | 云服务性能调优和基准测试 |
-
2017
- 2017-02-20 CN CN201710089318.5A patent/CN106919498A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1561036A (zh) * | 2004-02-24 | 2005-01-05 | 华中科技大学 | 基于tpc-w基准的网站服务器性能测试系统 |
CN105324756A (zh) * | 2013-07-09 | 2016-02-10 | 甲骨文国际公司 | 云服务性能调优和基准测试 |
Non-Patent Citations (2)
Title |
---|
杨超: "TPC-E测试系统的设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
牛小彬: "基于OLTP的高端容错服务器性能评测TPC-E基准的研究与设计", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345537A (zh) * | 2018-01-26 | 2018-07-31 | 北京计算机技术及应用研究所 | Tpc-c基准测试工具的并发执行控制方法 |
CN111382037A (zh) * | 2018-12-28 | 2020-07-07 | 阿里巴巴集团控股有限公司 | 应用性能管理信息的展示方法及装置、设备、存储介质 |
CN111382037B (zh) * | 2018-12-28 | 2023-06-20 | 阿里巴巴集团控股有限公司 | 应用性能管理信息的展示方法及装置、设备、存储介质 |
CN110457188A (zh) * | 2019-06-28 | 2019-11-15 | 武汉迎风聚智科技有限公司 | 可保持事务类型比例的tpc-e测试方法及测试系统 |
CN110618920A (zh) * | 2019-06-28 | 2019-12-27 | 武汉迎风聚智科技有限公司 | 应用于tpc-e测试的通讯方法以及驱动器设备 |
CN110704301A (zh) * | 2019-08-27 | 2020-01-17 | 武汉迎风聚智科技有限公司 | Tpc-e自动化测试方法以及tpc-e测试系统 |
CN110704301B (zh) * | 2019-08-27 | 2020-12-29 | 武汉迎风聚智科技有限公司 | Tpc-e自动化测试方法以及tpc-e测试系统 |
CN113051145A (zh) * | 2021-04-08 | 2021-06-29 | 武汉极意网络科技有限公司 | 一种线上验证系统的性能检测方法 |
CN113051145B (zh) * | 2021-04-08 | 2022-06-28 | 武汉极意网络科技有限公司 | 一种线上验证系统的性能检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106919498A (zh) | 基准测试系统的测试指标信息的界面展示方法及系统 | |
Sánchez‐Ferro et al. | New methods for the assessment of Parkinson's disease (2005 to 2015): a systematic review | |
Sudhaman et al. | Efficiency analysis of ERP projects—software quality perspective | |
CN102968374B (zh) | 一种数据仓库测试方法 | |
US9886369B2 (en) | Dynamic data fabrication for database applications | |
Palmius | Criteria for measuring and comparing information systems | |
US9098630B2 (en) | Data selection | |
Lash et al. | Quantitative bias analysis in regulatory settings | |
Chen et al. | An empirical study on the practice of maintaining object-relational mapping code in java systems | |
Schlegel et al. | Development and quality assurance of computer-based assessment batteries | |
Wrigley et al. | Semantic evaluation at large scale (SEALS) | |
ElGamal et al. | Data warehouse testing | |
Dakrory et al. | Automated ETL testing on the data quality of a data warehouse | |
Sohail et al. | On computing the suitability of non-human resources for business process analysis | |
da Silva et al. | Concern-based cohesion as change proneness indicator: an initial empirical study | |
Bonteanu et al. | Multi-platform performance analysis for CRUD operations in relational databases from Java programs using hibernate | |
Juan et al. | Test case reusability metrics model | |
Aleyasen et al. | Intelligent automated workload analysis for database replatforming | |
Ahmad et al. | Identifying randomness related flaky tests through divergence and execution tracing | |
Adir et al. | Dynamic test data generation for data intensive applications | |
CN113886205A (zh) | 数据库性能瓶颈定位分析方法、装置、系统及存储介质 | |
Meyer et al. | Assessing the suitability of in-memory databases in an enterprise context | |
CN112199269B (zh) | 一种数据处理的方法以及相关装置 | |
Jound et al. | Comparison of performance between Raw SQL and Eloquent ORM in Laravel | |
Casas-Bayona et al. | Integrating semi-structured information using Semantic Technologies An evaluation of tools and a case study on University Rankings data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170704 |
|
RJ01 | Rejection of invention patent application after publication |