WO2019218444A1 - 测试报告的生成方法、装置、设备及存储介质 - Google Patents

测试报告的生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2019218444A1
WO2019218444A1 PCT/CN2018/094801 CN2018094801W WO2019218444A1 WO 2019218444 A1 WO2019218444 A1 WO 2019218444A1 CN 2018094801 W CN2018094801 W CN 2018094801W WO 2019218444 A1 WO2019218444 A1 WO 2019218444A1
Authority
WO
WIPO (PCT)
Prior art keywords
test
data
target
report
test data
Prior art date
Application number
PCT/CN2018/094801
Other languages
English (en)
French (fr)
Inventor
臧慧芝
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2019218444A1 publication Critical patent/WO2019218444A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software

Definitions

  • the present application relates to the field of data processing, and in particular, to a method, an apparatus, a device, and a computer readable storage medium for generating a test report.
  • the application generates a large amount of test data when the test runs.
  • only a large amount of test data is simply distinguished according to the version of the application, and the related test data is not managed.
  • the storage granularity is too coarse, that is, the test data type is large, and the abnormal conditions of each type of data are different, when the data report is generated according to the existing test data, not only the data analysis work is performed. The amount is huge and the data search is inefficient.
  • the main purpose of the present application is to provide a method, a device, a device, and a computer readable storage medium for generating test reports, which aim to solve the technical problems of large analysis workload and low search efficiency of existing test data.
  • the present application provides a method for generating a test report, and the method for generating the test report includes the following steps:
  • test data is imported into a preset display model, a corresponding test chart is generated, and a corresponding test evaluation report is generated according to the test case and the test chart corresponding to the test data.
  • the present application further provides a device for generating a test report, where the device for generating the test report includes:
  • the access classification module is configured to access the test information sent by the external interface through the preset interface, parse the test data in the test information, obtain a data type identifier of the test data, and use the test data according to the data.
  • Type identifiers are stored in categories;
  • a use case association module configured to acquire a test case corresponding to the test data in the test information, and associate the test case with the classified test data;
  • a report generation module configured to: when the report generation instruction is detected, import the test data into a preset display model, generate a corresponding test chart, and generate a corresponding test evaluation report according to the test case and the test chart corresponding to the test data; .
  • the present application further provides a test report generating device, where the test report generating device includes a processor, a memory, and a test report stored on the memory and executable by the processor.
  • the step of generating a readable instruction wherein the generation of the readable instruction of the test report by the processor, implements the method of generating the test report as described above.
  • the present application further provides a computer readable storage medium having stored thereon a test readable instruction for generating a test report, wherein the test report generates a readable instruction by a processor When executed, the steps of the method of generating the test report as described above are implemented.
  • the application provides a method for generating a test report.
  • the method for generating the test report accesses the test information sent by the external interface through a preset interface, parses the test data in the test information, and obtains the data type identifier of the test data. And storing the test data according to the data type identifier; acquiring a test case corresponding to the test data in the test information, and associating the test case with the classified test data;
  • the report generation instruction is detected, the test data is imported into a preset display model, a corresponding test chart is generated, and a corresponding test evaluation report is generated according to the test case and the test chart corresponding to the test data.
  • test data is classified and stored according to the data type and the test case, so as to facilitate the corresponding search of the test data, reduce the workload of data search and analysis, improve the efficiency of the search and analysis, solve the analysis workload of the existing test data and find Inefficient technical problems.
  • FIG. 1 is a schematic structural diagram of hardware of a device for generating a test report involved in an embodiment of the present application
  • FIG. 2 is a schematic flowchart of a first embodiment of a method for generating a test report according to the present application
  • FIG. 3 is a schematic flowchart of a second embodiment of a method for generating a test report according to the present application
  • FIG. 4 is a schematic flowchart of a third embodiment of a method for generating a test report according to the present application.
  • FIG. 5 is a schematic flowchart diagram of a fourth embodiment of a method for generating a test report according to the present application
  • FIG. 6 is a schematic diagram of functional modules of a first embodiment of a device for generating a test report according to the present application.
  • the terminal in the embodiment of the present application may be a fixed terminal or a mobile terminal, wherein the fixed terminal is an "Internet of Things device", a smart air conditioner with networking function, a smart electric light, a smart power source, etc.; a mobile terminal, such as an AR with networking function /VR device, smart speaker, self-driving car, PC, smart phone, tablet computer, e-book reader, portable computer and other terminal devices with display function, the test device generation device in this application may be a component of the terminal, It can also be used as a separate terminal, and at the same time, the generating device of the test report can also implement the method of generating the test report of the present application by communicating with the terminal and/or the server in a system having a plurality of hardware components.
  • the fixed terminal is an "Internet of Things device", a smart air conditioner with networking function, a smart electric light, a smart power source, etc.
  • a mobile terminal such as an AR with networking function /VR device, smart speaker, self-driving car, PC
  • FIG. 1 is a schematic diagram of a hardware structure of a device for generating a test report involved in an embodiment of the present application.
  • the generating device of the test report may include a processor 1001 (for example, a CPU), a communication bus 1002, a user interface 1003, a network interface 1004, and a memory 1005.
  • the communication bus 1002 is configured to implement connection communication between the components;
  • the user interface 1003 may include a display, an input unit such as a keyboard;
  • the network interface 1004 may optionally include a standard wired interface and a wireless interface.
  • memory 1005 can be high-speed RAM memory or stable memory (non-volatile Alternatively, the memory 1005 may alternatively be a storage device independent of the processor 1001 described above. It will be understood by those skilled in the art that the hardware structure shown in FIG. 1 does not constitute a limitation on the generating device of the test report, and may include more or less components than those illustrated, or combine some components or different components. Arrangement.
  • a memory 1005 as a computer readable storage medium of FIG. 1 can include an operating system, a network communication module, and a generated readable instruction for a test report.
  • the network communication module is mainly used to connect to the server and perform data communication with the server; and the processor 1001 can call the generated readable instruction of the test report stored in the memory 1005, and execute the test report provided by the embodiment of the present application.
  • the generation method is mainly used to connect to the server and perform data communication with the server; and the processor 1001 can call the generated readable instruction of the test report stored in the memory 1005, and execute the test report provided by the embodiment of the present application. The generation method.
  • the embodiment of the present application provides a method for generating a test report.
  • FIG. 2 is a schematic flowchart diagram of a first embodiment of a method for generating a test report according to the present application.
  • the method for generating the test report includes the following steps:
  • Step S10 Accessing the test information sent by the external interface through the preset interface, parsing the test data in the test information, acquiring a data type identifier of the test data, and performing the test data according to the data type identifier Classified storage
  • test of the existing terminal requires the participation of the tester. During the test, the tester may input and collect the test data multiple times, and collate the collected test data to generate a corresponding test report. In the prior art, only a large amount of test data is simply distinguished according to the version of the application, and the related test data is not managed.
  • a method for generating a test report is provided, which is applied to a test report generating device, and the generating device includes a generating program and a generating server.
  • the application provides various external interfaces to receive test information sent by the tester through the generation program, and the tester can use a webpage such as http.
  • the post request submits the test information to the generation server for corresponding data processing.
  • the data compression package submission method such as a zip, rar, and the like, is provided, that is, the tester only needs to package the test information and submit it to the generation server through the interface.
  • the test information includes test data, a test case for generating the test data, and a device name for executing the test case.
  • the generating server stores the test data according to a data type identifier corresponding to a data type such as a performance test data type, a function test data type, and an interface test data type. To the corresponding type data table.
  • the test server parses the test information, and obtains test data, test cases, test device names, and the like in the test information.
  • the test information is a compressed package format file uploaded by the tester
  • the compressed package format file is decompressed to obtain the test data.
  • the test data is correspondingly stored to the corresponding type data table in the database.
  • Step S20 acquiring a test case corresponding to the test data in the test information, and storing the test case and the classified test data in association;
  • the test case corresponding to the test data is generated, and the test case is stored in association with the test data.
  • the specific storage may be: executing test data of different applications on the same device by the same test case, and storing data according to the application as an independent variable. For example, the test data generated by the same test case is further classified and stored in the performance test data type.
  • step S30 when the report generation instruction is detected, the test data is imported into a preset display model, a corresponding test chart is generated, and a corresponding test evaluation report is generated according to the test case and the test chart corresponding to the test data.
  • the report generation instruction may be triggered by the tester by generating a generation option on the program, or when the server detects the test case execution instruction, the test data generated according to the execution instruction is automatically triggered to be generated.
  • the preset display model is a chart for displaying the test data, and may be a line chart, a bar chart, a bar chart, a scatter chart, and a table form.
  • the generation server detects the report generation instruction, the generation data is imported into the preset display model to generate a test chart. Get the test cases and associated test data in the database, and add test cases or test data to the test chart to generate a corresponding test evaluation report.
  • the CPU usage on the same device is displayed by a bar graph or a line graph according to different times, or the CPU usage of the same APP on different devices is compared and displayed by a bar graph or a line graph. It is also possible to compare the average or maximum value of the performance test data of the same APP with the industry-standard APP related data for display.
  • the bar graphs can also be stored in association. For example, when the CPU usage data of an APP is abnormal, the tester can jump to other related performance data tables, bar graphs or polylines of the APP by clicking the CPU abnormal data. Figure, or jump to the app
  • the CPU on other terminals occupies a data table, a bar chart, or a line chart, so that the tester can perform relevant comparative analysis.
  • the embodiment provides a method for generating a test report.
  • the method for generating the test report accesses the test information sent by the external interface through a preset interface, parses the test data in the test information, and acquires the data of the test data. a type identifier, the test data is classified and stored according to the data type identifier; obtaining a test case corresponding to the test data in the test information, and associating the test case with the classified test data
  • the report generation instruction is detected, the test data is imported into a preset display model, a corresponding test chart is generated, and a corresponding test evaluation report is generated according to the test case and the test chart corresponding to the test data.
  • test data is classified and stored according to the data type and the test case, so as to facilitate the corresponding search of the test data, reduce the workload of data search and analysis, improve the efficiency of the search and analysis, solve the analysis workload of the existing test data and find Inefficient technical problems.
  • FIG. 3 is a schematic flowchart diagram of a second embodiment of a method for generating a test report according to the present application.
  • step S30 specifically includes:
  • Step S31 when the report generation instruction is detected, acquiring target test data in the report generation instruction, acquiring a target data identifier of the target test data, and selecting a corresponding preset display model according to the target data identifier;
  • the preset display model may be a corresponding data table of the test data type and the test chart template.
  • the test request includes a type test request such as a performance test request, a function test request, an adaptation compatibility test request, and a weak network test request, and the same type test request further includes different parameter test requests, such as a performance test request including a CPU occupation, Memory test, battery consumption, traffic consumption, frame count, FPS and other parameter test requests.
  • different test report generation instructions are generated according to different test requests, and different types of target test data are acquired according to different test report generation instructions.
  • the target data identifier of the target test data may be used to identify a data type of the target test data, such as performance test data or functional test data.
  • test parameters corresponding to different test parameters are pre-set with different test chart templates.
  • the preset performance test chart template corresponding to the performance test type is obtained, for example, the corresponding CPU usage and CPU time slice are displayed correspondingly in the preset area of the performance test report by the bar graph. Occupying performance parameter data, and displaying the corresponding memory occupancy, battery consumption and other performance parameter data in the preset area of the performance test report through the pie chart, and further changing the version, device, and CPU of each test case by means of a table.
  • the relevant parameters such as occupancy and memory are displayed in comparison.
  • Step S32 importing the target test data into the preset display model, generating a corresponding target test chart, acquiring a target test case stored in association with the target test data, and according to the target test chart and the target test case. Generate a corresponding test evaluation report.
  • the target test chart template corresponding to the target test data is determined according to the corresponding data table in the preset display model, all test data corresponding to the target test case associated with the target test data is obtained, All the test data corresponding to the target test case are correspondingly filled into the target test chart template, and correspondingly displayed in the preset area of the test evaluation report, thereby generating a corresponding test evaluation report.
  • FIG. 4 is a schematic flowchart diagram of a third embodiment of a method for generating a test report according to the present application.
  • step S31 specifically includes:
  • Step S311 when detecting a report generation instruction, acquiring target test data in the report generation instruction, and acquiring a target data identifier of the target test data;
  • Step S312 determining, according to the pre-stored data type list and the target data identifier, whether the target test data is performance test data;
  • step S313 when it is determined that the target test data is the performance test data, the preset display model corresponding to the target test data is obtained in the display model corresponding to the performance test data.
  • the corresponding data model is trained according to the data identifier corresponding to the data type such as the performance test data type, the function test data type, and the interface test data type, and then the received test data type is received according to the data model.
  • the type division is performed, that is, the test data after the application APP test run is divided into performance test data, function test data, adaptation compatibility test data, weak network test data, and the like.
  • the tester can pre-set the corresponding test cases according to the test requirements, such as opening the password red envelope, having a cold start of the account, having a hot start of the account, sending 10 expressions, viewing the video message, establishing 10 air conferences, etc.
  • the relevant test data of the same use case is combined and archived.
  • the CPU usage, memory usage, battery consumption, traffic consumption, frame number, FPS and other related test data of 10 expression use cases under the performance test data type are comprehensively stored, and the APP name, performance test data type, and transmission are 10 Emotional use cases are associated; or the CPU test, memory usage, battery consumption, traffic consumption, frame number, FPS and other related test data for establishing 10 air conference use cases under the performance test data type are comprehensively stored, and associated with the APP name, Performance test data types and the establishment of 10 air conference use cases for association.
  • the test data includes a keyword identifier of the test case, and the test case can be distinguished according to the keyword identifier.
  • the test case can be named by the tester according to the test scenario, and the same test case can be used for the same APP to be implemented on different devices, or the same test case can be used for different APPs to be implemented on the same device.
  • step S32 specifically includes:
  • Step S321 importing the target test data into the preset display model to generate a corresponding target test chart
  • Step S322 acquiring a target test case that is stored in association with the target test data, where the target test data includes a program version, a test device name, a central processor occupancy rate, and/or a memory occupancy rate;
  • Step S323 generating a corresponding test evaluation report according to the target test chart and the target test case, and one or more parameter information of the program version, the test device name, the central processor occupancy rate, and/or the memory occupancy rate.
  • the target test data includes a program version, a test device name, a CPU usage rate, and/or a memory usage ratio, and may also include parameters such as battery consumption, traffic consumption, number of frames, and FPS. Different parameters are pre-set with different report forms.
  • Obtaining a corresponding test report template according to the parameter in the test data for example, displaying, by using a bar graph, corresponding performance parameter data such as CPU usage and CPU time slice occupation in a preset area of the test report template, and testing by a pie chart
  • the preset area of the report template corresponds to the corresponding performance data such as memory usage and battery consumption.
  • the version, device, CPU usage, memory and other related parameters of each test case can be further displayed in the form of a table.
  • the corresponding test report template is determined according to the parameters. Then, the corresponding test data is calculated or calculated according to the corresponding test parameters, and then each test parameter is correspondingly displayed in the test report template by using a preset report form, thereby generating a test report corresponding to the test request.
  • the test report can be displayed by means of a line chart, a bar chart and a table form.
  • the CPU usage on the same device is displayed by a bar graph or a line graph according to different times, or the CPU usage of the same APP on different devices is compared and displayed by a bar graph or a line graph. It is also possible to compare the average or maximum value of the performance test data of the same APP with the industry-standard APP related data for display.
  • the bar graphs can also be stored in association. For example, when the CPU usage data of an APP is abnormal, the tester can jump to other related performance data tables, bar graphs or polylines of the APP by clicking the CPU abnormal data. Figure, or jump to the app
  • the CPU on other terminals occupies a data table, a bar chart, or a line chart, so that the tester can perform relevant comparative analysis.
  • FIG. 5 is a schematic flowchart diagram of a fourth embodiment of a method for generating a test report according to the present application.
  • the method for generating the test report further includes:
  • Step S41 comparing the test data with preset test standard data, and determining whether the test data is abnormal
  • Step S42 when it is determined that the test data is abnormal, generate a reminder message according to the abnormal test data.
  • the data type is determined according to the test data identifier, that is, according to the test parameters in the data, and the test parameter is determined.
  • Corresponding preset test standard data is APP-related test parameter data conforming to the program standard in the industry. Whether the test data is abnormal is determined by the preset test standard data. If the test data is within a preset threshold of the preset test standard data, the test data is normal. If the test data differs from the preset test standard data by more than a preset threshold, the test data is abnormal.
  • test data is normal, a corresponding test evaluation report is generated according to the test data, and if the test data is abnormal, the test data and the test chart are subjected to test abnormality analysis.
  • the tester can jump to other related performance data tables, bar graphs or line graphs of the APP by clicking the CPU abnormal data, or jump to the APP.
  • the CPU on other terminals occupies a data table, a bar chart, or a line chart, so that the tester can perform relevant comparative analysis.
  • the test data is displayed according to the preset display model, and the tester can more intuitively view the change between the test parameters, determine whether the application software performance is normal, and synchronize the test data with the preset test standard data. Display analysis makes it easier to analyze the test data in more detail and reduce the difficulty of finding abnormal data.
  • the method for generating the test report further includes:
  • Step S51 when detecting the report generation instruction, importing the test data into a preset display model to generate a corresponding test chart;
  • Step S52 displaying the test chart on the visual display interface, and opening an edit mode of the test chart when detecting an edit request triggered based on the test chart;
  • Step S53 adjusting the test chart based on a display dimension input by the tester in the edit mode to obtain a test chart that meets the test requirement;
  • Step S54 Generate a corresponding test evaluation report according to the test case corresponding to the test data and the adjusted test chart.
  • the test chart is displayed on the visual display interface. It is necessary to add that the test chart can be dynamic.
  • the editing mode of the test chart is turned on, based on the tester.
  • the display dimension entered in edit mode adjusts the test chart to obtain a test chart that meets the test requirements, ie, the editing conditions.
  • the tester can edit the test chart, and the user can adjust the display dimension to display the test parameters, making the test chart display more flexible and diverse, and the tester can quickly influence the test factors. For example, the tester can jump to other related performance data tables, bar graphs or line graphs of the APP by clicking the CPU abnormal data, or jump to the APP.
  • the CPU on other terminals occupies a data table, a bar chart, or a line chart, so that the tester can perform relevant comparative analysis.
  • the embodiment of the present application further provides a device for generating a test report.
  • FIG. 6 is a schematic diagram of functional modules of a first embodiment of a device for generating a test report according to the present application.
  • the generating device of the test report includes:
  • the access classification module 10 is configured to access the test information sent by the external interface through the preset interface, parse the test data in the test information, obtain the data identifier of the test data, and according to the pre-stored data type list and the a data identifier, the test data is classified and stored according to the data type;
  • the use case association module 20 is configured to acquire a test case corresponding to the test data in the test information, and associate the test case with the classified test data;
  • the report generation module 30 is configured to: when the report generation instruction is detected, import the test data into a preset display model, generate a corresponding test chart, and generate a corresponding test evaluation according to the test case and the test chart corresponding to the test data. report.
  • the report generating module 30 specifically includes:
  • a model determining unit configured to acquire target test data in the report generation instruction, acquire a target data identifier of the target test data, and select a corresponding preset according to the target data identifier when detecting a report generation instruction Display model
  • a report generating unit configured to import the target test data into the preset display model, generate a corresponding target test chart, acquire a target test case stored in association with the target test data, and according to the target test chart and the The target test case generates a corresponding test evaluation report.
  • model determining unit further includes:
  • An identifier obtaining subunit configured to acquire target test data in the report generation instruction when the report generation instruction is detected, and acquire a target data identifier of the target test data
  • a data judging subunit configured to determine, according to the pre-stored data type list and the target data identifier, whether the target test data is performance test data
  • a model determining subunit configured to obtain a preset display model corresponding to the target test data in a display model corresponding to the performance test data when determining that the target test data is performance test data.
  • the report generating unit specifically includes:
  • a chart generating subunit configured to import the target test data into the preset display model, and generate a corresponding target test chart
  • a use case obtaining sub-unit configured to acquire a target test case in which the target test data is associated and stored, where the target test data includes a program version, a test device name, a central processor occupancy rate, and/or a memory occupancy rate;
  • a report generation subunit configured to generate, according to the target test chart and the target test case, and one or more parameter information of the program version, the test device name, the central processor occupancy rate, and/or the memory occupancy rate Test evaluation report.
  • the generating device of the test report further includes:
  • a comparison module configured to compare the test data with preset test standard data, and determine whether the test data is abnormal
  • the reminding module is configured to generate a reminder message according to the abnormal test data when determining that the test data is abnormal.
  • the generating device of the test report further includes:
  • a chart generating module configured to: when the report generating instruction is detected, import the test data into a preset display model to generate a corresponding test chart;
  • An editing module configured to display the test chart in a visual display interface, and open an edit mode of the test chart when detecting an edit request triggered based on the test chart;
  • An adjustment module configured to adjust the test chart based on a display dimension input by the tester in the edit mode to obtain a test chart that meets the test requirement
  • the report generation module is configured to generate a corresponding test evaluation report according to the test case corresponding to the test data and the adjusted test chart.
  • the modules in the generating device of the test report correspond to the steps in the method for generating the test report, and the functions and implementation processes thereof are not described herein.
  • the embodiment of the present application further provides a computer readable storage medium, which may be a non-volatile readable storage medium.
  • the computer readable storage medium of the present application stores the generated readable instructions of the test report, wherein when the generated readable instructions of the test report are executed by the processor, the steps of the method for generating the test report as described above are implemented.
  • the method that is implemented when the test readable instruction is executed refer to various embodiments of the method for generating the test report of the present application, and details are not described herein again.
  • the technical solution of the present application which is essential or contributes to the prior art, may be embodied in the form of a software product stored in a storage medium (such as ROM/RAM as described above). , a disk, an optical disk, including a number of instructions for causing a terminal device (which may be a mobile phone, a computer, a server, an air conditioner, or a network device, etc.) to perform the methods described in the various embodiments of the present application.
  • a terminal device which may be a mobile phone, a computer, a server, an air conditioner, or a network device, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本申请公开了一种测试报告的生成方法、装置、设备及计算机可读存储介质,所述方法通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。根据数据类型以及测试用例进行数据分类存储,便于数据的对应查找,降低数据查找分析工作量,提高查找分析效率。

Description

测试报告的生成方法、装置、设备及存储介质
本申请要求于2018年5月14日提交中国专利局、申请号为201810459373.3、发明名称为“测试报告的生成方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在申请中。
技术领域
本申请涉及数据处理领域,尤其涉及一种测试报告的生成方法、装置、设备及计算机可读存储介质。
背景技术
应用程序在测试运行时,会生成大量的测试数据。现有技术中只是将大量的测试数据根据应用程序的版本进行简单区分,并未针对上述测试数据进行相关管理。在分析该大量的测试数据时,由于存储的粒度太粗,即测试数据类型较多,且各个类型数据的异常情况均不相同,因此根据现有的测试数据生成数据报告时,不仅数据分析工作量极大,而且数据查找效率低下。
发明内容
本申请的主要目的在于提供一种测试报告的生成方法、装置、设备及计算机可读存储介质,旨在解决现有测试数据的分析工作量大以及查找效率低下的技术问题。
为实现上述目的,本申请提供一种测试报告的生成方法,所述测试报告的生成方法包括以下步骤:
通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;
获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
此外,为实现上述目的,本申请还提供一种测试报告的生成装置,所述测试报告的生成装置包括:
接入分类模块,用于通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;
用例关联模块,用于获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
报告生成模块,用于在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
此外,为实现上述目的,本申请还提供一种测试报告的生成设备,所述测试报告的生成设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的测试报告的生成可读指令,其中所述测试报告的生成可读指令被所述处理器执行时,实现如上述的测试报告的生成方法的步骤。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如上述的测试报告的生成方法的步骤。
本申请提供一种测试报告的生成方法,所述测试报告的生成方法通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。通过上述方式,将测试数据根据数据类型以及测试用例进行分类存储,以便于测试数据的对应查找,降低数据查找分析工作量,提高查找分析效率,解决了现有测试数据的分析工作量大以及查找效率低下的技术问题。
附图说明
图1为本申请实施例方案中涉及的测试报告的生成设备的硬件结构示意图;
图2为本申请测试报告的生成方法第一实施例的流程示意图;
图3为本申请测试报告的生成方法第二实施例的流程示意图;
图4为本申请测试报告的生成方法第三实施例的流程示意图;
图5为本申请测试报告的生成方法第四实施例的流程示意图;
图6为本申请测试报告的生成装置第一实施例的功能模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例终端可以固定终端,也可以是移动终端,其中,固定终端如“物联网设备”、带联网功能的智能空调、智能电灯、智能电源等等;移动终端,如带联网功能的AR/VR设备,智能音箱、自动驾驶汽车、PC,智能手机、平板电脑、电子书阅读器、便携计算机等具有显示功能的终端设备,本申请中的测试报告的生成设备可以是终端的组成部件,也可以作为单独的终端,以此同时,测试报告的生成设备还可以在具有多个硬件组成的系统中通过与终端和/或服务器通信连接实现本申请的测试报告的生成的方法。
参照图1,图1为本申请实施例方案中涉及的测试报告的生成设备的硬件结构示意图。本申请实施例中,测试报告的生成设备可以包括处理器1001(例如CPU),通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信;用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard);网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口);存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器,存储器1005可选的还可以是独立于前述处理器1001的存储装置。本领域技术人员可以理解,图1中示出的硬件结构并不构成对测试报告的生成设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
继续参照图1,图1中作为一种计算机可读存储介质的存储器1005可以包括操作系统、网络通信模块以及测试报告的生成可读指令。
在图1中,网络通信模块主要用于连接服务器,与服务器进行数据通信;而处理器1001可以调用存储器1005中存储的测试报告的生成可读指令,并执行本申请实施例提供的测试报告的生成方法。
本申请实施例提供了一种测试报告的生成方法。
参照图2,图2为本申请测试报告的生成方法第一实施例的流程示意图。
本实施例中,所述测试报告的生成方法包括以下步骤:
步骤S10,通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;
目前,随着人们对终端、应用软件稳定性要求的不断升高,终端与应用软件的兼容性的要求也在不断上升,这就要求终端的生产者在终端出厂前,对终端硬件进行多次测试。与此同时,对针对终端安装的应用软件,也需要与终端有较高的契合度,这就需要对终端、应用软件进行重复地测试。现有的终端的测试需要测试人员参与,测试人员在测试过程中可能出现多次测试数据的输入,采集,并将采集到的测试数据信息,进行整理以生成对应的测试报告。现有技术中只是将大量的测试数据根据应用程序的版本进行简单区分,并未针对上述测试数据进行相关管理。在分析该大量的测试数据时,由于存储的粒度太粗,即测试数据类型较多,且各个类型数据的异常情况均不相同,因此现有的测试数据不仅分析工作量极大,而且难以快速准确地查找到异常数据,导致查找效率低下。本实施例中,提供一种测试报告的生成方法,应用于测试报告的生成装置,所述生成装置包括生成程序和生成服务器。为了方便测试人员在各种情况下均能使用本申请提供的生成方法,本申请通过生成程序提供各种对外接口接收测试人员发送的测试信息,测试人员可以通过网页,如http post请求,将测试信息提交至生成服务器进行对应数据处理。其中,为了方便手动测试使用,进一步提供数据压缩包的提交方式,如zip、rar等压缩包格式文件,即测试人员只需要将测试信息打包并通过接口提交至生成服务器即可。其中,测试信息包括测试数据、产生所述测试数据的测试用例以及执行所述测试用例的设备名称等信息。生成服务器在获取到所述所述测试数据的数据类型标识符后,根据性能测试数据类型、功能测试数据类型以及界面测试数据类型等数据类型对应的数据类型标识符,将所述测试数据进行存储至对应的类型数据表中。生成服务器在接收到测试信息时,对所述测试信息进行解析,获取所述测试信息中的测试数据、测试用例以及测试设备名称等。其中,若所述测试信息为测试人员上传的压缩包格式文件,即将所述压缩包格式文件进行解压,得到所述测试数据。然后获取所述测试数据的数据标识符,并根据上述数据模型,将接收到的测试数据进行类型划分,即将应用程序(APP)测试运行后的测试数据划分成性能测试数据、功能测试数据、适配兼容性测试数据、弱网络测试数据等类型。并根据划分后的结果,将测试数据对应存储至数据库中对应类型数据表。
步骤S20,获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
本实施例中,在将所述测试数据进行类型划分后,根据测试数据与测试用例的对应关系,即产生所述测试数据对应的测试用例,将所述测试用例与测试数据进行关联存储。具体存储可以为:将同个测试用例在同个设备上执行不同应用程序的测试数据,并按照应用程序为自变量进行数据存储。如在性能测试数据类型中将同个测试用例产生的测试数据进行进一步分类存储。
步骤S30,在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
本实施例中,报告生成指令可以是测试人员通过生成程序上的生成选项触发,或者是服务器在检测到测试用例执行指令时,根据所述执行指令产生的测试数据自动触发生成。预设显示模型是用于显示所述测试数据的图表,可以是折线图、条形图、柱状图、散点图以及表格形式。生成服务器在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成测试图表。获取数据库中的测试用例以及关联的测试数据,并将测试用例或者测试数据添加至测试图表中,生成对应的测试评估报告。具体如:将同个APP 在同个设备上的CPU占用根据不同时间通过条形图或者折线图展示,或者将同个APP在不同设备上的CPU占用通过条形图或者折线图进行对比展示。还可以将同个APP的性能测试数据的平均值或者最大值与业内标准的APP相关数据做对比,进行展示。还可以将各个条形图进行关联存储,如在查看到一个APP的CPU占用数据异常时,测试人员可通过点击待CPU异常数据跳转至该APP的其他相关性能数据表格、条形图或者折线图,或者是跳转至该APP 在其他终端上的CPU占用数据表格、条形图或者折线图,从而便于测试人员进行相关比较分析。本实施例提供了一种测试报告的生成方法,所述测试报告的生成方法通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。通过上述方式,将测试数据根据数据类型以及测试用例进行分类存储,以便于测试数据的对应查找,降低数据查找分析工作量,提高查找分析效率,解决了现有测试数据的分析工作量大以及查找效率低下的技术问题。
参照图3,图3为本申请测试报告的生成方法第二实施例的流程示意图。
基于上述图2所示实施例,本实施例中,步骤S30具体包括:
步骤S31,在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
本实施例中,预设显示模型可以是测试数据类型与测试图表模板的对应数据表。测试请求包括性能测试请求、功能测试请求、适配兼容性测试请求、弱网络测试请求等类型测试请求,且同个类型测试请求下还包括不同的参数测试请求,如性能测试请求包括CPU占用、内存占用、电池消耗、流量消耗、帧数、FPS等参数测试请求。本实施例中,根据不同的测试请求生成不同的测试报告生成指令,并根据不同的测试报告生成指令获取不同类型的目标测试数据。所述目标测试数据的目标数据标识符可用于标识所述目标测试数据的数据类型,如性能测试数据或者功能测试数据等。不同类型的测试请求对应预设有不同的测试图表模板,其中,进一步地性能测试请求中不同测试参数对应预设有不同的测试图表模板。如在目标测试数据的数据类型为性能测试类型时,获取性能测试类型对应的预设性能测试图表模板,如通过条形图在性能测试报告的预设区域对应显示相应的CPU占用、CPU时间片占用等性能参数数据,以及通过圆饼图在性能测试报告的预设区域对应显示相应的内存占用、电池消耗等性能参数数据,还可以进一步通过表格的形式将各个测试用例的版本、设备、CPU占用、内存等相关参数进行对比显示。
步骤S32,将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
本实施例中,即根据所述预设显示模型中的对应数据表,确定所述目标测试数据对应的目标测试图表模板时,获取所述目标测试数据关联的目标测试用例对应的所有测试数据,将所述目标测试用例对应的所有测试数据,对应填写至目标测试图表模板中,并在测试评估报告的预设区域对应显示,由此生成对应的测试评估报告。
参照图4,图4为本申请测试报告的生成方法第三实施例的流程示意图。
基于上述图3所示实施例,本实施例中,步骤S31具体包括:
步骤S311,在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
步骤S312,根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
步骤S313,在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
本实施例中,预先根据性能测试数据类型、功能测试数据类型以及界面测试数据类型等数据类型对应的数据标识符,训练生成对应的数据模型,然后根据上述数据模型,将接收到的测试数据类型进行类型划分,即将应用程序APP测试运行后的测试数据划分成性能测试数据、功能测试数据、适配兼容性测试数据、弱网络测试数据等类型。测试人员可预先根据测试需求,为对应测试类型设置对应的测试用例,如打开口令红包、有账号冷启动、有账号热启动、发送10个表情、查看视频消息、建立10个空中会议等,将同个用例的相关测试数据合并存档。如将性能测试数据类型下的发送10个表情用例的CPU占用、内存占用、电池消耗、流量消耗、帧数、FPS等相关测试数据进行综合存储,并与APP名称、性能测试数据类型以及发送10个表情用例进行关联;或将性能测试数据类型下的建立10个空中会议用例的CPU占用、内存占用、电池消耗、流量消耗、帧数、FPS等相关测试数据进行综合存储,并与APP名称、性能测试数据类型以及建立10个空中会议用例进行关联等。其中,测试数据中包括测试用例的关键字标识符,可根据所述关键字标识符对测试用例进行区分。测试用例可以是测试人员根据测试场景进行命名,且同个测试用例可用于同个APP在不同设备上实施,或者同个测试用例可用于不同APP在同个设备上实施。获取所述报告生成指令中目标测试数据对应的目标数据标识符,将所述目标数据标识符与性能测试数据标识符进行比较。判断所述目标数据标识符是否与所述性能测试数据标识符相同,在所述目标数据标识符与所述性能测试数据标识符相同时,则判定所述目标测试数据为性能测试数据。否则,判定所述目标测试数据不是性能测试数据,且将所述目标数据标识符与其他类型数据标识符进行比较。在确定所述目标测试数据为性能测试数据时,根据所述性能测试数据在对应数据表中获取对应的显示模型。
进一步地,步骤S32具体包括:
步骤S321,将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
步骤S322,获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
步骤S323,根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
本实施例中,所述目标测试数据包括程序版本、测试设备名称、CPU占用率和/或内存占用率,还可以包括电池消耗、流量消耗、帧数、FPS等参数。不同参数对应预设有不同的报告形式。根据所述测试数据中参数获取对应的测试报告模板,如通过条形图在测试报告模板的预设区域对应显示相应的CPU占用、CPU时间片占用等性能参数数据,以及通过圆饼图在测试报告模板的预设区域对应显示相应的内存占用、电池消耗等性能参数数据,还可以进一步通过表格的形式将各个测试用例的版本、设备、CPU占用、内存等相关参数进行对比显示。根据参数确定对应的测试报告模板。然后将对应相关的测试数据根据对应的测试参数进行统计或者计算,然后通过预设的报告形式在所述测试报告模板中对应显示各个测试参数,从而生成所述测试请求对应的测试报告。其中,测试报告中可以通过折线图、条形图以及表格形式进行对比展示。如将同个APP 在同个设备上的CPU占用根据不同时间通过条形图或者折线图展示,或者将同个APP在不同设备上的CPU占用通过条形图或者折线图进行对比展示。还可以将同个APP的性能测试数据的平均值或者最大值与业内标准的APP相关数据做对比,进行展示。还可以将各个条形图进行关联存储,如在查看到一个APP的CPU占用数据异常时,测试人员可通过点击待CPU异常数据跳转至该APP的其他相关性能数据表格、条形图或者折线图,或者是跳转至该APP 在其他终端上的CPU占用数据表格、条形图或者折线图,从而便于测试人员进行相关比较分析。
参照图5,图5为本申请测试报告的生成方法第四实施例的流程示意图。
基于上述图3所示实施例,本实施例中,所述测试报告的生成方法还包括:
步骤S41,将所述测试数据与预设测试标准数据进行比较,判断所述测试数据是否异常;
步骤S42,在判定所述测试数据异常时,根据异常的测试数据生成提醒消息。
本实施例中,为了解决难以快速准确地查找到异常数据的技术问题,在解析出测试数据时,根据所述测试数据标识符,即根据数据中测试参数确定数据类型,并确定所述测试参数对应的预设测试标准数据。该预设测试标准数据为业内符合程序标准的APP相关测试参数数据。通过该预设测试标准数据,判断所述测试数据是否异常。若测试数据与预设测试标准数据相差预设阈值内,则测试数据正常,若测试数据与预设测试标准数据相差至超过预设阈值,则测试数据异常。若所述测试数据正常,则根据所述测试数据生成对应的测试评估报告,若测试数据异常,则将所述测试数据和所述测试图表进行测试异常分析。如在查看到一个APP的CPU占用数据异常时,测试人员可通过点击待CPU异常数据跳转至该APP的其他相关性能数据表格、条形图或者折线图,或者是跳转至该APP 在其他终端上的CPU占用数据表格、条形图或者折线图,从而便于测试人员进行相关比较分析。本实施例中将测试数据按照预设显示模型进行显示,测试人员可以更加直观地查看各个测试参数之间的变化情况,确定应用软件性能是否正常,同时将测试数据和预设测试标准数据进行同步的显示分析,便于对测试数据进行更细致的分析,降低异常数据的查找难度。
进一步地,所述测试报告的生成方法还包括:
步骤S51,在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表;
步骤S52,将所述测试图表在可视化显示界面进行展示,并在检测到基于所述测试图表触发的编辑请求时,开启所述测试图表的编辑模式;
步骤S53,基于测试人员在所述编辑模式下输入的显示维度,调整所述测试图表,以得到符合测试需求的测试图表;
步骤S54,根据所述测试数据对应的测试用例和调整后的测试图表生成对应的测试评估报告。
本实施例中,将测试图表在可视化显示界面进行展示,需要补充说明的是测试图表可以是动态的,在检测到基于测试图表触发的编辑请求时,开启测试图表的编辑模式,基于测试人员在编辑模式下输入的显示维度调整所述测试图表,以得到符合测试需求即编辑条件的测试图表。测试人员可以对测试图表进行编辑,用户可以调整显示维度进行测试参数的显示,使得测试图表显示更加灵活和多样,测试人员可以快速地到影响测试因素。如测试人员可通过点击待CPU异常数据跳转至该APP的其他相关性能数据表格、条形图或者折线图,或者是跳转至该APP 在其他终端上的CPU占用数据表格、条形图或者折线图,从而便于测试人员进行相关比较分析。
此外,本申请实施例还提供一种测试报告的生成装置。
参照图6,图6为本申请测试报告的生成装置第一实施例的功能模块示意图。
本实施例中,所述测试报告的生成装置包括:
接入分类模块10,用于通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据标识符,并根据预存数据类型列表与所述数据标识符,将所述测试数据根据数据类型进行分类存储;
用例关联模块20,用于获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
报告生成模块30,用于在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
进一步的,所述报告生成模块30具体包括:
模型确定单元,用于在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
报告生成单元,用于将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
进一步的,所述模型确定单元还包括:
标识符获取子单元,用于在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
数据判断子单元,用于根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
模型确定子单元,用于在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
进一步的,所述报告生成单元具体包括:
图表生成子单元,用于将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
用例获取子单元,用于获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
报告生成子单元,用于根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
进一步的,所述测试报告的生成装置还包括:
比较模块,用于将所述测试数据与预设测试标准数据进行比较,判断所述测试数据是否异常;
提醒模块,用于在判定所述测试数据异常时,根据异常的测试数据生成提醒消息。
进一步的,所述测报告的生成装置还包括:
图表生成模块,用于在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表;
编辑模块,用于将所述测试图表在可视化显示界面进行展示,并在检测到基于所述测试图表触发的编辑请求时,开启所述测试图表的编辑模式;
调整模块,用于基于测试人员在所述编辑模式下输入的显示维度,调整所述测试图表,以得到符合测试需求的测试图表;
报告生成模块,用于根据所述测试数据对应的测试用例和调整后的测试图表生成对应的测试评估报告。
其中,上述测试报告的生成装置中各个模块与上述测试报告的生成方法实施例中各步骤相对应,其功能和实现过程在此处不再一一赘述。
此外,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质可以为非易失性可读存储介质。
本申请计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如上述的测试报告的生成方法的步骤。其中,测试报告的生成可读指令被执行时所实现的方法可参照本申请测试报告的生成方法的各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种测试报告的生成方法,其特征在于,所述测试报告的生成方法包括以下步骤:
    通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;
    获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
    在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
  2. 如权利要求1所述的测试报告的生成方法,其特征在于,所述在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告的步骤具体包括:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
  3. 如权利要求2所述的测试报告的生成方法,其特征在于,所述在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型的步骤具体包括:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
    根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
    在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
  4. 如权利要求2所述的测试报告的生成方法,其特征在于,所述将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告的步骤具体包括:
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
    获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
    根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
  5. 如权利要求1所述的测试报告的生成方法,其特征在于,所述在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告的步骤具体包括:
    在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表;
    将所述测试图表在可视化显示界面进行展示,并在检测到基于所述测试图表触发的编辑请求时,开启所述测试图表的编辑模式;
    基于测试人员在所述编辑模式下输入的显示维度,调整所述测试图表,以得到符合测试需求的测试图表;
    根据所述测试数据对应的测试用例和调整后的测试图表生成对应的测试评估报告。
  6. 如权利要求1所述的测试报告的生成方法,其特征在于,所述通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据标识符,并根据预存数据类型列表与所述数据标识符,将所述测试数据根据数据类型进行分类存储的步骤之后,还包括:
    将所述测试数据与预设测试标准数据进行比较,判断所述测试数据是否异常;
    在判定所述测试数据异常时,根据异常的测试数据生成提醒消息。
  7. 如权利要求1所述的测试报告的生成方法,其特征在于,所述通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据标识符,并根据预存数据类型列表与所述数据标识符,将所述测试数据根据数据类型进行分类存储的步骤之后,还包括:
    将所述测试数据与预设测试标准数据进行比较,判断所述测试数据是否异常;
    在判定所述测试数据异常时,根据异常的测试数据生成提醒消息。
  8. 一种测试报告的生成装置,其特征在于,所述测试报告的生成装置包括:
    接入分类模块,用于通过预设接口接入外部发送的测试信息,解析出所述测试信息中的测试数据,获取所述测试数据的数据类型标识符,将所述测试数据根据所述数据类型标识符进行分类存储;
    用例关联模块,用于获取所述测试信息中与所述测试数据对应的测试用例,并将所述测试用例与分类后的测试数据进行关联存储;
    报告生成模块,用于在检测到报告生成指令时,将所述测试数据导入预设显示模型,生成对应的测试图表,并根据所述测试数据对应的测试用例和测试图表生成对应的测试评估报告。
  9. 如权利要求8所述的测试报告的生成装置,其特征在于,所述报告生成模块包括:
    模型确定单元,用于在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
    报告生成单元,用于将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
  10. 如权利要求9所述的测试报告的生成装置,其特征在于,所述模型确定单元包括:
    标识符获取子单元,用于在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
    数据判断子单元,用于根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
    模型确定子单元,用于在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
  11. 如权利要求9所述的测试报告的生成装置,其特征在于,所述报告生成单元包括:
    图表生成子单元,用于将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
    用例获取子单元,用于获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
    报告生成子单元,用于根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
  12. 如权利要求8所述的测试报告的生成装置,其特征在于,所述测试报告的生成装置还包括:
    比较模块,用于将所述测试数据与预设测试标准数据进行比较,判断所述测试数据是否异常;
    提醒模块,用于在判定所述测试数据异常时,根据异常的测试数据生成提醒消息。
  13. 一种测试报告的生成设备,其特征在于,所述测试报告的生成设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的测试报告的生成可读指令,其中所述测试报告的生成可读指令被所述处理器执行时,实现如权利要求1所述的测试报告的生成方法的步骤。
  14. 一种测试报告的生成设备,其特征在于,所述测试报告的生成设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的测试报告的生成可读指令,其中所述测试报告的生成可读指令被所述处理器执行时,实现如下步骤:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
  15. 一种测试报告的生成设备,其特征在于,所述测试报告的生成设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的测试报告的生成可读指令,其中所述测试报告的生成可读指令被所述处理器执行时,实现如下步骤:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
    根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
    在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
  16. 一种测试报告的生成设备,其特征在于,所述测试报告的生成设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的测试报告的生成可读指令,其中所述测试报告的生成可读指令被所述处理器执行时,实现如下步骤:
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
    获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
    根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
  17. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如权利要求1所述的测试报告的生成方法的步骤。
  18. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如下步骤:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符,根据所述目标数据标识符选取对应的预设显示模型;
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表,获取所述目标测试数据关联存储的目标测试用例,并根据所述目标测试图表和所述目标测试用例生成对应的测试评估报告。
  19. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如下步骤:
    在检测到报告生成指令时,获取所述报告生成指令中的目标测试数据,获取所述目标测试数据的目标数据标识符;
    根据预存数据类型列表和所述目标数据标识符,判断所述目标测试数据是否为性能测试数据;
    在判定所述目标测试数据为性能测试数据时,在所述性能测试数据对应关联的显示模型中,获取所述目标测试数据对应的预设显示模型。
  20. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有测试报告的生成可读指令,其中所述测试报告的生成可读指令被处理器执行时,实现如下步骤:
    将所述目标测试数据导入所述预设显示模型,生成对应的目标测试图表;
    获取所述目标测试数据关联存储的目标测试用例,其中,所述目标测试数据包括程序版本、测试设备名称、中央处理器占用率和/或内存占用率;
    根据所述目标测试图表和目标测试用例,以及所述程序版本、测试设备名称、中央处理器占用率和/或内存占用率中其中一种或者多种参数信息生成对应的测试评估报告。
PCT/CN2018/094801 2018-05-14 2018-07-06 测试报告的生成方法、装置、设备及存储介质 WO2019218444A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810459373.3A CN109726103B (zh) 2018-05-14 2018-05-14 测试报告的生成方法、装置、设备及存储介质
CN201810459373.3 2018-05-14

Publications (1)

Publication Number Publication Date
WO2019218444A1 true WO2019218444A1 (zh) 2019-11-21

Family

ID=66293800

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/094801 WO2019218444A1 (zh) 2018-05-14 2018-07-06 测试报告的生成方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN109726103B (zh)
WO (1) WO2019218444A1 (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110955600A (zh) * 2019-11-27 2020-04-03 中国银行股份有限公司 接口测试方法及装置
CN111290945A (zh) * 2020-01-17 2020-06-16 惠州市德赛西威汽车电子股份有限公司 车载应用设备对外接存储设备的兼容性测试系统与方法
CN111309623A (zh) * 2020-02-29 2020-06-19 平安科技(深圳)有限公司 一种坐标类数据分类测试方法及装置
CN111679301A (zh) * 2020-07-14 2020-09-18 上海移远通信技术股份有限公司 导航定位模组的测试方法、装置、设备及存储介质
CN111782524A (zh) * 2020-06-29 2020-10-16 京东数字科技控股有限公司 应用测试方法和装置、存储介质和电子装置
CN112052169A (zh) * 2020-09-01 2020-12-08 深圳创维-Rgb电子有限公司 测试管理方法、系统、设备以及计算机可读存储介质
CN112069073A (zh) * 2020-09-07 2020-12-11 深圳创维-Rgb电子有限公司 测试用例的管理方法、终端和存储介质
CN112328450A (zh) * 2020-11-03 2021-02-05 平安信托有限责任公司 数据监控方法、装置、计算机设备及存储介质
CN112506380A (zh) * 2020-12-23 2021-03-16 Tcl通力电子(惠州)有限公司 触控设备的检测方法、触控设备检测装置及可读存储介质
CN112527634A (zh) * 2020-11-25 2021-03-19 中国联合网络通信集团有限公司 程序划分方法及装置、软件测试方法及平台
CN112835334A (zh) * 2020-12-31 2021-05-25 广州明珞装备股份有限公司 工业数据平台测试方法、装置、计算机设备和存储介质
CN112948256A (zh) * 2021-03-24 2021-06-11 北京大米科技有限公司 一种客户端程序的测试方法、装置、存储介质及电子设备
CN113190443A (zh) * 2021-04-28 2021-07-30 南京航空航天大学 测试方法、装置、计算机设备和存储介质
CN113535578A (zh) * 2021-07-28 2021-10-22 展讯半导体(成都)有限公司 一种cts测试方法、装置及测试设备
CN113568829A (zh) * 2021-07-05 2021-10-29 Oppo广东移动通信有限公司 一种外场测试方法及装置、存储介质
CN113609133A (zh) * 2021-08-19 2021-11-05 深圳市通标科技有限公司 家用电器安全检测数据处理方法、系统及存储介质
CN113722229A (zh) * 2021-09-06 2021-11-30 挂号网(杭州)科技有限公司 软件测试方法、装置、电子设备和存储介质
CN113742245A (zh) * 2021-09-17 2021-12-03 中国银行股份有限公司 微服务的测试方法、装置、电子设备及计算机存储介质
CN113872831A (zh) * 2021-09-28 2021-12-31 北京永信至诚科技股份有限公司 一种网络测试可视化系统和方法
CN115081410A (zh) * 2022-07-19 2022-09-20 中电金信软件有限公司 一种实验报告的自动生成方法及装置
US20230065572A1 (en) * 2019-06-21 2023-03-02 ProKarma Inc. System and method for performing automated api tests

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221953A (zh) * 2019-05-20 2019-09-10 平安普惠企业管理有限公司 测试结果分析方法、装置、服务器及存储介质
CN110727552B (zh) * 2019-10-12 2023-10-31 深圳市元征科技股份有限公司 一种设备测试方法、系统、电子设备及存储介质
CN110955603B (zh) * 2019-12-03 2023-06-06 望海康信(北京)科技股份公司 自动化测试方法、装置、电子设备及计算机可读存储介质
CN111078518B (zh) * 2019-12-12 2023-08-18 广州品唯软件有限公司 数据采集方法、终端设备和计算机可读存储介质
CN111045879B (zh) * 2019-12-13 2023-10-24 广州品唯软件有限公司 压力测试报告的生成方法、装置及存储介质
CN111611144B (zh) * 2020-05-27 2023-09-19 中国工商银行股份有限公司 用于处理性能测试数据的方法、装置、计算设备和介质
CN111814319A (zh) * 2020-06-22 2020-10-23 深圳市瑞能实业股份有限公司 电池测试数据展示方法、装置及存储介质
CN111858320B (zh) * 2020-07-03 2024-05-17 Oppo广东移动通信有限公司 测试数据处理方法、装置及电子设备
CN111858354A (zh) * 2020-07-23 2020-10-30 远光软件股份有限公司 自动生成测试报告的方法、装置、存储介质及电子设备
CN112153375B (zh) * 2020-09-25 2023-09-15 深圳平安智慧医健科技有限公司 基于视频信息的前端性能测试方法、装置、设备及介质
CN112148616B (zh) * 2020-09-30 2024-04-26 中国民航信息网络股份有限公司 一种性能测试管理平台
CN112597018A (zh) * 2020-12-22 2021-04-02 未来电视有限公司 接口测试用例生成方法、装置、设备及存储介质
CN112965907A (zh) * 2021-03-11 2021-06-15 南京爱奇艺智能科技有限公司 Vr app自动化测试方法及装置
CN113297083B (zh) * 2021-05-27 2022-08-19 山东云海国创云计算装备产业创新中心有限公司 一种跨平台ic测试方法、装置、设备及介质
CN113407452A (zh) * 2021-06-24 2021-09-17 上海中通吉网络技术有限公司 App功耗测试的方法
CN113645100A (zh) * 2021-08-13 2021-11-12 福建天泉教育科技有限公司 一种基于元数据标签的全链路压力测试方案及系统
CN113641583A (zh) * 2021-08-16 2021-11-12 拉扎斯网络科技(上海)有限公司 数据处理方法、装置、电子设备、存储介质及程序产品
WO2024020898A1 (zh) * 2022-07-27 2024-02-01 西门子股份公司 数据检错方法、装置、电子设备及存储介质
CN116737592A (zh) * 2023-07-26 2023-09-12 小米汽车科技有限公司 程序测试方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742531A (zh) * 2008-11-13 2010-06-16 中国移动通信集团设计院有限公司 一种测试数据存储方法及装置
CN102331983A (zh) * 2010-07-15 2012-01-25 鸿富锦精密工业(深圳)有限公司 测试报告生成系统及方法
CN107832226A (zh) * 2017-11-23 2018-03-23 中国平安人寿保险股份有限公司 基于性能测试的报告生成方法、装置、设备和计算机介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090077538A1 (en) * 2007-09-18 2009-03-19 Michael Paul Keyes Methods for testing software using orthogonal arrays
CN105488089A (zh) * 2014-12-31 2016-04-13 哈尔滨安天科技股份有限公司 质量评估报告自动化生成方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742531A (zh) * 2008-11-13 2010-06-16 中国移动通信集团设计院有限公司 一种测试数据存储方法及装置
CN102331983A (zh) * 2010-07-15 2012-01-25 鸿富锦精密工业(深圳)有限公司 测试报告生成系统及方法
CN107832226A (zh) * 2017-11-23 2018-03-23 中国平安人寿保险股份有限公司 基于性能测试的报告生成方法、装置、设备和计算机介质

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230065572A1 (en) * 2019-06-21 2023-03-02 ProKarma Inc. System and method for performing automated api tests
US11675691B2 (en) * 2019-06-21 2023-06-13 ProKarma, Inc. System and method for performing automated API tests
CN110955600B (zh) * 2019-11-27 2023-11-10 中国银行股份有限公司 接口测试方法及装置
CN110955600A (zh) * 2019-11-27 2020-04-03 中国银行股份有限公司 接口测试方法及装置
CN111290945A (zh) * 2020-01-17 2020-06-16 惠州市德赛西威汽车电子股份有限公司 车载应用设备对外接存储设备的兼容性测试系统与方法
CN111290945B (zh) * 2020-01-17 2023-07-14 惠州市德赛西威汽车电子股份有限公司 车载应用设备对外接存储设备的兼容性测试系统与方法
CN111309623A (zh) * 2020-02-29 2020-06-19 平安科技(深圳)有限公司 一种坐标类数据分类测试方法及装置
CN111309623B (zh) * 2020-02-29 2024-04-16 平安科技(深圳)有限公司 一种坐标类数据分类测试方法及装置
CN111782524A (zh) * 2020-06-29 2020-10-16 京东数字科技控股有限公司 应用测试方法和装置、存储介质和电子装置
CN111679301A (zh) * 2020-07-14 2020-09-18 上海移远通信技术股份有限公司 导航定位模组的测试方法、装置、设备及存储介质
CN111679301B (zh) * 2020-07-14 2023-05-16 上海移远通信技术股份有限公司 导航定位模组的测试方法、装置、设备及存储介质
CN112052169A (zh) * 2020-09-01 2020-12-08 深圳创维-Rgb电子有限公司 测试管理方法、系统、设备以及计算机可读存储介质
CN112069073A (zh) * 2020-09-07 2020-12-11 深圳创维-Rgb电子有限公司 测试用例的管理方法、终端和存储介质
CN112328450A (zh) * 2020-11-03 2021-02-05 平安信托有限责任公司 数据监控方法、装置、计算机设备及存储介质
CN112527634A (zh) * 2020-11-25 2021-03-19 中国联合网络通信集团有限公司 程序划分方法及装置、软件测试方法及平台
CN112527634B (zh) * 2020-11-25 2023-06-02 中国联合网络通信集团有限公司 程序划分方法及装置、软件测试方法及平台
CN112506380B (zh) * 2020-12-23 2023-07-14 通力科技股份有限公司 触控设备的检测方法、触控设备检测装置及可读存储介质
CN112506380A (zh) * 2020-12-23 2021-03-16 Tcl通力电子(惠州)有限公司 触控设备的检测方法、触控设备检测装置及可读存储介质
CN112835334A (zh) * 2020-12-31 2021-05-25 广州明珞装备股份有限公司 工业数据平台测试方法、装置、计算机设备和存储介质
CN112948256A (zh) * 2021-03-24 2021-06-11 北京大米科技有限公司 一种客户端程序的测试方法、装置、存储介质及电子设备
CN113190443A (zh) * 2021-04-28 2021-07-30 南京航空航天大学 测试方法、装置、计算机设备和存储介质
CN113568829A (zh) * 2021-07-05 2021-10-29 Oppo广东移动通信有限公司 一种外场测试方法及装置、存储介质
CN113535578A (zh) * 2021-07-28 2021-10-22 展讯半导体(成都)有限公司 一种cts测试方法、装置及测试设备
CN113609133A (zh) * 2021-08-19 2021-11-05 深圳市通标科技有限公司 家用电器安全检测数据处理方法、系统及存储介质
CN113722229A (zh) * 2021-09-06 2021-11-30 挂号网(杭州)科技有限公司 软件测试方法、装置、电子设备和存储介质
CN113742245A (zh) * 2021-09-17 2021-12-03 中国银行股份有限公司 微服务的测试方法、装置、电子设备及计算机存储介质
CN113872831B (zh) * 2021-09-28 2022-09-16 北京永信至诚科技股份有限公司 一种网络测试可视化系统和方法
CN113872831A (zh) * 2021-09-28 2021-12-31 北京永信至诚科技股份有限公司 一种网络测试可视化系统和方法
CN115081410A (zh) * 2022-07-19 2022-09-20 中电金信软件有限公司 一种实验报告的自动生成方法及装置

Also Published As

Publication number Publication date
CN109726103B (zh) 2021-09-21
CN109726103A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
WO2019218444A1 (zh) 测试报告的生成方法、装置、设备及存储介质
WO2019041856A1 (zh) 家电控制方法、系统、控制终端、及存储介质
WO2019223070A1 (zh) 应用测试方法、装置、设备及可读存储介质
WO2017028601A1 (zh) 智能终端的语音控制方法、装置及电视机系统
WO2019109520A1 (zh) 视频面签派工方法、装置、设备及可读存储介质
WO2017099483A1 (en) Device and method for providing user-customized content
WO2019127837A1 (zh) 建表脚本生成方法、装置、设备及计算机可读存储介质
EP3335190A1 (en) Device and method for providing user-customized content
WO2019119771A1 (zh) 语音交互方法、装置及计算机可读存储介质
WO2017201913A1 (zh) 一种精准语音控制方法及装置
WO2018120681A1 (zh) 数据同步方法、装置、系统、数据处理服务器和存储介质
WO2017101266A1 (zh) 语音控制方法及系统
WO2019019714A1 (zh) 一种微信客户行为反馈方法、设备及存储介质
CN107688950B (zh) 家电售后咨询方法、电子设备和计算机可读存储介质
WO2019054791A1 (ko) 컨텐트를 실행하는 방법 및 장치
WO2019075944A1 (zh) 基于用户行为的信息屏蔽方法、装置、终端和存储介质
WO2017131348A1 (en) Electronic apparatus and controlling method thereof
WO2017096769A1 (zh) 显示设备的色彩校准方法及色彩校准系统
WO2019024485A1 (zh) 数据共享方法、装置及计算机可读存储介质
WO2015137666A1 (ko) 오브젝트 인식 장치 및 그 제어 방법
EP3847640A1 (en) Terminal device and method for controlling thereof
WO2015018185A1 (zh) 实现分布式遥控的方法、装置及其电视端和移动终端
WO2020168606A1 (zh) 广告视频优化方法、装置、设备及计算机可读存储介质
WO2016129840A1 (en) Display apparatus and information providing method thereof
WO2021002611A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918579

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18918579

Country of ref document: EP

Kind code of ref document: A1