JP2012088883A - Test method, test management server, and test management program - Google Patents

Test method, test management server, and test management program Download PDF

Info

Publication number
JP2012088883A
JP2012088883A JP2010234289A JP2010234289A JP2012088883A JP 2012088883 A JP2012088883 A JP 2012088883A JP 2010234289 A JP2010234289 A JP 2010234289A JP 2010234289 A JP2010234289 A JP 2010234289A JP 2012088883 A JP2012088883 A JP 2012088883A
Authority
JP
Japan
Prior art keywords
test
management server
analysis
procedure
target system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010234289A
Other languages
Japanese (ja)
Inventor
Akihiro Matsumoto
明紘 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010234289A priority Critical patent/JP2012088883A/en
Publication of JP2012088883A publication Critical patent/JP2012088883A/en
Pending legal-status Critical Current

Links

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a test method for a system that lightens the burden on a user associated with a test.SOLUTION: There is provided the test method for the computer system including a test environment in which one or more test servers are installed and a test management server which manages an operation test of a system to be tested in the tests environment. The test management server has an analytic item table. The method includes: a procedure in which the test management server constructs the system to be tested on the test server based upon written definitions in which operation settings of the system to be tested are defined; a procedure in which the test management server places the system to be tested in operation based upon test conditions in which test contents of the system to be tested are defined; a procedure in which the test environment transmits operation information on the system to be tested to the test management server; a procedure in which the test management server analyzes the received operation information by an analyzing method set in the analytic item table; and a procedure in which the management server outputs an analytic result.

Description

本発明は、テスト方法、テスト管理サーバ及びテスト管理プログラムに関する。   The present invention relates to a test method, a test management server, and a test management program.

業務システム等のシステムを開発する際、構築されたシステムの性能や信頼性をテストすることによって、システムの問題を発見し、発見された問題に対する解決方法を策定することが重要である(特許文献1参照)。   When developing a system such as a business system, it is important to discover system problems by testing the performance and reliability of the built system and formulate solutions for the discovered problems (Patent Literature) 1).

特許文献1には、アプリケーションプログラムの開発に関し、対話形式でユーザから指摘された不具合箇所とプログラムの実行履歴情報とから、不具合要因と解決策を特定し、特定された不具合要因や解決策をユーザに提示する技術が開示されている。   In Patent Document 1, regarding the development of an application program, a failure factor and a solution are identified from a failure location pointed out by the user in an interactive format and the execution history information of the program, and the identified failure factor and solution are identified by the user. The technology presented in is disclosed.

特開2001−249828号公報JP 2001-249828 A

しかしながら、特許文献1に開示された技術では、ユーザが手動で不具合箇所を指摘しなければならないため、テストに係るユーザの負担が重い問題があった。また、同技術は、アプリケーションプログラムの開発に対する仕組みであって、業務システム等のシステムの開発に対してはそのまま適用できなかった。   However, in the technique disclosed in Patent Document 1, the user has to manually point out the defective portion, and thus there is a problem that the burden on the user related to the test is heavy. In addition, this technology is a mechanism for developing application programs, and cannot be directly applied to the development of systems such as business systems.

本発明は、上述した課題を考慮したものであって、テストに係るユーザの負担を低減するシステムのテスト方法を提供することを目的とする。   The present invention has been made in consideration of the above-described problems, and an object of the present invention is to provide a system test method that reduces a burden on a user related to a test.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。   In order to solve the above problems, for example, the configuration described in the claims is adopted.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、1以上のテスト用サーバを備えたテスト環境と、前記テスト環境にネットワークを介して接続され、前記テスト環境において動作するテスト対象システムの動作テストを管理するテスト管理サーバとを備えた計算機システムにおけるテスト方法であって、前記1以上のテスト用サーバ及び前記テスト管理サーバの各々は、プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、前記テスト管理サーバは、前記動作テストにおいて分析すべき分析対象と、前記分析対象についての分析方法と、前記分析対象の分析に係る基準情報とが対応付けられた分析項目テーブルを有し、前記方法は、前記テスト管理サーバが、前記テスト対象システムの動作設定が定義された定義書に基づいて、前記テスト用サーバに前記テスト対象システムを構築する手順と、前記テスト管理サーバが、前記テスト対象システムのテスト内容が定義されたテスト条件に基づいて、前記テスト対象システムを稼働させる手順と、前記テスト環境が、前記テスト対象システムの稼働状況を示す稼働情報を、前記テスト管理サーバに送信する手順と、前記テスト管理サーバが、受信した前記稼働情報を、前記分析項目テーブルに設定された分析方法によって分析し、分析結果が当該分析方法に対応付けられた前記基準情報を満たすか否かを判断する手順と、前記テスト管理サーバが、前記判断する手順による判断結果を出力する手順と、を含むことを特徴とする。   The present application includes a plurality of means for solving the above problems. To give an example, a test environment including one or more test servers, and a test environment connected to the test environment via a network, A test method in a computer system comprising a test management server for managing an operation test of an operating test target system, wherein each of the one or more test servers and the test management server includes a processor for executing a program, A memory for storing a program executed by the processor, and the test management server includes an analysis object to be analyzed in the operation test, an analysis method for the analysis object, and reference information relating to the analysis of the analysis object And an analysis item table associated with the test management server. And a procedure for constructing the test target system on the test server based on a definition document in which operation settings of the test target system are defined, and the test management server defines the test contents of the test target system. A procedure for operating the test target system based on the tested conditions, a procedure for the test environment to transmit operating information indicating an operating status of the test target system to the test management server, and the test management server Analyzing the received operation information by an analysis method set in the analysis item table, and determining whether an analysis result satisfies the reference information associated with the analysis method, and the test A management server including a procedure for outputting a determination result based on the determination procedure.

本発明によれば、テストに係るユーザの負担を低減することができる。   According to the present invention, it is possible to reduce a burden on a user related to a test.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施形態の計算機システムの構成例を示す図である。It is a figure which shows the structural example of the computer system of embodiment of this invention. 本発明の実施形態の計算機システムの全体動作を説明するフローチャートである。It is a flowchart explaining the whole operation | movement of the computer system of embodiment of this invention. 本発明の実施形態の定義書の一例を示す図である。It is a figure which shows an example of the definition document of embodiment of this invention. 本発明の実施形態のテスト条件の一例を示す図である。It is a figure which shows an example of the test conditions of embodiment of this invention. 本発明の実施形態の定義ファイルの一例を示す図である。It is a figure which shows an example of the definition file of embodiment of this invention. 本発明の実施形態の構築スクリプトの一例を示す図である。It is a figure which shows an example of the construction script of embodiment of this invention. 本発明の実施形態の稼働情報の一例を示す図である。It is a figure which shows an example of the operation information of embodiment of this invention. 本発明の実施形態の分析項目テーブルの一例を示す図である。It is a figure which shows an example of the analysis item table of embodiment of this invention. 本発明の実施形態の問題・原因・解決方法テーブルの一例を示す図である。It is a figure which shows an example of the problem / cause / solution table of the embodiment of the present invention. 本発明の実施形態のテスト履歴プールの一例を示す図である。It is a figure which shows an example of the test history pool of embodiment of this invention. 本発明の実施形態の利用者端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the user terminal of embodiment of this invention. 本発明の実施形態の利用者端末に表示される画面の他の例を示す図である。It is a figure which shows the other example of the screen displayed on the user terminal of embodiment of this invention. 図2のステップS13の問題分析の制御ロジックを示すフローチャートである。It is a flowchart which shows the control logic of the problem analysis of step S13 of FIG. 本発明の実施形態の分析結果設定用テーブルの一例を示す図である。It is a figure which shows an example of the analysis result setting table of embodiment of this invention. 図2のステップS15の問題・原因・解決方法の表示情報作成の制御ロジックを示すフローチャートである。It is a flowchart which shows the control logic of display information creation of the problem, the cause, and the solution of step S15 of FIG. 本発明の実施形態の問題・原因・解決方法格納用テーブルの一例を示す図である。It is a figure which shows an example of the table for a problem, a cause, and a solution method of embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態の計算機システム1の構成例を示す図である。図1に示す計算機システム1は、LAN(Local Area Network)等のネットワーク4を介して互いに接続された運用テスト環境10、運用テスト管理サーバ20、複数の利用者端末3を備える。   FIG. 1 is a diagram illustrating a configuration example of a computer system 1 according to the embodiment of this invention. A computer system 1 shown in FIG. 1 includes an operation test environment 10, an operation test management server 20, and a plurality of user terminals 3 connected to each other via a network 4 such as a LAN (Local Area Network).

運用テスト環境10は、この計算機システム1においてテストを実施するためのテスト環境である。この運用テスト環境10は、複数の構築対象サーバ11−1、…、11−Nによって構成される。これら構築対象サーバ11−1、…、11−Nの各々は、運用テスト環境10に構築された仮想サーバである。各構築対象サーバ11−i(i=1〜Nの整数)は、メモリ(仮想メモリ)12−i、CPU(Central Processing Unit)(仮想CPU)13−i、インターフェース(仮想インターフェース)14−i、ディスクドライブ(仮想ドライブ)15−iを備える計算機である。なお、以下では、前述した各構成要素を、単に、構築対象サーバ11、メモリ12、CPU13、インターフェース14、ディスクドライブ15という。また、構築対象サーバ11は仮想サーバである場合を説明するが、仮想サーバでなくてもよい。   The operation test environment 10 is a test environment for performing a test in the computer system 1. The operation test environment 10 includes a plurality of construction target servers 11-1, ..., 11-N. Each of these construction target servers 11-1,..., 11 -N is a virtual server constructed in the operation test environment 10. Each construction target server 11-i (i = 1 to N) is a memory (virtual memory) 12-i, a CPU (Central Processing Unit) (virtual CPU) 13-i, an interface (virtual interface) 14-i, The computer includes a disk drive (virtual drive) 15-i. Hereinafter, the above-described components are simply referred to as a construction target server 11, a memory 12, a CPU 13, an interface 14, and a disk drive 15. Moreover, although the case where the construction target server 11 is a virtual server will be described, it may not be a virtual server.

メモリ12は、構築対象サーバ11の起動時にディスクドライブ15に記憶されたプログラムを読み出して記憶するRAM(Random Access Memory)等の記憶装置である。このメモリ12は、プログラムの実行に必要なファイル、データ等も記憶する。CPU13は、メモリ12に格納されたプログラムを実行する演算処理装置である。インターフェース14は、外部ネットワーク等に接続するためのインターフェース装置である。ディスクドライブ15は、プログラムやファイル、データ等を記憶するHDD等の記憶装置である。このディスクドライブ15には、定義ファイル50、構築スクリプト60、稼働情報70が記憶される。各々の情報の詳細については後述する。   The memory 12 is a storage device such as a RAM (Random Access Memory) that reads and stores a program stored in the disk drive 15 when the construction target server 11 is activated. The memory 12 also stores files, data, and the like necessary for program execution. The CPU 13 is an arithmetic processing device that executes a program stored in the memory 12. The interface 14 is an interface device for connecting to an external network or the like. The disk drive 15 is a storage device such as an HDD that stores programs, files, data, and the like. In this disk drive 15, a definition file 50, a construction script 60, and operation information 70 are stored. Details of each information will be described later.

運用テスト管理サーバ20は、運用テスト環境10を管理するためのコンピュータ装置である。この運用テスト管理サーバ20は、メモリ21、CPU22、インターフェース23、ディスクドライブ24を備える。   The operation test management server 20 is a computer device for managing the operation test environment 10. The operation test management server 20 includes a memory 21, a CPU 22, an interface 23, and a disk drive 24.

メモリ21は、運用テスト管理サーバ20の起動時にディスクドライブ24に記憶されたプログラムを読み出して記憶するRAM等の記憶装置である。このメモリ21は、プログラムの実行に必要なファイル、データ等も記憶する。   The memory 21 is a storage device such as a RAM that reads and stores a program stored in the disk drive 24 when the operation test management server 20 is activated. The memory 21 also stores files, data, and the like necessary for program execution.

CPU22は、メモリ21に格納されたプログラム(運用テスト環境10にテスト環境を構築するシステム構築処理部210、運用テスト環境10においてテストを実行させ、テスト結果を分析するテスト実行・分析処理部220を含む)を実行する演算処理装置である。インターフェース23は、外部ネットワーク等に接続するためのインターフェース装置である。ディスクドライブ24は、プログラムやファイル、データ等を記憶するHDD等の記憶装置である。このディスクドライブ24には、分析項目テーブル80、問題・原因・解決方法テーブル90、テスト履歴プール100が記憶される。各々の情報の詳細については後述する。   The CPU 22 includes a program stored in the memory 21 (a system construction processing unit 210 that constructs a test environment in the operational test environment 10, a test execution / analysis processing unit 220 that executes a test in the operational test environment 10 and analyzes the test result). (Including). The interface 23 is an interface device for connecting to an external network or the like. The disk drive 24 is a storage device such as an HDD that stores programs, files, data, and the like. The disk drive 24 stores an analysis item table 80, a problem / cause / solution table 90, and a test history pool 100. Details of each information will be described later.

利用者端末3−1、…、3−Mは、ユーザが利用するコンピュータ装置である。利用者端末3−j(j=1〜Mの整数)は、主記憶装置、CPU、インターフェース装置、ディスクドライブ、入力装置(キーボード、マウス等)、出力装置(表示ディスプレイ等)を備える(いずれも不図示)。なお、以降の説明においては、利用者端末3−1、…、3−Mを、単に、利用者端末3という。   User terminals 3-1,..., 3-M are computer devices used by users. The user terminal 3-j (an integer from j = 1 to M) includes a main storage device, a CPU, an interface device, a disk drive, an input device (such as a keyboard and a mouse), and an output device (such as a display). Not shown). In the following description, the user terminals 3-1, ..., 3-M are simply referred to as user terminals 3.

図2は、本発明の実施形態の計算機システム1の全体動作を説明するフローチャートである。ここでは、計算機システム1のシステム全体の動作について説明する。   FIG. 2 is a flowchart for explaining the overall operation of the computer system 1 according to the embodiment of this invention. Here, the operation of the entire system of the computer system 1 will be described.

まずステップS1において、ユーザは、利用者端末3上で定義書30、テスト条件40、業務アプリを入力する(S1)。なお、ここでいう業務アプリとは、運用テスト環境10上でテスト対象の業務システムを動作させるアプリケーションソフトウェアである。そうすると、利用者端末3は、入力された定義書30、テスト条件40、業務アプリを運用テスト管理サーバ20に送信する(S2)。   First, in step S1, the user inputs the definition document 30, the test condition 40, and the business application on the user terminal 3 (S1). The business application here is application software for operating a business system to be tested on the operation test environment 10. Then, the user terminal 3 transmits the input definition document 30, test condition 40, and business application to the operation test management server 20 (S2).

その後ステップS3において、運用テスト管理サーバ20のシステム構築処理部210は、受信した定義書30に基づいて運用テスト環境10の構築を開始する(S3)。具体的には、受信した定義書30に基づいて定義ファイル50を作成する。   Thereafter, in step S3, the system construction processing unit 210 of the operational test management server 20 starts construction of the operational test environment 10 based on the received definition document 30 (S3). Specifically, the definition file 50 is created based on the received definition document 30.

その後ステップS4において、作成された定義ファイル50及び構築スクリプト60を運用テスト環境10に送信する(S4)。そうすると、運用テスト環境10は、受信した定義ファイル50、構築スクリプト60に基づいてテスト環境を構築する(S5)。   Thereafter, in step S4, the created definition file 50 and construction script 60 are transmitted to the operation test environment 10 (S4). Then, the operation test environment 10 constructs a test environment based on the received definition file 50 and construction script 60 (S5).

その後、システム構築処理部210は、ステップS2で受信した業務アプリを運用テスト環境10に組み込む(S6)。すなわち、業務アプリを運用テスト環境10に送信する(S7)。そうすると、運用テスト環境10は、受信した業務アプリを組み込む(インストールする)(S8)。   Thereafter, the system construction processing unit 210 incorporates the business application received in step S2 into the operation test environment 10 (S6). That is, the business application is transmitted to the operation test environment 10 (S7). Then, the operation test environment 10 incorporates (installs) the received business application (S8).

その後ステップS9において、運用テスト管理サーバ20のテスト実行・分析処理部220は、ステップS2で受信したテスト条件40に基づいて運用テスト環境10を稼働させる(S9)。そうすると、運用テスト環境10は起動し(S10)、稼働状態になる(S11)。   Thereafter, in step S9, the test execution / analysis processing unit 220 of the operation test management server 20 operates the operation test environment 10 based on the test condition 40 received in step S2 (S9). Then, the operation test environment 10 is activated (S10) and is in an operating state (S11).

以上説明したステップS1〜S11の処理により、運用テスト環境10上にテスト対象のシステムを自動的に構築することができる。これにより、本番環境でテストを実施することによるコストやリスクを低減することができる。   The test target system can be automatically constructed on the operation test environment 10 by the processing in steps S1 to S11 described above. This can reduce costs and risks associated with testing in a production environment.

その後ステップS12において、運用テスト環境10は、稼働情報70を運用テスト管理サーバ20に送信する(S12)。そうすると、テスト実行・分析処理部220は、受信した稼働情報70と、ディスクドライブ24に記憶されたテスト履歴プール100とに基づいて、問題を分析する(S13)。ステップS13の処理については詳細に後述する。   Thereafter, in step S12, the operation test environment 10 transmits the operation information 70 to the operation test management server 20 (S12). Then, the test execution / analysis processing unit 220 analyzes the problem based on the received operation information 70 and the test history pool 100 stored in the disk drive 24 (S13). The process of step S13 will be described later in detail.

その後ステップS14において、テスト実行・分析処理部220は、受信した稼働情報70及びステップS13の分析結果をテスト履歴プール100に保存する(S14)。その後、ステップS13の分析結果と、ディスクドライブ24に記憶された問題・原因・解決方法テーブル90とに基づいて、ユーザに提示すべき問題・原因・解決方法の表示情報を作成する(S15)。ステップS15の処理については詳細に後述する。   Thereafter, in step S14, the test execution / analysis processing unit 220 stores the received operation information 70 and the analysis result of step S13 in the test history pool 100 (S14). Thereafter, display information of the problem / cause / solution to be presented to the user is created based on the analysis result of step S13 and the problem / cause / solution table 90 stored in the disk drive 24 (S15). The process of step S15 will be described later in detail.

その後ステップS16において、テスト実行・分析処理部220は、ステップS15で作成された問題・原因・解決方法の表示情報を、テスト履歴プール100に保存する(S16)。その後、ステップS15で作成された問題・原因・解決方法の表示情報と、テスト履歴プール100に保存された情報とを、表示情報として利用者端末3に送信する(S17)。そうすると、利用者端末3は、受信した表示情報を表示する(S18)。   Thereafter, in step S16, the test execution / analysis processing unit 220 stores the display information of the problem / cause / solution generated in step S15 in the test history pool 100 (S16). Thereafter, the display information of the problem / cause / solution created in step S15 and the information stored in the test history pool 100 are transmitted to the user terminal 3 as display information (S17). Then, the user terminal 3 displays the received display information (S18).

以上説明したステップS12〜S18の処理により、運用テスト管理サーバ20は、運用テスト環境10における問題の分析と、問題の発見と、発見された問題に対する解決方法の利用者端末3への提示とを自動的に実施することができる。   Through the processing in steps S12 to S18 described above, the operation test management server 20 performs analysis of the problem in the operation test environment 10, discovery of the problem, and presentation of the solution to the discovered problem to the user terminal 3. Can be implemented automatically.

その後ステップS19において、ユーザは、利用者端末3の表示画面上で1つ以上の解決方法を選択する(S19)。そうすると、利用者端末3は、ユーザによって選択された解決方法の情報を、運用テスト管理サーバ20に送信する(S20)。   Thereafter, in step S19, the user selects one or more solutions on the display screen of the user terminal 3 (S19). Then, the user terminal 3 transmits information on the solution selected by the user to the operation test management server 20 (S20).

その後ステップS21において、テスト実行・分析処理部220は、受信した解決方法を満たす定義書30(修正された定義書30)を作成する(S21)。また、受信した解決方法の情報及び作成された定義書30をテスト履歴プール100に保存する(S22)。   Thereafter, in step S21, the test execution / analysis processing unit 220 creates a definition document 30 (modified definition document 30) that satisfies the received solution (S21). Further, the received solution information and the created definition document 30 are stored in the test history pool 100 (S22).

その後ステップS23において、テスト実行・分析処理部220は、再構築(手動)か再構築(自動)か再構築しないかを判定する(S23)。再構築(手動)の場合(S23でYES(手動))、利用者端末3は、ステップS21で作成された定義書30をダウンロードし(S24)、ステップS1に戻って処理を繰り返す。再構築(自動)の場合(S23でYES(自動))、運用テスト管理サーバ20は、S3に戻って処理を繰り返す。一方、再構築しない場合(S23でNO)、運用テスト管理サーバ20は、処理を終了する。   Thereafter, in step S23, the test execution / analysis processing unit 220 determines whether reconstruction (manual), reconstruction (automatic), or no reconstruction is performed (S23). In the case of reconstruction (manual) (YES in S23 (manual)), the user terminal 3 downloads the definition document 30 created in step S21 (S24), returns to step S1, and repeats the processing. In the case of reconstruction (automatic) (YES in S23 (automatic)), the operation test management server 20 returns to S3 and repeats the process. On the other hand, when the reconstruction is not performed (NO in S23), the operation test management server 20 ends the process.

以上説明したステップS19〜S23の処理により、運用テスト管理サーバ20は、ユーザに解決方法の選択を促し、ユーザによって選択された解決方法を満たす定義書30を自動的に作成することができる。これにより、作成された定義書30に基づいて、再テストを実施することも可能になる。   Through the processing in steps S19 to S23 described above, the operation test management server 20 can prompt the user to select a solution and automatically create a definition document 30 that satisfies the solution selected by the user. As a result, the retest can be performed based on the created definition document 30.

なお、ステップS23又はS24以降一連の処理を繰り返す場合、ステップS21で作成された定義書30が複数ある場合には、定義書30と同数の構築対象サーバ(仮想サーバ)11のそれぞれを、各々の定義書30に基づいて構築してもよい。   In addition, when repeating a series of processes after step S23 or S24, when there are a plurality of definition documents 30 created in step S21, each of the same number of construction target servers (virtual servers) 11 as the definition documents 30 is set to each You may build based on the definition document 30.

図3は、本発明の実施形態の定義書30の一例を示す図である。定義書30とは、システムに要求される性能(要件)、システムの動作設定が定義されたファイルである。図3に示す定義書30は、複数の項目31と、各項目31に対する設定値32とを含む。   FIG. 3 is a diagram illustrating an example of the definition document 30 according to the embodiment of this invention. The definition document 30 is a file in which performance (requirements) required for the system and system operation settings are defined. The definition document 30 shown in FIG. 3 includes a plurality of items 31 and a setting value 32 for each item 31.

カラム301には、1秒あたりのリクエスト数は最低10件である、というシステムの要求性能が定義されている。カラム302には、CPU使用率は最大70%である、というシステムの要求性能が定義されている。カラム303には、1セッションあたりの使用メモリサイズは最大1MBである、というシステムの要求性能が定義されている。カラム304には、同時ログイン数は最低10人である、というシステムの要求性能が定義されている。カラム305には、FullGCの累積回数は最大5回である、というシステムの要求性能が定義されている。一方、カラム306には、Java(登録商標、以下同じ)ヒープ領域のうちのNew領域のサイズは256MBである、というシステムの動作設定が定義されている。   The column 301 defines the required performance of the system that the number of requests per second is at least 10. The column 302 defines the required performance of the system that the CPU usage rate is 70% at maximum. A column 303 defines the required performance of the system that the used memory size per session is 1 MB at the maximum. The column 304 defines the required performance of the system that the number of simultaneous logins is at least 10. The column 305 defines the required performance of the system such that the cumulative number of full GCs is 5 at the maximum. On the other hand, the column 306 defines a system operation setting that the size of the New area of the Java (registered trademark, the same applies hereinafter) heap area is 256 MB.

以上のように定義書30には、システムに要求される性能、システムの動作設定が定義される。なお、定義される情報は、図3に示す情報に限定されるものではない。   As described above, the definition document 30 defines performance required for the system and system operation settings. The defined information is not limited to the information shown in FIG.

図4は、本発明の実施形態のテスト条件40の一例を示す図である。テスト条件40とは、運用テスト環境10のテスト条件が定義されたファイルである。図4に示すテスト条件40は、複数の項目41と、各項目41に対する設定値42とを含む。   FIG. 4 is a diagram illustrating an example of the test condition 40 according to the embodiment of this invention. The test condition 40 is a file in which test conditions for the operational test environment 10 are defined. The test condition 40 shown in FIG. 4 includes a plurality of items 41 and a set value 42 for each item 41.

カラム401には、負荷条件が定義される。図4に示す例では、1回の繰り返しにおける負荷を与える処理の実行数が5回であり、1回の繰り返しにおける時間が10秒であり、繰り返し回数が100回であること、すなわち、10秒間に5回負荷を与える処理を100回繰り返す、という負荷条件が定義されている。   In column 401, a load condition is defined. In the example shown in FIG. 4, the number of executions of processing that gives a load in one iteration is five, the time in one iteration is 10 seconds, and the number of iterations is 100, that is, 10 seconds. A load condition is defined such that a process of applying a load five times is repeated 100 times.

一方、カラム402には、負荷内容が定義される。図4に示す例では、負荷1として、192.168.102.1のサーバ名(又はIPアドレス)で示されるサーバの80番ポートに対して、カラム402に示す各種パラメータを送信する、という負荷内容が定義されている。   On the other hand, the load content is defined in the column 402. In the example shown in FIG. 4, the load is that the various parameters shown in the column 402 are transmitted as the load 1 to the 80th port of the server indicated by the server name (or IP address) of 192.168.102.1. The contents are defined.

以上のようにテスト条件40には、運用テスト環境10のテスト条件が定義される。なお、定義される情報は、図4に示す情報に限定されるものではない。   As described above, the test condition 40 defines the test condition of the operation test environment 10. The defined information is not limited to the information shown in FIG.

図5は、本発明の実施形態の定義ファイル50の一例を示す図である。定義ファイル50とは、定義書30を運用テスト環境10が処理可能なデータ形式に変更したファイルである。この定義ファイル50は、図2のステップS3において生成される。   FIG. 5 is a diagram illustrating an example of the definition file 50 according to the embodiment of this invention. The definition file 50 is a file obtained by changing the definition document 30 into a data format that can be processed by the operation test environment 10. This definition file 50 is generated in step S3 of FIG.

図5(a)に示すようなプロパティファイル形式、図5(b)に示すようなXMLファイル形式が例として挙げられるが、運用テスト環境10が処理可能なデータ形式であればその他のデータ形式であってもよい。   The property file format as shown in FIG. 5A and the XML file format as shown in FIG. 5B are given as examples, but other data formats can be used as long as the data can be processed by the operation test environment 10. There may be.

図6は、本発明の実施形態の構築スクリプト60の一例を示す図である。構築スクリプト60は、運用テスト環境10において各構築対象サーバ11−1〜11−Nの構築に必要なコマンドを自動的に実行するためのファイルである。図6に示す例では、構築スクリプト60はバッチファイル(スクリプト)で示される。   FIG. 6 is a diagram illustrating an example of the construction script 60 according to the embodiment of this invention. The construction script 60 is a file for automatically executing commands necessary for construction of the construction target servers 11-1 to 11-N in the operation test environment 10. In the example shown in FIG. 6, the construction script 60 is shown as a batch file (script).

図7は、本発明の実施形態の稼働情報70の一例を示す図である。稼働情報70とは、運用テスト環境10をテスト条件40に従って稼働させた場合の稼働状況を示す情報が記録されたファイルである。図7に示すように、稼働情報70は、アクセスログ71、CPU使用率ログ72、JavaVMログ73を含む。   FIG. 7 is a diagram illustrating an example of the operation information 70 according to the embodiment of this invention. The operation information 70 is a file in which information indicating an operation status when the operation test environment 10 is operated according to the test condition 40 is recorded. As illustrated in FIG. 7, the operation information 70 includes an access log 71, a CPU usage rate log 72, and a JavaVM log 73.

アクセスログ71には、運用テスト環境10において発生する各リクエストの開始時間、各リクエストの内容、各リクエストの処理時間(単位:秒)が記録される。CPU使用率ログ72には、各時刻におけるCPUの使用率が記録される。JavaVMログ73には、GC(Garbage Collection)やFullGC等が生じた時間、その際の使用メモリサイズの変化量が記録される。   In the access log 71, the start time of each request generated in the operation test environment 10, the contents of each request, and the processing time (unit: second) of each request are recorded. The CPU usage rate log 72 records the CPU usage rate at each time. The Java VM log 73 records the time when GC (Garbage Collection), Full GC, etc. occur, and the amount of change in the memory size used at that time.

以上のように稼働情報70には、運用テスト環境10をテスト条件40に従って稼働させた場合の稼働状況を示す情報が記録される。なお、記録される情報は、図7に示す情報に限定されるものではない。   As described above, the operation information 70 records information indicating an operation state when the operation test environment 10 is operated according to the test condition 40. The information to be recorded is not limited to the information shown in FIG.

図8は、本発明の実施形態の分析項目テーブル80の一例を示す図である。分析項目テーブル80とは、図2のステップS13において問題の分析に用いられるデータである。図8に示す分析項目テーブル80は、複数の分析対象81と、各分析対象81に対応する分析方法82と、各分析対象81に対応するOK/NG条件83とを含む。   FIG. 8 is a diagram illustrating an example of the analysis item table 80 according to the embodiment of this invention. The analysis item table 80 is data used for problem analysis in step S13 of FIG. The analysis item table 80 shown in FIG. 8 includes a plurality of analysis objects 81, an analysis method 82 corresponding to each analysis object 81, and an OK / NG condition 83 corresponding to each analysis object 81.

カラム801には、分析対象81がJ2EEサーバである場合の分析方法82として、J2EEサーバの状態を確認することが定義されている。また、OK/NG条件83として、J2EEサーバが開始状態である場合にはOKを返し、すなわちJ2EEサーバには問題がないと判定し、J2EEサーバが開始状態でない場合にはNGを返す、すなわちJ2EEサーバには問題があると判定することが定義されている。   The column 801 defines that the state of the J2EE server is confirmed as an analysis method 82 when the analysis target 81 is a J2EE server. As the OK / NG condition 83, when the J2EE server is in the start state, OK is returned, that is, it is determined that there is no problem in the J2EE server, and when the J2EE server is not in the start state, NG is returned, that is, J2EE. It is defined that the server determines that there is a problem.

カラム802には、分析対象81がFullGC累積回数である場合の分析方法82として、JavaVMログ73を分析し、FullGCの累積回数を確認し、定義書30の設定値と比較することが定義されている。また、OK/NG条件83として、FullGC累積回数が定義書30の設定値以下である場合には、システムの要求性能を満たすのでOKを返し、定義書30の設定値より大きい場合には、システムの要求性能を満たさないのでNGを返すことが定義されている。   The column 802 defines that the Java VM log 73 is analyzed as the analysis method 82 when the analysis target 81 is the full GC accumulation count, the accumulation count of the full GC is confirmed, and compared with the setting value of the definition document 30. Yes. Further, as the OK / NG condition 83, when the Full GC cumulative number is less than or equal to the set value of the definition document 30, the system satisfies the required performance of the system, so OK is returned. It is defined that NG is returned because the required performance is not satisfied.

カラム803には、分析対象81がCPU使用率である場合の分析方法82として、CPU使用率ログ72を分析し、CPU使用率のピーク値を取得し、定義書30の設定値と比較することが定義されている。また、OK/NG条件83として、CPU使用率のピーク値が定義書30の設定値以下である場合には、システムの要求性能を満たすのでOKを返し、定義書30の設定値より大きい場合には、システムの要求性能を満たさないのでNGを返すことが定義されている。   In a column 803, as an analysis method 82 when the analysis target 81 is the CPU usage rate, the CPU usage rate log 72 is analyzed, the peak value of the CPU usage rate is obtained, and compared with the setting value of the definition document 30. Is defined. Further, as an OK / NG condition 83, when the peak value of the CPU usage rate is equal to or less than the setting value of the definition document 30, the system satisfies the required performance of the system, so that OK is returned and is larger than the setting value of the definition document 30. Is defined to return NG because it does not satisfy the required performance of the system.

以上のように分析項目テーブル80には、運用テスト管理サーバ20が問題を分析する際の分析項目がリスト化されている。なお、リスト化される情報は、図8に示す情報に限定されるものではない。   As described above, the analysis item table 80 lists analysis items when the operation test management server 20 analyzes a problem. Note that the information to be listed is not limited to the information shown in FIG.

図9は、本発明の実施形態の問題・原因・解決方法テーブル90の一例を示す図である。問題・原因・解決方法テーブル90とは、図2のステップS15において用いられるデータである。図9に示す問題・原因・解決方法テーブル90では、複数の問題91と、各問題91に対応する原因項目92と、各原因項目92に対応する解決方法項目93とを含む。   FIG. 9 is a diagram illustrating an example of the problem / cause / solution table 90 according to the embodiment of this invention. The problem / cause / solution table 90 is data used in step S15 in FIG. The problem / cause / solution table 90 shown in FIG. 9 includes a plurality of problems 91, cause items 92 corresponding to each problem 91, and solution items 93 corresponding to each cause item 92.

問題91には、分析項目テーブル80にリスト化された各分析項目(図8では、カラム801〜803)に対応する問題が定義されている。原因項目92には、各問題91に対応する1以上の原因が、優先度付きで定義されている。解決方法項目93には、各原因項目92に対する1以上の解決方法が、優先度付きで定義されている。   In the problem 91, problems corresponding to the analysis items listed in the analysis item table 80 (columns 801 to 803 in FIG. 8) are defined. In the cause item 92, one or more causes corresponding to each problem 91 are defined with priority. In the solution item 93, one or more solutions for each cause item 92 are defined with priority.

カラム901には、CPU使用率が設定値よりも大きいという問題(図8のカラム803に対応する問題)に対する原因として、FullGCの発生間隔が短いこと(優先度1)及び最大同時実行数が大きいこと(優先度2)が定義されている。また、これらの原因の各々に対する解決方法として、♯2(カラム902の各解決方法へのリンク)、実行待ちキューサイズを小さくすることが定義されている。なお、解決方法項目93の「定義書作成」の欄は、「解決方法」の欄に示す解決方法に基づいて定義書30を自動生成できるか否かを示す情報である。   In column 901, the cause of the problem that the CPU usage rate is larger than the set value (the problem corresponding to column 803 in FIG. 8) is that the occurrence interval of FullGC is short (priority 1) and the maximum number of simultaneous executions is large. (Priority level 2) is defined. Further, as a solution for each of these causes, # 2 (link to each solution in column 902), it is defined to reduce the execution queue size. The column “definition document creation” of the solution item 93 is information indicating whether or not the definition document 30 can be automatically generated based on the solution method shown in the column “solution”.

カラム902には、FullGC累積回数が大きいという問題(図8のカラム802に対応する問題)に対する原因及び各原因に対する解決方法が定義されている。   The column 902 defines a cause for the problem that the number of accumulated Full GCs is large (a problem corresponding to the column 802 in FIG. 8) and a solution for each cause.

以上のように問題・原因・解決方法テーブル90には、運用テスト環境10の問題・原因・解決方法が、分析項目テーブル80に対応付けて設定される。運用テスト管理サーバ20は、図2のステップS15において、この問題・原因・解決方法テーブル90を用いることによって、分析結果に応じた問題・原因・解決方法の表示情報を作成することができる。   As described above, the problem / cause / solution method table 90 sets the problem / cause / solution of the operation test environment 10 in association with the analysis item table 80. The operation test management server 20 can create display information of the problem / cause / solution according to the analysis result by using this problem / cause / solution table 90 in step S15 of FIG.

図10は、本発明の実施形態のテスト履歴プール100の一例を示す図である。テスト履歴プール100とは、運用テスト環境10のテスト結果等の各種情報を保存するためのテーブルである。図10に示すテスト履歴プール100は、テスト名101と、前回選択した解決方法102と、稼働情報103と、分析結果104と、問題・原因・解決方法105と、今回選択した解決方法106と、作成された定義書107とを含む。   FIG. 10 is a diagram illustrating an example of the test history pool 100 according to the embodiment of this invention. The test history pool 100 is a table for storing various information such as test results of the operation test environment 10. The test history pool 100 illustrated in FIG. 10 includes a test name 101, a previously selected solution 102, operation information 103, an analysis result 104, a problem / cause / solution 105, and a currently selected solution 106. And the created definition document 107.

テスト名101には、各テストを一意に識別するための識別子が格納される。カラム1001には、初回のテストとして、「初回テスト」が格納される。一方、カラム802〜807には、「(テスト対象の構築対象サーバID)_(前回選択された解決方法のID)_(n回目のテスト)」が格納される。   The test name 101 stores an identifier for uniquely identifying each test. The column 1001 stores “initial test” as the initial test. On the other hand, in columns 802 to 807, “(test target server ID) _ (ID of the solution selected last time) _ (n-th test)” is stored.

例えばカラム1002に示すテストは、カラム1001に示す初回テストを実行後にユーザによって選択された解決方法「1_#3−1−1」(カラム1001の今回選択した解決方法106の欄を参照)を、運用テスト環境10に反映させた後に実行する2回目のテストである。そのため、カラム1002のテスト名101には、「1_#3−1−1_2」が格納される。同様に、カラム1003に示すテストは、カラム1002に示す2回目のテストを実行後にユーザによって選択された解決方法「1_#2−1−1」(カラム1002の今回選択した解決方法106の欄を参照)を、運用テスト環境10に反映させた後に実行する3回目のテストである。そのため、カラム1003のテスト名101には、「1_#2−1−1_3」が格納される。   For example, in the test shown in the column 1002, the solution “1_ # 3-1-1” selected by the user after executing the initial test shown in the column 1001 (see the column of the solution 106 selected this time in the column 1001), This is the second test executed after being reflected in the operational test environment 10. Therefore, “1_ # 3-1-1_2” is stored in the test name 101 of the column 1002. Similarly, the test shown in the column 1003 includes the solution “1_ # 2-1-1” selected by the user after executing the second test shown in the column 1002 (the column of the solution 106 selected this time in the column 1002). Is a third test to be executed after being reflected in the operation test environment 10. Therefore, “1_ # 2-1-1_3” is stored in the test name 101 of the column 1003.

前回選択した解決方法102には、テスト名101で示すテストの前回のテスト(例えばカラム1002のテストであれば、カラム1001のテスト)において選択された解決方法が格納される。   The solution 102 selected last time stores the solution selected in the previous test of the test indicated by the test name 101 (for example, the test in the column 1001 if the test is in the column 1002).

稼働情報103には、テスト名101で示すテストを実行した場合に、図2のステップS12で運用テスト管理サーバ20が受信する稼働情報70に対するファイルパスが格納される。   The operation information 103 stores a file path for the operation information 70 received by the operation test management server 20 in step S12 of FIG. 2 when the test indicated by the test name 101 is executed.

分析結果104には、テスト名101で示すテストを実行した場合に、図2のステップS13で作成される分析結果設定用テーブル140(図14を用いて詳細に後述)が格納される。   In the analysis result 104, an analysis result setting table 140 (described later in detail with reference to FIG. 14) created in step S13 of FIG. 2 when the test indicated by the test name 101 is executed is stored.

問題・原因・解決方法105には、テスト名で示すテストを実行した場合に、図2のステップS15で作成される問題・原因・解決方法格納用テーブル160(図16を用いて詳細に後述)が格納される。   The problem / cause / solution 105 is a problem / cause / solution storage table 160 created in step S15 of FIG. 2 when a test indicated by a test name is executed (detailed later with reference to FIG. 16). Is stored.

今回選択された解決方法106には、テスト名で示すテストを実行した場合に、図2のステップS19で選択された1以上の解決方法が格納される。   The solution 106 selected this time stores one or more solutions selected in step S19 of FIG. 2 when the test indicated by the test name is executed.

作成された定義書107には、テスト名で示すテストを実行した場合に、図2のステップS21で作成された定義書30に対するファイルパスが格納される。   The created definition document 107 stores a file path for the definition document 30 created in step S21 of FIG. 2 when the test indicated by the test name is executed.

以上のように、テスト履歴プール100には、運用テスト環境10のテスト結果等の各種情報が、テスト間で関連付けられて格納される。   As described above, the test history pool 100 stores various information such as test results of the operation test environment 10 in association with each other.

図11は、本発明の実施形態の利用者端末3に表示される画面110の一例を示す図である。この画面110は、図2のステップS18において利用者端末3上に表示される。この画面110は、選択部111と、表示内容112と、チェックボックス113と、ボタン114、115とを含む。   FIG. 11 is a diagram illustrating an example of the screen 110 displayed on the user terminal 3 according to the embodiment of this invention. This screen 110 is displayed on the user terminal 3 in step S18 of FIG. The screen 110 includes a selection unit 111, display contents 112, a check box 113, and buttons 114 and 115.

選択部111は、ユーザが利用者端末3に表示させたい内容を選択するために設けられている。図11に示す例では、運用テスト環境Aの「解決方法」が選択されている。なお、「テスト履歴」が選択された場合については、図12を用いて後述する。   The selection unit 111 is provided for the user to select contents to be displayed on the user terminal 3. In the example shown in FIG. 11, the “solution” of the operation test environment A is selected. The case where “test history” is selected will be described later with reference to FIG.

表示内容112には、選択部111における選択に対応する内容(ここでは、問題・原因・解決方法格納用テーブル160)が表示される。   In the display content 112, content corresponding to the selection in the selection unit 111 (here, the problem / cause / solution storage table 160) is displayed.

チェックボックス113は、利用者端末3上でユーザが1以上の解決方法を選択するために設けられ、解決方法毎にチェック可能なチェックボックスである。なお、解決方法を選択できないもの(定義書30を自動生成できないもの)については、選択不可になっている。ユーザは1以上の解決方法を選択し、マウス等の入力装置を用いてチェックすることができる。   The check box 113 is a check box that is provided for the user to select one or more solution methods on the user terminal 3 and can be checked for each solution method. Note that a solution cannot be selected (one for which the definition document 30 cannot be automatically generated) cannot be selected. The user can select one or more solutions and check using an input device such as a mouse.

ボタン114は、ユーザによって選択された解決方法に基づいて生成される定義書30をダウンロードするためのボタンである。このボタン114を押下すると、図2のステップS23において、YES(手動)に処理が進む。一方、ボタン115は、再テストを実行するためのボタンである。このボタン115を押下すると、図2のステップS23において、YES(自動)に処理が進む。   The button 114 is a button for downloading the definition document 30 generated based on the solution selected by the user. When this button 114 is pressed, the process proceeds to YES (manual) in step S23 of FIG. On the other hand, the button 115 is a button for executing a retest. When this button 115 is pressed, the process proceeds to YES (automatic) in step S23 of FIG.

以上のような画面110を利用者端末3上に表示させることにより、運用テスト管理サーバ20は、ユーザに解決方法の選択を促す。また、ユーザによって選択された解決方法を満たす定義書30を自動的に作成し、作成された定義書30を利用者端末3にダウンロードさせたり、作成された定義書30に基づいて再テストを実行したりすることが可能になる。   By displaying the screen 110 as described above on the user terminal 3, the operation test management server 20 prompts the user to select a solution. In addition, a definition document 30 that satisfies the solution selected by the user is automatically created, and the created definition document 30 is downloaded to the user terminal 3, or a retest is performed based on the created definition document 30. It becomes possible to do.

図12は、本発明の実施形態の利用者端末3に表示される画面120の他の例を示す図である。この画面120は、図2のステップS18において利用者端末3上に表示される。なお、以下では図11と同様の構成要素には同一の符号を付して重複する説明を適宜省略する。   FIG. 12 is a diagram illustrating another example of the screen 120 displayed on the user terminal 3 according to the embodiment of this invention. This screen 120 is displayed on the user terminal 3 in step S18 of FIG. In the following description, the same components as those in FIG.

図12に示す画面120は、選択部111、121と、表示内容112、122と、チェックボックス113と、ボタン114、115とを含む。   A screen 120 shown in FIG. 12 includes selection units 111 and 121, display contents 112 and 122, a check box 113, and buttons 114 and 115.

選択部111は、ユーザが利用者端末3に表示させたい内容を選択するために設けられている。図12に示す例では、運用テスト環境Aの「テスト履歴」が選択されている。また選択部121が、ユーザが利用者端末3に表示させたいテスト履歴を選択するために設けられている。図12に示す例では、「1_#3−1−1_2(2回目のテスト)」が選択されている。   The selection unit 111 is provided for the user to select contents to be displayed on the user terminal 3. In the example shown in FIG. 12, “test history” of the operation test environment A is selected. A selection unit 121 is provided to select a test history that the user wants to display on the user terminal 3. In the example shown in FIG. 12, “1_ # 3-1-1_2 (second test)” is selected.

表示内容112には、選択部111における選択に対応する内容(ここでは、2回目のテストに係る問題・原因・解決方法格納用テーブル160)が表示される。また表示内容122には、前回のテスト(ここでは、初回のテスト)で選択した解決方法に関する情報が表示される。   The display content 112 displays the content corresponding to the selection in the selection unit 111 (here, the problem / cause / solution storage table 160 relating to the second test). The display content 122 displays information related to the solution selected in the previous test (here, the first test).

以上のような画面110を利用者端末3上に表示させることにより、運用テスト管理サーバ20は、ユーザに解決方法の選択を促す。なお、前述の図11に示す画面110と異なり、過去のテスト履歴を表示することによって、ユーザは過去のテスト履歴を参考にした上で、最適な解決方法を選択することができる。   By displaying the screen 110 as described above on the user terminal 3, the operation test management server 20 prompts the user to select a solution. Unlike the screen 110 shown in FIG. 11 described above, by displaying the past test history, the user can select an optimal solution method with reference to the past test history.

図13は、図2のステップS13の問題分析の制御ロジックを示すフローチャートである。ここでは、図2のステップS13の具体的な動作について説明する。   FIG. 13 is a flowchart showing the control logic of the problem analysis in step S13 of FIG. Here, the specific operation of step S13 in FIG. 2 will be described.

まずステップS1301に示すように、運用テスト管理サーバ20は、ステップS1302〜S1309の処理を、構築対象サーバ11毎に繰り返す(S1301)。   First, as shown in step S1301, the operation test management server 20 repeats the processing of steps S1302 to S1309 for each construction target server 11 (S1301).

すなわち、まずステップS1302において、運用テスト管理サーバ20は、分析項目テーブル80を読み込み、この分析項目テーブル80に基づいて、分析結果を設定するための分析結果設定用テーブル140を作成する(S1302)。   That is, first, in step S1302, the operation test management server 20 reads the analysis item table 80, and creates an analysis result setting table 140 for setting analysis results based on the analysis item table 80 (S1302).

図14は、本発明の実施形態の分析結果設定用テーブル140の一例を示す図である。分析結果設定用テーブル140とは、構築対象サーバ11毎に作成され、対応する構築対象サーバ11の分析結果を保存するためのテーブルである。なお、以下では図8と同様の構成要素には同一の符号を付して重複する説明を適宜省略する。   FIG. 14 is a diagram illustrating an example of the analysis result setting table 140 according to the embodiment of this invention. The analysis result setting table 140 is a table that is created for each construction target server 11 and stores the analysis result of the corresponding construction target server 11. In the following description, the same components as those in FIG.

図14に示す分析結果設定用テーブル140は、複数の分析対象81と、各分析対象81に対応する分析方法82と、各分析対象81に対応するOK/NG条件83と、各分析対象81を当該分析対象81に対応する分析方法82によって分析した場合の計測値141と、定義書30に定義された定義値142と、各分析対象81について問題があるか否かを示す分析結果143とを含む。なお、この分析結果設定用テーブル140が作成された時点では、計測値141、定義値142及び分析結果143は空欄である。   The analysis result setting table 140 shown in FIG. 14 includes a plurality of analysis objects 81, an analysis method 82 corresponding to each analysis object 81, an OK / NG condition 83 corresponding to each analysis object 81, and each analysis object 81. A measurement value 141 when analyzed by the analysis method 82 corresponding to the analysis target 81, a definition value 142 defined in the definition document 30, and an analysis result 143 indicating whether or not each analysis target 81 has a problem. Including. At the time when the analysis result setting table 140 is created, the measurement value 141, the definition value 142, and the analysis result 143 are blank.

図13に戻り、ステップS1303に示すように、運用テスト管理サーバ20は、ステップS1304〜S1309の処理を、分析項目テーブル80に定義された分析項目の数(図8ではカラム801、802、803の3回)繰り返す(S1303)。以下、ステップS1304〜S1309の処理について説明する。   Returning to FIG. 13, as shown in step S <b> 1303, the operation test management server 20 performs the processing of steps S <b> 1304 to S <b> 1309 with the number of analysis items defined in the analysis item table 80 (in FIG. 8, columns 801, 802, 803). 3 times) (S1303). Hereinafter, the processing of steps S1304 to S1309 will be described.

ステップS1304において、運用テスト管理サーバ20は、ステップS1303で選択されたカラムにおける分析対象81を、分析方法82に従って分析する(S1304)。その後ステップS1305において、運用テスト管理サーバ20は、分析によって得られる計測値と、定義書30に定義された定義値とを、分析結果設定用テーブル140の計測値141、定義値142の欄にそれぞれ設定する(S1305)。   In step S1304, the operation test management server 20 analyzes the analysis target 81 in the column selected in step S1303 according to the analysis method 82 (S1304). Thereafter, in step S1305, the operation test management server 20 displays the measurement value obtained by the analysis and the definition value defined in the definition document 30 in the column of the measurement value 141 and the definition value 142 of the analysis result setting table 140, respectively. Setting is made (S1305).

その後ステップS1306において、運用テスト管理サーバ20は、設定された計測値14及び定義値142と、OK/NG条件83とに基づいて、分析結果がOKかNGかを確認する(S1306)。   Thereafter, in step S1306, the operation test management server 20 confirms whether the analysis result is OK or NG based on the set measurement value 14 and definition value 142 and the OK / NG condition 83 (S1306).

その後ステップS1307において、運用テスト管理サーバ20は、ステップS1306の確認結果がOKかNGかを判定する(S1307)。OKの場合(S1307でYES)、運用テスト管理サーバ20は、分析結果143の欄に「○」を設定する(S1308)。一方、NGの場合(S1307でNO)、運用テスト管理サーバ20は、分析結果143の欄に「×」を設定する(S1309)。   Thereafter, in step S1307, the operation test management server 20 determines whether the confirmation result in step S1306 is OK or NG (S1307). In the case of OK (YES in S1307), the operation test management server 20 sets “◯” in the column of the analysis result 143 (S1308). On the other hand, in the case of NG (NO in S1307), the operation test management server 20 sets “x” in the column of the analysis result 143 (S1309).

以上に示す処理により、運用テスト管理サーバ20は、構築対象サーバ11毎に問題を分析するとともに、構築対象サーバ11毎に作成した分析結果設定用テーブル140の中に各構築対象サーバ11の分析結果を設定している。   Through the processing described above, the operation test management server 20 analyzes the problem for each construction target server 11 and the analysis result of each construction target server 11 in the analysis result setting table 140 created for each construction target server 11. Is set.

図15は、図2のステップS15の問題・原因・解決方法の表示情報作成の制御ロジックを示すフローチャートである。ここでは、図2のS15の具体的な動作について説明する。   FIG. 15 is a flowchart showing the control logic for creating display information of the problem / cause / solution in step S15 of FIG. Here, the specific operation of S15 in FIG. 2 will be described.

まずステップS1501に示すように、運用テスト管理サーバ20は、問題・原因・解決方法の情報を格納するための問題・原因・解決方法格納用テーブル160を作成する(S1501)。   First, as shown in step S1501, the operation test management server 20 creates a problem / cause / solution storage table 160 for storing problem / cause / solution information (S1501).

図16は、本発明の実施形態の問題・原因・解決方法格納用テーブル160の一例を示す図である。問題・原因・解決方法格納用テーブル160とは、利用者端末3に表示すべき問題・原因・解決方法の情報(図11の表示内容112等参照)を生成するためのテーブルである。   FIG. 16 is a diagram showing an example of the problem / cause / solution storage table 160 according to the embodiment of this invention. The problem / cause / solution storage table 160 is a table for generating information on problems / causes / solutions to be displayed on the user terminal 3 (see display content 112 in FIG. 11).

図16に示す問題・原因・解決方法格納用テーブル160は、分析対象の対象サーバ161と、分析対象162と、計測値163と、定義値164と、原因項目165と、解決方法項目166とを含む。なお、この問題・原因・解決方法格納用テーブル160が作成された時点では、各欄161〜166は空欄である。   The problem / cause / solution storage table 160 shown in FIG. 16 includes an analysis target server 161, an analysis target 162, a measurement value 163, a definition value 164, a cause item 165, and a solution item 166. Including. Note that when the problem / cause / solution storage table 160 is created, the columns 161 to 166 are blank.

その後ステップS1502に示すように、運用テスト管理サーバ20は、ステップS1503〜S1510の処理を、構築対象サーバ11毎に繰り返す(S1502)。   Thereafter, as shown in step S1502, the operation test management server 20 repeats the processing of steps S1503 to S1510 for each construction target server 11 (S1502).

すなわち、まずステップS1503において、運用テスト管理サーバ20は、対象の構築対象サーバ11の分析結果設定用テーブル140を読み込む(S1503)。その後ステップS1504に示すように、運用テスト管理サーバ20は、ステップS1505〜S1510の処理を、分析結果設定用テーブル140の分析項目の数(図14ではカラム1401、1402、1403の3回)繰り返す(S1504)。以下、ステップS1505〜S1510の処理について説明する。   That is, first, in step S1503, the operation test management server 20 reads the analysis result setting table 140 of the target construction target server 11 (S1503). Thereafter, as shown in step S1504, the operation test management server 20 repeats the processing of steps S1505 to S1510 (the number of analysis items in the analysis result setting table 140 (three times 1401, 1402, 1403 in FIG. 14)) ( S1504). Hereinafter, the processing of steps S1505 to S1510 will be described.

ステップS1505において、運用テスト管理サーバ20は、分析結果設定用テーブル140から、ステップS1504で選択されたカラムにおける分析結果143の値を取得する(S1505)。その後ステップS1506において、運用テスト管理サーバ20は、取得された分析結果143の値が「○」であるか又は「×」であるかを判定する(S1506)。   In step S1505, the operation test management server 20 acquires the value of the analysis result 143 in the column selected in step S1504 from the analysis result setting table 140 (S1505). Thereafter, in step S1506, the operation test management server 20 determines whether the value of the acquired analysis result 143 is “◯” or “×” (S1506).

ステップS1506において「○」の場合(S1506でYES)、ステップS1504に戻って、次の分析項目について処理を繰り返す。一方、「×」の場合(S1506でNO)、ステップS1507に進む。   If “◯” in step S1506 (YES in S1506), the process returns to step S1504 to repeat the process for the next analysis item. On the other hand, if “x” (NO in step S1506), the process advances to step S1507.

ステップS1507に進むと、運用テスト管理サーバ20は、分析結果設定用テーブル140から、ステップS1504で選択されたカラムにおける分析対象81、計測値141及び定義値142を取得する(S1507)。その後、問題・原因・解決方法テーブル90を読み込み(S1508)、読み込まれた問題・原因・解決方法テーブル90から、該当する行(カラム)を取得する(S1509)。   In step S1507, the operation test management server 20 acquires the analysis target 81, measurement value 141, and definition value 142 in the column selected in step S1504 from the analysis result setting table 140 (S1507). Thereafter, the problem / cause / solution table 90 is read (S1508), and the corresponding row (column) is acquired from the read problem / cause / solution table 90 (S1509).

例えばステップS1507で取得された分析対象81がカラム1402のFullGC累積回数の場合、ステップS1509では、FullGC累積回数に関するカラム902が取得される。また、ステップS1507で取得された分析対象81がカラム1401のCPU使用率の場合、ステップS1509では、CPU使用率に関するカラム901が取得される。   For example, when the analysis target 81 acquired in step S1507 is the Full GC accumulation count of the column 1402, the column 902 related to the Full GC accumulation count is acquired in Step S1509. If the analysis target 81 acquired in step S1507 is the CPU usage rate of the column 1401, the column 901 relating to the CPU usage rate is acquired in step S1509.

その後ステップS1510において、運用テスト管理サーバ20は、分析結果設定用テーブル140の情報(分析対象81、計測値141及び定義値142)と、問題・原因・解決方法テーブル90の情報(原因項目92、解決方法項目93)とを、問題・原因・解決方法格納用テーブル160の分析対象162、計測値163、定義値164、原因項目165、解決方法項目166にそれぞれ設定する(S1510)。   Thereafter, in step S1510, the operation test management server 20 includes information (analysis target 81, measurement value 141, and definition value 142) in the analysis result setting table 140 and information (cause item 92, The solution method item 93) is set in the analysis target 162, measurement value 163, definition value 164, cause item 165, and solution method item 166 of the problem / cause / solution storage table 160 (S1510).

以上に示す処理により、運用テスト管理サーバ20は、分析結果設定用テーブル140の中に設定された各構築対象サーバ11の分析結果と、問題・原因・解決方法テーブル90に設定された問題・原因・解決方法の対応付け情報とに基づいて、利用者端末3に表示すべき問題・原因・解決方法の情報(図11の表示内容112等参照)を生成している。   Through the processing described above, the operation test management server 20 analyzes the analysis result of each construction target server 11 set in the analysis result setting table 140 and the problem / cause set in the problem / cause / solution table 90. Based on the association information of the solution, information on the problem / cause / solution to be displayed on the user terminal 3 (see display content 112 in FIG. 11) is generated.

以上のように、本実施形態のシステムのテスト方法によれば、運用テスト環境10上にテスト対象のシステムを自動的に構築することができる。また、運用テスト環境10における問題の分析と、問題の発見と、発見された問題に対する解決方法の利用者端末3への提示とを自動的に実施することができる。さらには、ユーザに解決方法の選択を促し、ユーザによって選択された解決方法を満たす定義書30を自動的に作成し、作成された定義書30に基づいて、再テストを実行することが可能になる。   As described above, according to the system test method of the present embodiment, a test target system can be automatically constructed on the operation test environment 10. In addition, analysis of a problem in the operation test environment 10, discovery of a problem, and presentation of a solution to the discovered problem to the user terminal 3 can be automatically performed. Furthermore, it is possible to prompt the user to select a solution, automatically create a definition document 30 that satisfies the solution selected by the user, and perform a retest based on the created definition document 30. Become.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一つを示したものであり、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。本発明の要旨を逸脱しない範囲において種々変更可能である。   As mentioned above, although embodiment of this invention was described, the said embodiment showed one of the application examples of this invention, and in the meaning which limits the technical scope of this invention to the specific structure of the said embodiment. Absent. Various modifications can be made without departing from the scope of the present invention.

1 計算機システム
3 利用者端末
10 運用テスト環境
11 構築対象サーバ
20 運用テスト管理サーバ
30 定義書
40 テスト条件
50 定義ファイル
60 構築スクリプト
70 稼働情報
80 分析項目対応テーブル
90 問題・原因・解決方法テーブル
100 テスト履歴プール
140 分析結果設定用テーブル
160 問題・原因・解決方法格納用テーブル
210 システム構築処理部
220 テスト実行・分析処理部
1 Computer System 3 User Terminal 10 Operation Test Environment 11 Construction Target Server 20 Operation Test Management Server 30 Definition Document 40 Test Conditions 50 Definition File 60 Construction Script 70 Operation Information 80 Analysis Item Correspondence Table 90 Problem / Cause / Solution Table 100 Test History pool 140 Analysis result setting table 160 Problem / cause / solution storage table 210 System construction processing unit 220 Test execution / analysis processing unit

Claims (10)

1以上のテスト用サーバを備えたテスト環境と、前記テスト環境にネットワークを介して接続され、前記テスト環境において動作するテスト対象システムの動作テストを管理するテスト管理サーバとを備えた計算機システムにおけるテスト方法であって、
前記1以上のテスト用サーバ及び前記テスト管理サーバの各々は、プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、
前記テスト管理サーバは、前記動作テストにおいて分析すべき分析対象と、前記分析対象についての分析方法と、前記分析対象の分析に係る基準情報とが対応付けられた分析項目テーブルを有し、
前記方法は、
前記テスト管理サーバが、前記テスト対象システムの動作設定が定義された定義書に基づいて、前記テスト用サーバに前記テスト対象システムを構築する手順と、
前記テスト管理サーバが、前記テスト対象システムのテスト内容が定義されたテスト条件に基づいて、前記テスト対象システムを稼働させる手順と、
前記テスト環境が、前記テスト対象システムの稼働状況を示す稼働情報を、前記テスト管理サーバに送信する手順と、
前記テスト管理サーバが、受信した前記稼働情報を、前記分析項目テーブルに設定された分析方法によって分析し、分析結果が当該分析方法に対応付けられた前記基準情報を満たすか否かを判断する手順と、
前記テスト管理サーバが、前記判断する手順による判断結果を出力する手順と、
を含むことを特徴とするテスト方法。
A test in a computer system having a test environment including one or more test servers and a test management server connected to the test environment via a network and managing an operation test of a test target system operating in the test environment A method,
Each of the one or more test servers and the test management server includes a processor that executes a program and a memory that stores a program executed by the processor.
The test management server has an analysis item table in which an analysis target to be analyzed in the operation test, an analysis method for the analysis target, and reference information related to the analysis of the analysis target are associated with each other.
The method
The test management server constructs the test target system on the test server based on a definition document in which operation settings of the test target system are defined;
The test management server operates the test target system based on test conditions in which the test content of the test target system is defined;
A procedure in which the test environment transmits operation information indicating an operation status of the test target system to the test management server;
The test management server analyzes the received operation information by an analysis method set in the analysis item table, and determines whether or not the analysis result satisfies the reference information associated with the analysis method When,
The test management server outputs a determination result according to the determination procedure;
A test method characterized by comprising:
前記テスト管理サーバは、前記基準情報を満たさない場合の1以上の解決方法が設定された解決方法テーブルを有し、
前記判断する手順において前記基準情報を満たさないと判断された場合、前記出力する手順において、前記テスト管理サーバは、前記解決方法テーブルに設定された前記1以上の解決方法を出力することを特徴とする請求項1に記載のテスト方法。
The test management server has a solution table in which one or more solutions when the criteria information is not satisfied are set;
When it is determined in the determining procedure that the reference information is not satisfied, in the outputting procedure, the test management server outputs the one or more solution methods set in the solution method table. The test method according to claim 1.
前記テスト管理サーバが、出力された前記1以上の解決方法を提示してユーザに選択を促す手順と、
前記テスト管理サーバは、前記1以上の解決方法のうちのユーザによって選択された解決方法に基づいて、当該選択された解決方法を満たす定義書を新たに作成する手順と、
をさらに含むことを特徴とする請求項2に記載のテスト方法。
The test management server presenting the output one or more solutions and prompting the user to select;
The test management server creates a new definition document that satisfies the selected solution based on the solution selected by the user from among the one or more solutions;
The test method according to claim 2, further comprising:
前記テスト管理サーバは、作成された前記定義書に基づいて、前記テスト用サーバに前記テスト対象システムを再構築する手順をさらに含むことを特徴とする請求項3に記載のテスト方法。   The test method according to claim 3, wherein the test management server further includes a procedure for reconstructing the test target system in the test server based on the created definition document. 前記テスト管理サーバは、前記基準情報を満たさない場合の1以上の原因が設定された原因テーブルを有し、
前記判断する手順において前記基準情報を満たさないと判断された場合、前記出力する手順において、前記テスト管理サーバは、前記原因テーブルに設定された前記1以上の原因を出力することを特徴とする請求項1に記載のテスト方法。
The test management server has a cause table in which one or more causes are set when the criteria information is not satisfied,
The test management server outputs the one or more causes set in the cause table in the outputting procedure when it is determined in the determining procedure that the reference information is not satisfied. Item 2. The test method according to Item 1.
前記1以上のテスト用サーバの各々は、プロセッサ、メモリに係る物理資源が論理的に分割されて仮想化されたことを特徴とする請求項1に記載のテスト方法。   The test method according to claim 1, wherein each of the one or more test servers is virtualized by logically dividing physical resources related to a processor and a memory. 前記テスト管理サーバは、前記基準情報を満たさない場合の1以上の解決方法が設定された解決方法テーブルを有し、
前記判断する手順において前記基準情報を満たさないと判断された場合、前記出力する手順において、前記テスト管理サーバは、前記解決方法テーブルに設定された前記1以上の解決方法を出力し、
前記方法は、さらに、
前記テスト管理サーバが、出力された前記1以上の解決方法を提示してユーザに選択を促す手順と、
前記テスト管理サーバが、前記1以上の解決方法のうちのユーザによって選択された解決方法毎に、各々の解決方法を満たす定義書を新たに作成する手順と、
前記テスト管理サーバが、作成された定義書と同数の仮想化されたテスト用サーバを前記テスト環境に構築し、各々の定義書に基づいて、前記仮想化されたテスト用サーバの各々に前記テスト対象システムを構築する手順と、
を含むことを特徴とする請求項6に記載のテスト方法。
The test management server has a solution table in which one or more solutions when the criteria information is not satisfied are set;
When it is determined in the determining procedure that the reference information is not satisfied, in the outputting procedure, the test management server outputs the one or more solution methods set in the solution method table;
The method further comprises:
The test management server presenting the output one or more solutions and prompting the user to select;
A procedure in which the test management server newly creates a definition document satisfying each solution for each solution selected by the user among the one or more solutions;
The test management server constructs the same number of virtualized test servers as the created definition documents in the test environment, and based on the respective definition documents, the test management server assigns the test to each of the virtualized test servers. The procedure to build the target system,
The test method according to claim 6, further comprising:
前記テスト管理サーバは、受信した前記稼働情報と、前記分析結果と、前記判断結果とを含む履歴情報を出力することを特徴とする請求項1に記載のテスト方法。   The test method according to claim 1, wherein the test management server outputs history information including the received operation information, the analysis result, and the determination result. 1以上のテスト用サーバを備えたテスト環境にネットワークを介して接続され、前記テスト環境において動作するテスト対象システムの動作テストを管理するテスト管理サーバであって、
プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、
前記動作テストにおいて分析すべき分析対象と、前記分析対象についての分析方法と、前記分析対象の分析に係る基準情報とが対応付けられた分析項目テーブルを有し、
当該テスト管理サーバは、
前記テスト対象システムの動作設定が定義された定義書に基づいて、前記テスト用サーバに前記テスト対象システムを構築し、
前記テスト対象システムのテスト内容が定義されたテスト条件に基づいて、前記テスト対象システムを稼働させ、
前記テスト対象システムの稼働状況を示す稼働情報を、前記テスト環境から受信し、
受信した前記稼働情報を、前記分析項目テーブルに設定された分析方法によって分析し、分析結果が当該分析方法に対応付けられた前記基準情報を満たすか否かを判断し、当該判断結果を出力することを特徴とするテスト管理サーバ。
A test management server connected to a test environment including one or more test servers via a network and managing an operation test of a test target system operating in the test environment;
A processor for executing a program; and a memory for storing a program executed by the processor;
An analysis item table in which an analysis object to be analyzed in the operation test, an analysis method for the analysis object, and reference information related to the analysis of the analysis object are associated with each other;
The test management server
Based on a definition document in which operation settings of the test target system are defined, the test target system is constructed on the test server,
Based on the test conditions in which the test content of the test target system is defined, the test target system is operated,
Receiving operation information indicating the operation status of the test target system from the test environment;
The received operation information is analyzed by an analysis method set in the analysis item table, it is determined whether the analysis result satisfies the reference information associated with the analysis method, and the determination result is output. A test management server characterized by that.
1以上のテスト用サーバを備えたテスト環境にネットワークを介して接続され、前記テスト環境において動作するテスト対象システムの動作テストを管理するテスト管理サーバにおいて用いられるテスト管理プログラムであって、
前記テスト管理サーバは、前記動作テストにおいて分析すべき分析対象と、前記分析対象についての分析方法と、前記分析対象の分析に係る基準情報とが対応付けられた分析項目テーブルを有し、
前記テスト管理プログラムは、
前記テスト対象システムの動作設定が定義された定義書に基づいて、前記テスト用サーバに前記テスト対象システムを構築する手順と、
前記テスト対象システムのテスト内容が定義されたテスト条件に基づいて、前記テスト対象システムを稼働させる手順と、
前記テスト対象システムの稼働状況を示す稼働情報を、前記テスト環境から受信する手順と、
受信した前記稼働情報を、前記分析項目テーブルに設定された分析方法によって分析し、分析結果が当該分析方法に対応付けられた前記基準情報を満たすか否かを判断する手順と、
前記判断する手順による判断結果を出力する手順と、
を前記テスト管理サーバに実行させることを特徴とするテスト管理プログラム。
A test management program used in a test management server that is connected to a test environment including one or more test servers via a network and manages an operation test of a test target system operating in the test environment,
The test management server has an analysis item table in which an analysis target to be analyzed in the operation test, an analysis method for the analysis target, and reference information related to the analysis of the analysis target are associated with each other.
The test management program includes:
A procedure for constructing the test target system in the test server based on a definition document in which operation settings of the test target system are defined;
A procedure for operating the test target system based on test conditions in which the test content of the test target system is defined;
A procedure for receiving operation information indicating an operation status of the test target system from the test environment;
Analyzing the received operation information by an analysis method set in the analysis item table, and determining whether an analysis result satisfies the reference information associated with the analysis method;
A procedure for outputting a determination result according to the determination procedure;
Is executed by the test management server.
JP2010234289A 2010-10-19 2010-10-19 Test method, test management server, and test management program Pending JP2012088883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010234289A JP2012088883A (en) 2010-10-19 2010-10-19 Test method, test management server, and test management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010234289A JP2012088883A (en) 2010-10-19 2010-10-19 Test method, test management server, and test management program

Publications (1)

Publication Number Publication Date
JP2012088883A true JP2012088883A (en) 2012-05-10

Family

ID=46260449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010234289A Pending JP2012088883A (en) 2010-10-19 2010-10-19 Test method, test management server, and test management program

Country Status (1)

Country Link
JP (1) JP2012088883A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002048A1 (en) * 2014-07-03 2016-01-07 株式会社日立製作所 Computer system and system evaluation method
JP2021157255A (en) * 2020-03-25 2021-10-07 エルジー シーエヌエス カンパニー リミテッド IT system verification method and system
JP7242814B1 (en) 2021-11-18 2023-03-20 楽天グループ株式会社 Method for determining error handling in application testing, method for testing applications, and system for determining error handling in application testing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002048A1 (en) * 2014-07-03 2016-01-07 株式会社日立製作所 Computer system and system evaluation method
JP2021157255A (en) * 2020-03-25 2021-10-07 エルジー シーエヌエス カンパニー リミテッド IT system verification method and system
JP7069500B2 (en) 2020-03-25 2022-05-18 エルジー シーエヌエス カンパニー リミテッド IT system verification method and system
JP7242814B1 (en) 2021-11-18 2023-03-20 楽天グループ株式会社 Method for determining error handling in application testing, method for testing applications, and system for determining error handling in application testing
JP2023074798A (en) * 2021-11-18 2023-05-30 楽天グループ株式会社 Method for determining error handling in application test, method for testing application, and system for determining error handling in application test

Similar Documents

Publication Publication Date Title
US9405665B1 (en) Application testing based on user input captured during a trial period and priority scheme analysis
US20100017801A1 (en) Profile based creation of virtual machines in a virtualization environment
US7398474B2 (en) Method and system for a digital device menu editor
US9990215B2 (en) User interface for managing a virtualized computing environment
AU2005203508B2 (en) System and method for selecting test case execution behaviors for reproducible test automation
US8566794B2 (en) Checkpoint entry insertion during test scenario creation
US20130263090A1 (en) System and method for automated testing
US20070240118A1 (en) System, method, and software for testing a software application
US9679090B1 (en) Systematically exploring programs during testing
US20110252278A1 (en) Virtual computer system, test method, and recording medium
TW200907778A (en) An interactive progress bar
US9454463B2 (en) Rapid automation front-end framework library and executable graphic user interface testing system and method
US9195562B2 (en) Recording external processes
WO2015019504A1 (en) Verification method, verification device, and verification program
JP2012088883A (en) Test method, test management server, and test management program
US9830184B2 (en) Systems and methods for determining desktop readiness using interactive measures
US9164746B2 (en) Automatic topology extraction and plotting with correlation to real time analytic data
US20240020350A1 (en) Method and system for navigation control
US9405664B2 (en) Automating software testing
WO2012137083A1 (en) Method, system and computer product for generating task flows for application
US11809897B2 (en) Chained triggering of builds in continuous integration environments
JP7294609B2 (en) Program, Method, and Device for Supporting Software Operation Scenario Generation
von Suchodoletz et al. Automation of flexible migration workflows
US20230186019A1 (en) Ai-based language testing process for ci/cd
CN109062656B (en) Method, system and medium for realizing virtual DOS under UEFI BIOS architecture

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322