JPH10187495A - Method and device for evaluating high-load emulation performance - Google Patents

Method and device for evaluating high-load emulation performance

Info

Publication number
JPH10187495A
JPH10187495A JP8347824A JP34782496A JPH10187495A JP H10187495 A JPH10187495 A JP H10187495A JP 8347824 A JP8347824 A JP 8347824A JP 34782496 A JP34782496 A JP 34782496A JP H10187495 A JPH10187495 A JP H10187495A
Authority
JP
Japan
Prior art keywords
evaluation
measurement
computer system
server computer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8347824A
Other languages
Japanese (ja)
Other versions
JP2923874B2 (en
Inventor
Shinji Kikuchi
伸治 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8347824A priority Critical patent/JP2923874B2/en
Publication of JPH10187495A publication Critical patent/JPH10187495A/en
Application granted granted Critical
Publication of JP2923874B2 publication Critical patent/JP2923874B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)
  • Computer And Data Communications (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve accuracy in evaluation without requiring any special equipment for evaluating the performance of a server computer system. SOLUTION: A structured quirery language(SQL) sentence and a data definition language(DDL) sentence are taken out of a computer aided software engineering(CASE) tool repository 3 and based on the procedure of server constructing system, a measurement environment is automatically generated at a server computer system 8 to be measured. Based on the procedure of work load preparing system for performing a load test, a measurement transaction is semiautomatically generated and the measurement transaction prepared based on the procedure of work load preparing system is continuously applied to the server computer system 8 to be measured. Then, the change of performance evaluation value is measured by a black box measuring system, a simultaneous processing number to be simultaneously processed through simple probability calculation different from a model due to a queue network is estimated, and the experimentation of comparison with data for evaluation required for performance evaluation possessed through the black box measuring system is tried finite times by a simulation evaluating system.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は高負荷エミュレーシ
ョン性能評価方法とその装置に関し、特に企業・公共団
体における基幹業務系情報システムで利用されるサーバ
計算機システムの性能評価および性能設計を実施する際
に使用する高負荷エミュレーション性能評価方法とその
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for evaluating the performance of high-load emulation, and more particularly to a method for evaluating the performance and designing the performance of a server computer system used in a back-office information system in a company or public organization. The present invention relates to a high load emulation performance evaluation method and an apparatus for use.

【0002】[0002]

【従来の技術】従来、この種の計算機システム性能評価
方式は、サーバ計算機システムを構成する要素ごとの単
体性能測定および待ち行列網によるモデル化によるシミ
ュレーション性能評価方式と、サーバ計算機システムを
構成する要素ごとの単体性能測定による性能表およびそ
れを用いた積上げ計算性能評価方式と、疑似環境を構成
し実測の結果で評価するエミュレーション性能評価方式
との3方式に大別される。
2. Description of the Related Art Conventionally, a computer system performance evaluation method of this type includes a simulation performance evaluation method based on measurement of individual performance of each element constituting a server computer system and modeling using a queuing network, and an element constituting a server computer system. There are three methods: a performance table based on individual performance measurements for each device and a stacking performance evaluation method using the same, and an emulation performance evaluation method that configures a pseudo environment and evaluates the results based on actual measurement results.

【0003】上記第1の方式であるシミュレーション性
能評価方式の例として、特開平4−112338号公報
に所載の「計算機性能評価装置およびこの装置に用いる
制御装置」、および情報処理学会第49回(平成6年後
期)全国大会論文集pp6−185〜6−186に所載
の堀川他による論文「オープンシステム向け性能評価ツ
ール」を挙げることができる。
As examples of the simulation performance evaluation method which is the first method, "Computer performance evaluation device and control device used for this device" described in Japanese Patent Application Laid-Open No. 4-112338 and 49th Information Processing Society of Japan Horikawa et al.'S "Performance Evaluation Tool for Open Systems" published in National Conference Papers, pp. 6-185 to 6-186 (late 1994).

【0004】次に、このシミュレーション性能評価方式
の概略について図7を参照して説明する。
Next, an outline of the simulation performance evaluation method will be described with reference to FIG.

【0005】図7は計算機性能評価方式の第1の例を示
すシミュレーション性能評価方式のブロック図で、上記
公報に記載されたものと同等である。
FIG. 7 is a block diagram of a simulation performance evaluation method showing a first example of a computer performance evaluation method, which is the same as that described in the above publication.

【0006】図7を参照すると、このシミュレーション
性能評価方式は、シミュレータ部71と、性能評価部7
2と、制御装置73とを備え、制御装置73はシミュレ
ータインタフェース74と、性能評価インタフェース7
5と、ユーザインタフェース76とを備えている。
Referring to FIG. 7, the simulation performance evaluation method includes a simulator section 71 and a performance evaluation section 7.
2 and a control device 73. The control device 73 includes a simulator interface 74 and a performance evaluation interface 7.
5 and a user interface 76.

【0007】そして、シミュレータ部71は性能評価す
べき仮想の計算機システムのCPU(レジスタ,TL
B,実行ユニット,ページングユニットなど)やキャッ
シュメモリなどのハードウェア構成とそれらの機能を代
替する。
[0007] The simulator unit 71 is a CPU (register, TL) of a virtual computer system to be evaluated for performance.
B, execution unit, paging unit, etc.) and cache memory, etc., and their functions are substituted.

【0008】性能評価部72は仮想の計算機システムの
各構成要素利用に関する確率情報を与えられたときに、
単位時間あたりの命令実行数の性能を得る。
[0008] When given the probability information on the use of each component of the virtual computer system, the performance evaluation unit 72
Get the performance of the number of instructions executed per unit time.

【0009】ユーザが制御装置73を通して性能評価す
べき仮想の計算機システムのハードウェア諸元などを与
えてプログラムの実行命令を行うと、シミュレータ部7
1はプログラム実行をシミュレートし、仮想の計算機シ
ステムの各構成要素の利用に関するデータを制御装置7
3に返す。
When the user gives the hardware specifications of the virtual computer system to be evaluated for performance through the control device 73 and issues a program execution instruction, the simulator unit 7
A control device 7 simulates program execution and stores data relating to the use of each component of the virtual computer system.
Return to 3.

【0010】ユーザが制御装置73からのデータから確
率情報を作って性能評価部72に渡すと、性能評価部7
2は行列手法などを用いた性能評価を行う。
When the user creates probability information from the data from the control device 73 and passes it to the performance evaluation section 72, the performance evaluation section 7
2 performs performance evaluation using a matrix method or the like.

【0011】シミュレータインタフェース74および性
能評価インタフェース75がそれぞれシミュレータ部7
1とユーザインタフェース76との間および性能評価部
73とユーザインタフェース76との間で上記情報のや
り取りを媒介することによって処理が進められる。
The simulator interface 74 and the performance evaluation interface 75 are respectively
1 and the user interface 76, and between the performance evaluation unit 73 and the user interface 76, the processing proceeds by mediating the exchange of the information.

【0012】ユーザインタフェース76はユーザからの
コマンド入力を解析して、シミュレータインタフェース
74を通してシミュレータ部71を制御するとともに、
性能評価インタフェース75を通して性能評価部72を
制御し、シミュレート結果および性能評価結果をユーザ
に提示する。
The user interface 76 analyzes a command input from the user and controls the simulator unit 71 through the simulator interface 74.
The performance evaluation unit 72 is controlled through the performance evaluation interface 75, and the simulation result and the performance evaluation result are presented to the user.

【0013】このように、第1の従来例によれば、性能
評価すべき仮想の計算機システムのインストラクション
実行時の内部状態を実現するシミュレータ部と仮想の計
算機システムの構成を待ち行列モデルで表現し、仮想の
計算機システムの各構成要素の利用に関する情報から性
能評価を行う性能評価部と、シミュレータ部および性能
評価部を一つの装置として制御する制御装置とを備える
ことにより、計算機システム性能評価を行う際に、評価
対象の計算機システム上でのプログラムのシミュレート
からそれによる確率情報などを用いて性能評価を行う一
連の処理を一貫した操作環境で行うことができる。
As described above, according to the first conventional example, the configuration of the virtual computer system and the simulator unit for realizing the internal state of the virtual computer system whose performance is to be evaluated at the time of execution of the instruction are represented by a queue model. Performs a computer system performance evaluation by including a performance evaluation unit that performs performance evaluation from information on use of each component of the virtual computer system, and a control device that controls the simulator unit and the performance evaluation unit as one device At this time, a series of processes for simulating a program on a computer system to be evaluated and performing performance evaluation using probability information or the like based on the simulation can be performed in a consistent operation environment.

【0014】また、制御装置はシミュレータインタフェ
ースと、性能評価インタフェースと、ユーザインタフェ
ースとを備えることにより、計算機システムの性能評価
を行うことができる。
Further, the control device can evaluate the performance of the computer system by providing a simulator interface, a performance evaluation interface, and a user interface.

【0015】次に、上記第2の方式である積上げ計算性
能評価方式の例として、特開昭61−294559号公
報に所載の「計算機性能評価システム」、および情報処
理学会研究報告(96.3.19)情報システム58−
8,pp55〜60に所載の臼淵他による論文「分散シ
ステムの性能予測方法の検討」を挙げることができる。
Next, as an example of the stacking calculation performance evaluation method as the second method, a "computer performance evaluation system" described in JP-A-61-294559 and a research report of Information Processing Society of Japan (96. 3.19) Information system 58-
8, pp55-60, a paper by Usufuchi et al., "Study on Performance Prediction Method of Distributed System".

【0016】この積上げ計算性能評価方式の概略につい
て図8を参照して説明する。
An outline of the stacking calculation performance evaluation method will be described with reference to FIG.

【0017】図8は計算機性能評価方式の第2の例を示
す積上げ計算性能評価方式のブロック図で、上記公報に
記載されたものと同等である。
FIG. 8 is a block diagram of a stacked computer performance evaluation system showing a second example of the computer performance evaluation system, which is the same as that described in the above publication.

【0018】図8を参照すると、この計算機性能評価シ
ステムは、稼働計算機システム80におけるジョブの使
用するCPU時間を計測するCPU時間測定装置81
と、その計測結果を保持する記憶装置82と、稼働計算
機システム80におけるジョブの使用するファイルごと
の入出力回数を計測する入出力回数測定装置83と、そ
の計測結果を保持する記憶装置84と、CPU機種ごと
の性能値を保持する記憶装置85と、CPU機種を指定
する指示装置86と、指定されたCPU機種におけるジ
ョブのCPU時間を算定する処理装置87と、ディスク
装置機種ごとのアクセス時間を保持する記憶装置88
と、ディスク装置の機種および各ディスク装置に格納さ
れるファイルを指定する指示装置89と、指定されたデ
ィスク装置ごとの入出力回数と入出力時間とを算定する
処理装置810とを備えている。
Referring to FIG. 8, the computer performance evaluation system includes a CPU time measuring device 81 for measuring a CPU time used by a job in an operating computer system 80.
A storage device 82 for holding the measurement result, an input / output frequency measurement device 83 for measuring the number of input / output operations for each file used by the job in the operation computer system 80, and a storage device 84 for storing the measurement result. A storage device 85 for holding performance values for each CPU model, an instruction device 86 for specifying the CPU model, a processing device 87 for calculating the CPU time of a job in the specified CPU model, and an access time for each disk device model Storage device 88 to hold
And an instruction device 89 for designating the model of the disk device and a file stored in each disk device, and a processing device 810 for calculating the number of times of input / output and the input / output time for each specified disk device.

【0019】そして、稼働計算機システム80からジョ
ブが使用するCPU時間をCPU時間測定装置81によ
り計測し、その計測値を記憶装置82に保持する。また
ジョブが使用するファイルごとの物理入出力回数を入出
力回数測定装置83により計測し、その計測値を記憶装
置84に保持する。
The CPU time used by the job from the operation computer system 80 is measured by the CPU time measuring device 81, and the measured value is stored in the storage device 82. The number of physical I / Os for each file used by the job is measured by the I / O count measuring device 83, and the measured value is stored in the storage device 84.

【0020】次に稼働中のCPU機種および負荷量の予
測を行いたいCPU機種を指示装置86に指定する。処
理装置87は指定された2機種のCPU性能値を記憶装
置85から読み出して2機種間の性能比を計算する。
Next, the operating CPU model and the CPU model whose load amount is to be predicted are designated to the instruction device 86. The processing device 87 reads the specified two types of CPU performance values from the storage device 85 and calculates the performance ratio between the two types.

【0021】次に記憶装置82から計測されたCPU時
間を読み出し、この計測値に性能比を演算して予測の対
象とした機種のCPU時間を得る。
Next, the CPU time measured is read from the storage device 82, and the performance ratio is calculated based on the measured value to obtain the CPU time of the model to be predicted.

【0022】例えば、稼働中のCPU機種がモデルA、
CPU時間を予測したい上位機種がモデルBで、その性
能比が1:Nであるとすると、計測された機種AのCP
U時間に1/Nを乗じる。
For example, if the operating CPU model is model A,
Assuming that the upper model whose CPU time is to be predicted is model B and its performance ratio is 1: N, the measured CP of model A is
Multiply U time by 1 / N.

【0023】次に、ディスク装置に格納されるファイル
を変更するとき、あるいはディスク機種を変更するとき
の負荷量予測について説明する。
Next, a description will be given of the estimation of the load when changing the file stored in the disk device or when changing the disk model.

【0024】各ディスク装置に格納されるファイルおよ
びディスク機種を指示装置89に指定する。処理装置8
10は記憶装置84から計測されたファイルごとの入出
力回数を読み出し、これと指定されたファイルの格納情
報とから各ディスク装置ごとの入出力回数を算出する。
The file stored in each disk device and the disk model are designated to the instruction device 89. Processing unit 8
Reference numeral 10 reads the number of times of input / output for each file measured from the storage device 84, and calculates the number of times of input / output for each disk device from this and the storage information of the designated file.

【0025】次に、指定されたディスク機種の平均アク
セス時間を記憶装置88から読み出し、このアクセス時
間に上記入出力回数を乗じて入出力時間を得る。
Next, the average access time of the designated disk model is read from the storage device 88, and the access time is multiplied by the number of times of input / output to obtain the input / output time.

【0026】例えば、あるディスク装置に3個のファイ
ルX,Y,Zが格納されると指定した場合には、記憶装
置84から読み出された各ファイルの入出力回数がそれ
ぞれx回,y回,z回であったものとすると、このディ
スク装置への入出力回数は(x+y+z)回と算出す
る。また、記憶装置88から読み出したこのディスク機
種の平均アクセス時間をTとすると、入出力時間は(T
×(x+y+z))と見積る。この従来例では、このよ
うにして計算機の性能を評価する。
For example, when it is specified that three files X, Y, and Z are stored in a certain disk device, the number of times of input / output of each file read from the storage device 84 is x times and y times, respectively. , Z times, the number of times of input / output to / from the disk device is calculated as (x + y + z) times. If the average access time of this disk model read from the storage device 88 is T, the input / output time is (T
× (x + y + z)). In this conventional example, the performance of the computer is evaluated in this way.

【0027】次に、上記第3の方式であるエミュレーシ
ョン性能評価方式の例として、特開平1−319836
号公報に所載の「端末シミュレーションによるオンライ
ンシステム性能評価制御方式」を挙げることができる。
Next, as an example of the emulation performance evaluation method which is the third method, Japanese Patent Application Laid-Open No. Hei.
Japanese Patent Application Laid-Open Publication No. H10-260, entitled "Online System Performance Evaluation Control Method Using Terminal Simulation".

【0028】次に、エミュレーション性能評価方式の概
略について図9を参照して説明する。
Next, an outline of the emulation performance evaluation method will be described with reference to FIG.

【0029】図9は計算機性能評価方式の第3の例を示
すエミュレーション性能評価方式のブロック図で、上記
公報に記載されたものと同等である。
FIG. 9 is a block diagram of an emulation performance evaluation method showing a third example of the computer performance evaluation method, which is equivalent to that described in the above-mentioned publication.

【0030】図9を参照すると、このオンラインシステ
ム性能評価方式は、クライアント計算機システム90
と、サーバ計算機システム100と、入力トランザクシ
ョンファイル部93と、性能評価データ格納部94と、
コンソール96と、性能評価リスト97とから構成され
ている。
Referring to FIG. 9, this on-line system performance evaluation method uses a client computer system 90.
A server computer system 100, an input transaction file unit 93, a performance evaluation data storage unit 94,
It is composed of a console 96 and a performance evaluation list 97.

【0031】クライアント計算機システム90は端末シ
ミュレート制御部91と、性能評価制御部92と、性能
評価データ出力部93とを備え、サーバ計算機システム
100は通信制御部98と、トランザクション処理部9
9とを備えている。
The client computer system 90 includes a terminal simulation control unit 91, a performance evaluation control unit 92, and a performance evaluation data output unit 93. The server computer system 100 includes a communication control unit 98, a transaction processing unit 9
9 is provided.

【0032】そして、クライアントプログラムである端
末シミュレート制御部91は入力トランザクションファ
イル部93から入力トランザクションを読み込んで、サ
ーバ計算機システム100に送信するため性能評価制御
部92にトランザクションを渡す。次に、端末シミュレ
ート制御部91はサーバ計算機システム100からの応
答データを受信して性能評価データ格納部94に書き込
む。
Then, the terminal simulation control section 91 which is a client program reads the input transaction from the input transaction file section 93 and passes the transaction to the performance evaluation control section 92 for transmission to the server computer system 100. Next, the terminal simulation control unit 91 receives the response data from the server computer system 100 and writes it into the performance evaluation data storage unit 94.

【0033】性能評価制御部92はクライアントプログ
ラムである端末シミュレート制御部91からのサーバ計
算機システム向けトランザクションの送信時刻t1を取
得してトランザクションをサーバ計算機システム100
に送信する。また、サーバ計算機システム100からの
応答データを受信して受信時刻t6を取得する。
The performance evaluation control unit 92 obtains the transmission time t1 of the transaction for the server computer system from the terminal simulation control unit 91 which is a client program, and executes the transaction on the server computer system 100.
Send to Further, it receives response data from the server computer system 100 and obtains a reception time t6.

【0034】入力トランザクションファイル部93はサ
ーバ計算機システム100への送信トランザクションを
格納しておく。また、性能評価データ格納部94はサー
バ計算機システム100からの応答時間データを格納す
る。
The input transaction file unit 93 stores a transaction to be transmitted to the server computer system 100. The performance evaluation data storage unit 94 stores response time data from the server computer system 100.

【0035】さらに、性能評価データ出力部95は性能
評価データ格納部94内のデータを入力してトランザク
ションごとの応答時間,平均応答時間,最小応答時間,
最大応答時間等の性能評価分析データを出力する。
Further, the performance evaluation data output unit 95 receives the data in the performance evaluation data storage unit 94, and outputs a response time, an average response time, a minimum response time,
Outputs performance evaluation analysis data such as maximum response time.

【0036】コンソール96はクライアントプログラム
である端末シミュレート制御部91に対して入力トラン
ザクションファイル部3の位置,送信トランザクション
間隔,エミュレーションの開始・終了等の情報を入力す
るのに使用する。
The console 96 is used to input information such as the position of the input transaction file unit 3, the transmission transaction interval, and the start / end of emulation to the terminal simulation control unit 91 which is a client program.

【0037】続いて、このオンラインシステム性能評価
方式の動作について説明する。
Next, the operation of the online system performance evaluation method will be described.

【0038】コンソール96から性能評価データ格納部
94の位置および入力トランザクションファイル部93
の位置を入力する。またエミュレーションするクライア
ントプログラムを有する端末数およびサーバ計算機シス
テムへの送信トランザクション間隔を入力する。
From the console 96, the position of the performance evaluation data storage unit 94 and the input transaction file unit 93
Enter the position of. Further, the number of terminals having the client program to be emulated and the transaction interval for transmission to the server computer system are input.

【0039】クライアントプログラムである端末シミュ
レート制御部91は上記データを解析し、サーバ計算機
システム100に接続要求を行った後、送信間隔ごとに
入力トランザクションファイル部93からトランザクシ
ョンを読み込み、サーバ計算機システム100に送信す
る。
The terminal simulation control section 91, which is a client program, analyzes the above data, issues a connection request to the server computer system 100, reads a transaction from the input transaction file section 93 at each transmission interval, and reads the transaction. Send to

【0040】性能評価制御部92では、サーバ計算機シ
ステム100にトランザクションを送信する前に送信時
刻t1を取得し、クライアントプログラムである端末ご
との管理テーブルにセットし、サーバ計算機システム1
00にトランザクションを送付する。
The performance evaluation control unit 92 obtains the transmission time t1 before transmitting a transaction to the server computer system 100, sets the transmission time t1 in a management table for each terminal which is a client program, and
Send the transaction to 00.

【0041】サーバ計算機システム100内の通信制御
部98とトランザクション処理部69とでトランザクシ
ョンが処理され、応答データが通信処理装置に返され
る。
The transaction is processed by the communication control unit 98 and the transaction processing unit 69 in the server computer system 100, and response data is returned to the communication processing device.

【0042】性能評価制御部92では、サーバ計算機シ
ステム100からの応答データを受信して受信時刻t6
を取得し、端末ごとの管理テーブルから送信時刻t1を
減じて応答時間を得る。
The performance evaluation controller 92 receives the response data from the server computer system 100 and
Is obtained, and the response time is obtained by subtracting the transmission time t1 from the management table for each terminal.

【0043】クライアントプログラムである端末シミュ
レーション制御部91は性能評価データ格納部94に性
能評価データを格納する。そして、コンソール96から
エミュレーション終了コマンドを入力してエミュレーシ
ョンを終了させる。
The terminal simulation control section 91 as a client program stores performance evaluation data in the performance evaluation data storage section 94. Then, an emulation end command is input from the console 96 to end the emulation.

【0044】性能評価データ出力部95では、性能評価
データ格納部94からデータを入力し、性能評価分析デ
ータを出力する。この性能評価分析データには、トラン
ザクションごとの応答時間,平均応答時間,最小応答時
間,最大応答時間等のデータが含まれる。
The performance evaluation data output section 95 receives data from the performance evaluation data storage section 94 and outputs performance evaluation analysis data. The performance evaluation analysis data includes data such as response time, average response time, minimum response time, and maximum response time for each transaction.

【0045】なお、サーバ計算機システム100内に性
能評価機能を入れることにより、図9のt1,t2〜t
5,t6の各時点での性能分析データを得ることも可能
となる。以上の手順に従って、本例の方式では計算機シ
ステムの性能を測定する。
By incorporating a performance evaluation function in the server computer system 100, t1, t2 to t in FIG.
It is also possible to obtain performance analysis data at each time point of 5, t6. According to the above procedure, the performance of the computer system is measured in the method of this example.

【0046】[0046]

【発明が解決しようとする課題】これら従来の3方式に
は、それぞれ次に示すような問題点があった。
These three conventional methods have the following problems.

【0047】まず、第1の方式のシミュレーション性能
評価方式では、専用ツールに相当するシミュレータ部7
1により計算機システム内で複数のプロセスが起動する
ことによって生じるディスク,メモリ等の資源獲得に関
する競合が存在しないときの基本構成要素単体の性能デ
ータを注意深く測定し、その性能データをもとに、性能
評価部72内に構築された待ち行列網モデルを利用して
応答時間等の各種能力値を計算機上で評価している。こ
こで、待ち行列網モデルを構成する要素としては、ディ
スクやメモリ等の構成要素が相当する。
First, in the simulation performance evaluation method of the first method, the simulator unit 7 corresponding to a dedicated tool is used.
1 carefully measures the performance data of the basic components alone when there is no competition for acquiring resources such as disks and memories caused by the activation of a plurality of processes in the computer system, and based on the performance data, Various capability values such as response time are evaluated on a computer using a queuing network model built in the evaluation unit 72. Here, components such as a disk and a memory correspond to the components constituting the queuing network model.

【0048】このシミュレーション性能評価方式では、
推定計算した応答時間が要求仕様における所望の値を満
たし得ないとき、これを確保するためにどのようにシス
テム構成を変化させるかを評価することは原理的に容易
である。
In this simulation performance evaluation method,
When the estimated and calculated response time cannot satisfy the desired value in the required specification, it is in principle easy to evaluate how to change the system configuration to ensure this.

【0049】しかし、そのためには、シミュレータ部7
1である測定ツールには高い能力のツールが要求され
る。特にCPUのイベント情報等の把握のためにはハー
ドウェアに依存した測定ツールが必要であり、オープン
な情報システムにおけるサーバの能力評価では、十分に
利用できる方式ではないという問題点があった。
However, for that purpose, the simulator unit 7
The measurement tool which is 1 requires a high-performance tool. In particular, a measurement tool depending on hardware is required to grasp the event information and the like of the CPU, and there is a problem that the method cannot be used sufficiently in evaluating the performance of a server in an open information system.

【0050】また、オープンな情報システムにおけるサ
ーバの能力評価の場合は、評価のためのワークロードが
大きなものとなるので、性能評価部72内に形成される
待ち行列網モデルは膨大な記述量が必要となり、評価時
間が掛かるという問題点もあった。
Also, in the case of server performance evaluation in an open information system, the workload for the evaluation is large, and the queuing network model formed in the performance evaluation unit 72 has a huge amount of description. In addition, there is a problem that it takes time and takes much time for evaluation.

【0051】次に、第2の方式の積上げ計算性能評価方
式は、上記シミュレーション性能評価方式と同様に、基
本構成要素単体の性能データの測定と、それに基づく評
価により性能評価を行っている。
Next, in the stacking calculation performance evaluation method of the second method, similarly to the above-described simulation performance evaluation method, the performance evaluation is performed by measuring the performance data of the basic element alone and evaluating based on the measurement.

【0052】したがって、上記シミュレーション性能評
価方式の性能データの測定に関する諸課題は、この積上
げ計算性能評価方式にも当てはまる。この場合、計算機
システム内でプロセスが使用するCPU時間を計測する
CPU時間測定装置81および各プロセスが使用するフ
ァイルごとの物理入出力回数を計測する入出力回数測定
装置83は高精度の測定が可能なものである必要があ
り、オープンな情報システムにおけるサーバの能力評価
では入手しにくいという問題点があった。
Therefore, the various problems related to the measurement of the performance data of the simulation performance evaluation method also apply to the stacked calculation performance evaluation method. In this case, the CPU time measuring device 81 for measuring the CPU time used by the process in the computer system and the input / output count measuring device 83 for measuring the physical input / output count for each file used by each process can perform highly accurate measurement. There is a problem that it is difficult to obtain the information in an open information system by evaluating the capability of the server.

【0053】次に、第3の方式のエミュレーション性能
評価方式は、測定対象の計算機システムに実際に等価ト
ランザクションを与えてその応答時間を計測する手法で
あり、測定ツールも市販されている。
Next, the emulation performance evaluation method of the third method is a method of actually giving an equivalent transaction to a computer system to be measured and measuring its response time, and a measurement tool is also commercially available.

【0054】しかしながら、文献:「日経コンピュータ
(1991.6.3)101〜121ページ:杉浦和
史」によれば、従来のこの方式による測定ツールでは、
トランザクションを仕掛けるクライアント計算機システ
ムは、複数の画面操作で構成され、完結するトランザク
ションに対してはキャッシュヒットを考慮した出現率を
正確にエミュレートすることができないという欠点があ
る。
However, according to the document: "Nikkei Computer (1991.6.3), pp. 101-121: Kazufumi Sugiura", a conventional measurement tool using this method is:
The client computer system for setting up a transaction is composed of a plurality of screen operations, and has a drawback that it is impossible to accurately emulate the appearance rate in consideration of a cache hit for a completed transaction.

【0055】また、クライアント計算機システム数は、
実際に運用する(実運用)分用意しなければならず、か
つクライアントプログラムである端末シミュレート制御
部91がサーバの応答に追従できないか、もしくは端末
シミュレート制御部91で測定される応答時間が実態を
表さないことがある。したがって、評価精度が落ちるの
で、大規模でオープンな情報システムには利用できない
場合もあるという問題点があった。
The number of client computer systems is
It must be prepared for the actual operation (actual operation), and the terminal simulation control unit 91, which is a client program, cannot follow the response of the server, or the response time measured by the terminal simulation control unit 91 It may not represent the actual situation. Therefore, there is a problem in that the evaluation accuracy is lowered, so that it may not be used for a large-scale open information system.

【0056】つまり、従来の計算機性能評価方式の問題
点は、「性能データ測定のツール能力には詳細にもしく
は大規模に対応可能でなければならないこと」および
「十分に精度を確保することができ、かつ記述量の小さ
な評価モデルの設計が困難であること」の2点に分類す
ることができる。
In other words, the problems of the conventional computer performance evaluation method are that the tool capability of performance data measurement must be able to cope with detail or on a large scale and that sufficient accuracy can be ensured. And it is difficult to design an evaluation model with a small amount of description ".

【0057】そこで、本発明の目的は、以下に示す2
点、すなわち「評価モデルを具体的でかつ容易に測定可
能なデータで記述できること」および「性能データ測定
は特別な機器に依存しない方式を採用すること」を実現
する手段を備えることにより、上記問題点を解決した高
負荷エミュレーション性能評価方法とその装置を提供す
ることにある。
Therefore, the object of the present invention is as follows:
By providing a means to realize the point, that is, "to be able to describe the evaluation model with concrete and easily measurable data" and "to adopt a method that does not depend on special equipment for performance data measurement", An object of the present invention is to provide a high-load emulation performance evaluation method and an apparatus for solving the problem.

【0058】[0058]

【課題を解決するための手段】本発明によれば、ユーザ
がシステムと会話形式で処理を進める際に前記システム
を構成する各業務機能のGUI画面の一通りの操作を含
む典型的な処理手順で表示される全画面に付随してSQ
L文を連結して連続的に発行可能とするためにワークロ
ードを定義・作成し、その後サーバ計算機システムへの
平均到着率の比に応じて前記サーバ計算機システムが受
理する全業務機能の複数の前記ワークロードを直列に結
合して計測トランザクションを構成し、その後さらに前
記ワークロードの順番を並び変えることにより複数の前
記計測トランザクションを用意するワークロード作成方
式の手順で前記複数の計測トランザクションを順次走行
させ、待ち時間を発生させない状況下での同時処理数と
スループットと応答時間との関係をエミュレーション評
価し、ブラックボックス測定方式により前記同時処理数
の増加に対する前記スループットおよび前記応答時間の
変化を含む性能評価に必要な評価用データを把握し、運
用環境および前記ユーザ所望のスループットならびに応
答時間から待ち行列網によるモデルとは異なる単純確率
計算で同時に処理すべき同時処理数を推定するとともに
シミュレーション評価方式により前記ブラックボックス
測定方式によって入手した前記性能評価に必要な評価用
データと比較する実験を有限回試行して評価対象の前記
サーバ計算機システムの能力判定を行うことを特徴とす
る高負荷エミュレーション性能評価方法が得られる。
According to the present invention, a typical processing procedure including a series of operations on a GUI screen of each business function constituting the system when a user proceeds with the processing in an interactive manner with the system. SQ attached to the entire screen displayed by
A workload is defined and created so that L statements can be linked and continuously issued, and then a plurality of business functions received by the server computer system are accepted according to the ratio of the average arrival rate to the server computer system. The workloads are connected in series to form a measurement transaction, and then the workloads are rearranged in order to prepare a plurality of the measurement transactions. And the emulation evaluation of the relationship between the number of simultaneous processes and the throughput and the response time under the condition where the waiting time does not occur, and the performance including the change in the throughput and the response time with respect to the increase in the number of the simultaneous processes by a black box measurement method Understand the evaluation data necessary for the evaluation, and The user estimates the number of simultaneous processes to be processed simultaneously with a simple probability calculation different from the model based on the queuing network from the desired throughput and response time, and obtains the performance evaluation obtained by the black box measurement method by a simulation evaluation method. A high-load emulation performance evaluation method is provided, in which an experiment to be compared with the evaluation data is performed a finite number of times to determine the capability of the server computer system to be evaluated.

【0059】また、CASE(Computer Ai
ded Software Engineering)
ツール内のリポジトリが管理しているデータベースへの
アクセスプログラムのSQL(Structured
Query Language)文と前記データベース
の各資源を定義するDDL(Data Definit
ion Language)文とを前記リポジトリから
取り出す第1の手段と、サーバ構築方式の手順に基づい
てサーバ計算機システムに測定環境を自動生成する第2
の手段と、負荷試験を行うためのワークロード作成方式
の手順に基づいて計測トランザクションを半自動的に生
成する第3の手段と、前記ワークロード作成方式の手順
に基づいて作成された前記計測トランザクションを連続
的に被測定サーバ計算機システムに与えブラックボック
ス測定方式により性能評価値の変化を測定する第4の手
段と、待ち行列網によるモデルとは異なる単純確率計算
で同時に処理すべき同時処理数を推定するとともにシミ
ュレーション評価方式により前記ブラックボックス測定
方式によって入手した性能評価に必要な評価用データと
比較する実験を有限回試行して評価対象の前記サーバ計
算機システムの能力判定を行う第5の手段とを備えるこ
とを特徴とする高負荷エミュレーション性能評価装置が
得られる。
Further, CASE (Computer Ai)
deed Software Engineering)
SQL (Structured) of the access program to the database managed by the repository in the tool
Query Language (DDL) statement and DDL (Data Define) defining each resource of the database.
and a second means for automatically generating a measurement environment in the server computer system based on the procedure of the server construction method.
Means, a third means for semi-automatically generating a measurement transaction based on a procedure of a workload creation method for performing a load test, and a third means for generating the measurement transaction based on the procedure of the workload creation method. A fourth means for continuously giving the measured server computer system and measuring a change in the performance evaluation value by a black box measurement method, and estimating the number of simultaneous processes to be simultaneously processed by a simple probability calculation different from the model based on the queuing network And a fifth means for performing a finite number of experiments for comparing the evaluation data necessary for the performance evaluation obtained by the black box measurement method with the simulation evaluation method and performing a capability determination of the server computer system to be evaluated. A high-load emulation performance evaluation apparatus characterized by comprising:

【0060】そして、前記第1の手段が取り出した前記
SQL文の条件句と前記第1の手段が取り出した前記D
DL文とを比較して前記データベースをアクセスする際
の2次索引が付加しているか否かを判定し、付加してい
ないときは対応するプログラム記述を自動生成する仮チ
ューニング手段を備えることを特徴とする高負荷エミュ
レーション性能評価装置が得られる。
Then, the condition phrase of the SQL statement retrieved by the first means and the D phrase retrieved by the first means
A temporary tuning unit that determines whether or not a secondary index is added when accessing the database by comparing with a DL statement, and automatically generates a corresponding program description when the secondary index is not added; A high-load emulation performance evaluation device is obtained.

【0061】また、前記第2の手段が採用する前記サー
バ構築方式の手順は、測定用サーバ計算機システムに測
定環境を自動生成する手順を提供するとともに前記被測
定サーバ計算機システムにリモートログインする前処理
ステップと、ディスクの割当て等に関する指定値を専用
リポジトリから読み出してスケルトンを基に前記プログ
ラム記述を生成した後このプログラム記述で評価用デー
タベースを構築する物理構造構築ステップと、データを
保存する前記専用リポジトリから前記データベースの各
資源を定義する前記DDL文を取り出して前記評価用デ
ータベース上に前記資源を生成した上で前記仮チューニ
ング手段が生成した前記プログラム記述を実行する論理
構造構築ステップと、前記評価用データに関する指定値
を前記専用リポジトリから読み出してデータ生成用ディ
フォルトのプログラム記述を生成した後にデータを生成
させる評価用データ生成ステップと、前記評価用データ
ベースが定常状態に近い状況になるようにランダムにデ
ータ操作をする前記SQL文を小規模に発行する評価用
データ調整ステップと、前記評価用データベースのレプ
リカを別領域に生成するレプリカ生成ステップと、後処
理ステップとを備えることを特徴とする高負荷エミュレ
ーション性能評価装置が得られる。
The procedure of the server construction method employed by the second means provides a procedure for automatically generating a measurement environment in the measurement server computer system and a pre-process for remote login to the server computer system to be measured. A physical structure construction step of reading a specified value relating to disk allocation and the like from a dedicated repository and generating the program description based on a skeleton, and then constructing an evaluation database with the program description; and the dedicated repository for storing data. A logical structure construction step of extracting the DDL statement defining each resource of the database from the database, generating the resource on the evaluation database, and executing the program description generated by the temporary tuning means; The specified value for the data is An evaluation data generating step of generating data after generating a default program description for data generation by reading from the memory, and the SQL statement for randomly operating data so that the evaluation database is in a state close to a steady state. A high-load emulation performance evaluation device is provided, comprising: an evaluation data adjustment step issued in a small scale; a replica generation step of generating a replica of the evaluation database in another area; and a post-processing step.

【0062】[0062]

【発明の実施の形態】まず、本発明の構成について補足
説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, the configuration of the present invention will be supplementarily described.

【0063】前述したように、本発明は従来技術の問題
点を解決するために2つの実現手段を採用している。す
なわち、第1は「評価モデルを具体的でかつ容易に測定
可能なデータで記述できること」の実現手段であり、第
2は「性能データ測定は特別な機器に依存しない方式を
採用すること」の実現手段である。
As described above, the present invention employs two realizing means to solve the problems of the prior art. That is, the first is a means for realizing "the evaluation model can be described with specific and easily measurable data", and the second is "a method that does not depend on special equipment for performance data measurement". It is a means of realization.

【0064】そして、第1の実現手段には「ワークロー
ド作成方式」および「シミュレーション評価方式」の構
成が該当し、第2の実現手段には「ブラックボックス測
定方式」および「サーバ性能評価装置」の構成が該当す
る。
The first realization means corresponds to the configuration of the “workload creation method” and the “simulation evaluation method”, and the second realization means corresponds to the “black box measurement method” and the “server performance evaluation device”. The configuration of this applies.

【0065】本「サーバ性能評価装置」には自動的に一
連の手続きを実施するための機能が実装されているが、
特に「サーバ構築方式」と「仮チューニング機能」とは
新規機能として付加されている。
The "server performance evaluation device" has a function for automatically executing a series of procedures.
In particular, the “server construction method” and the “temporary tuning function” are added as new functions.

【0066】ここで、上記の各構成要素について説明す
る。
Here, each of the above components will be described.

【0067】(1)ワークロード作成方式 シミュレーション性能評価方式で採用された評価モデル
では、サーバ計算機システムを構成する各要素を等価な
「待ち行列網モデル」で表現する必要がある。そのため
には、サーバ計算機システムを構成する各要素の性能デ
ータを把握する必要があった。
(1) Workload Creation Method In the evaluation model adopted in the simulation performance evaluation method, each element constituting the server computer system needs to be represented by an equivalent “queue network model”. For that purpose, it was necessary to grasp the performance data of each element constituting the server computer system.

【0068】それに対し、本発明は「評価モデルを具体
的でかつ容易に測定可能なデータで記述できること」を
目的としているので、サーバ計算機システムの構成する
各要素に関する情報はモデルでは隠蔽して扱い、サーバ
計算機システム全体の外部的振舞いから能力を把握す
る。そのためサーバ計算機システムが受ける負荷の変化
に対するサーバ計算機システム全体の性能データの変化
を把握することで評価を行う。
On the other hand, the object of the present invention is to “be able to describe an evaluation model with specific and easily measurable data”, so that information on each element constituting the server computer system is hidden and handled in the model. The ability is grasped from the external behavior of the entire server computer system. Therefore, the evaluation is performed by grasping the change in the performance data of the entire server computer system with respect to the change in the load received by the server computer system.

【0069】ここで、サーバ計算機システムが受ける負
荷をワークロード(Work Load)と呼び、同時
に処理するワークロード数を実運用と等価にし、エミュ
レーション性能評価方式の課題を解決するため、新たな
ワークロード作成方式を考案する。
Here, the load received by the server computer system is called a workload (Work Load), and the number of workloads to be processed simultaneously is made equal to the actual operation, and a new workload is set in order to solve the problem of the emulation performance evaluation method. Devise a creation method.

【0070】このワークロード作成方式は、ユーザ思考
時間というものは与えず、典型的な処理手順(GUI
(Graphical User Interfac
e)画面の一通りの操作)で発行される一連のSQL文
を連結して連続的に発行することができるように1つの
ワークロードとしてまとめ上げた後、複数種類のワーク
ロードを平均到着率の比に応じて複数直列結合して1計
測トランザクションを構成する。そして、内部ワークロ
ードの順番を並び変えた幾つかの計測トランザクション
を用意する方式である。
This workload creation method does not give a user thinking time, but uses a typical processing procedure (GUI
(Graphical User Interfac
e) A series of SQL statements issued in a single operation of the screen) are combined into one workload so as to be able to be continuously issued by concatenating the SQL statements. , One measurement transaction is configured by serially connecting a plurality of measurement transactions. Then, several measurement transactions in which the order of the internal workload is rearranged are prepared.

【0071】(2)ブラックボックス測定方式 ブラックボックス測定方式は、上記ワークロード作成方
式により作成された計測トランザクションを順次走行さ
せ、処理の待ち時間を発生させない状況下での同時処理
中の計測トランザクション数と、各ワークロードのスル
ープットと各ワークロードの応答時間との関係をエミュ
レーション方式で把握するもので、特別な機器を使用す
ることなく待ち行列網モデルを隠蔽して性能評価に必要
なデータを精度良く把握することができる。
(2) Black Box Measurement Method The black box measurement method is a method in which measurement transactions created by the above-described workload creation method are sequentially run, and the number of measurement transactions during simultaneous processing in a state where no processing wait time occurs. And emulates the relationship between the throughput of each workload and the response time of each workload, emulating the queuing network model without using any special equipment to accurately analyze the data required for performance evaluation. You can understand well.

【0072】このブラックボックス測定方式は、準備作
業を行う前処理ステップと、ネットワーク接続時間等の
測定オーバヘッドを事前評価する事前計測ステップと、
各ワークロード内の各画面の応答時間比を求めるSQL
配分評価ステップと、実際にワークロードを含んだ計測
トランザクションにて計測を行う計測実施ステップと、
次の計測トランザクションを投入する次計測投入ステッ
プと、計測の信頼性を確保するため一定時間計測を維持
する計測維持ステップと、次の計測作業を開始するため
計測を強制終了させる強制終了ステップと、サーバ計算
機システムを測定開始前の状態に戻す後処理ステップ
と、終了処理をする終了ステップとから構成される。
The black box measuring method includes a pre-processing step for performing a preparatory operation, a pre-measuring step for pre-evaluating a measurement overhead such as a network connection time, and the like.
SQL to calculate the response time ratio of each screen in each workload
An allocation evaluation step, a measurement execution step of actually performing measurement in a measurement transaction including a workload,
A next measurement input step for inputting the next measurement transaction, a measurement maintaining step for maintaining the measurement for a certain period of time to ensure the reliability of the measurement, a forced termination step for forcibly terminating the measurement to start the next measurement work, It comprises a post-processing step of returning the server computer system to the state before the start of measurement and an end step of performing end processing.

【0073】(3)シミュレーション評価方式 シミュレーション評価方式では、運用環境,ユーザ要求
のスループットおよび応答時間から、同時に処理される
べきクライアント計算機システムから起動されるプロセ
ス数を待ち行列網理論モデルを使用せずに推定するとと
もに、上記ブラックボックス測定方式で入手したスルー
プットおよび応答時間に関する性能データと比較する試
行実験を有限回行うことで、確率的な事象を首尾良く把
握し、容易に被評価サーバ計算機システムの能力判定を
行う。
(3) Simulation Evaluation Method In the simulation evaluation method, the number of processes to be simultaneously processed from the client computer system is determined from the operating environment, the throughput of the user request, and the response time without using the queuing network theory model. By performing finite number of trial experiments to compare with the performance data on the throughput and response time obtained by the above black box measurement method, it is possible to successfully grasp stochastic events, and easily evaluate the server computer system to be evaluated. Perform ability judgment.

【0074】シミュレーション評価方式は、各種カウン
タのセットを行う前処理ステップと、ワークロードごと
にデータを明確化させるベクトル生成ステップと、クラ
イアント計算機システムの同時接続台数を推定する同時
接続数推定ステップと、クライアント計算機システムの
同時処理台数を推定する同時処理数推定ステップと、応
答性能評価を実施する応答性能評価ステップと、スルー
プット性能評価を実施するスループット性能評価ステッ
プと、エラー発生率を計測してサーバ計算機システムの
処理能力を判定する総合評価ステップとから構成され
る。
The simulation evaluation method includes a preprocessing step for setting various counters, a vector generation step for clarifying data for each workload, a simultaneous connection number estimation step for estimating the number of simultaneous connections of the client computer system, A step of estimating the number of simultaneous processes of the client computer system; a step of evaluating a response performance for performing a response performance evaluation; a step of evaluating a throughput performance for performing a throughput performance evaluation; And an overall evaluation step for determining the processing capacity of the system.

【0075】(4)高負荷エミュレーション性能評価方
式 特別なハードウェアに依存することなく性能評価作業を
実施することができるように、本発明の高負荷エミュレ
ーション性能評価装置は、CASEツールの生成したデ
ータを取り込む取出しローダプロセスと、測定を実施す
る際に指定される各種パラメータおよびワークロード等
を一元的に管理する専用リポジトリと、測定を実施する
際に指定される各種パラメータを指定する条件設定画面
と、測定環境を生成する環境作成画面,クライアント側
環境作成ツールプロセス,サーバ側環境作成ツールプロ
セスおよびクライアントジェネレータプロセスと、実際
にブラックボックス測定方式と称される性能データ測定
方式を起動する評価処理制御用画面およびブラックボッ
クス測定方式と称される性能データ測定方式を制御する
エミュレーションコントローラプロセスと、性能データ
測定の結果をまとめる結果取出し画面と専用リポジトリ
内部に定義される能力データストアおよび実際に収集作
業を行う集計プロセスと、実際にシミュレーション評価
判定方式と称される性能評価方式を起動する評価画面お
よび実際にシミュレーション評価判定方式と称される性
能評価方式を行う評価プロセスとを備えて構成される。
(4) High-load emulation performance evaluation method The high-load emulation performance evaluation apparatus of the present invention uses the data generated by the CASE tool so that the performance evaluation work can be performed without depending on special hardware. A loader process that takes in data, a dedicated repository that centrally manages various parameters and workloads specified when performing measurements, and a condition setting screen that specifies various parameters specified when performing measurements , Environment creation screen for creating a measurement environment, client-side environment creation tool process, server-side environment creation tool process and client generator process, and evaluation processing control for actually starting a performance data measurement method called a black box measurement method Screen and black box measurement methods An emulation controller process that controls the performance data measurement method called, a result retrieval screen that summarizes the results of the performance data measurement, a performance data store that is defined inside a dedicated repository, and an aggregation process that actually performs the collection work, and an actual simulation An evaluation screen for activating a performance evaluation method called an evaluation judgment method and an evaluation process for actually performing a performance evaluation method called a simulation evaluation judgment method are provided.

【0076】(5)仮チューニング機能 本発明の高負荷エミュレーション性能評価装置内の取出
しローダプロセスが取り出したSQL文の条件句と、取
出しローダプロセスが取り出したDDL文を取り出す機
能により取り出されたDDL文とを比較し、データベー
スをアクセスする際の2次索引が付加しているか否かを
判定し、付加していないときは対応するScriptを
自動生成する機能であり、サーバ計算機システム性能評
価装置はこの仮チューニング機能を備えている。
(5) Temporary Tuning Function The conditional phrase of the SQL statement extracted by the extraction loader process in the high-load emulation performance evaluation apparatus of the present invention, and the DDL statement extracted by the function of extracting the DDL statement extracted by the extraction loader process This is a function for determining whether or not a secondary index is added when accessing the database, and automatically generating a corresponding Script when the secondary index is not added. It has a temporary tuning function.

【0077】(6)サーバ構築方式 本発明の高負荷エミュレーション性能評価装置が採用し
ているサーバ構築方式は、実運用するサーバ計算機シス
テムと等価の測定用サーバ計算機システムに運用環境と
等価な測定環境を自動生成する手順を提供するものであ
り、被測定サーバ計算機システムにリモートログインす
る前処理ステップと、ディスクの割当て等に関する指定
値を専用リポジトリから読み出してディフォルトのSc
riptファイルを生成した後にそのScriptファ
イルで評価用データベースを構築する物理構造構築ステ
ップと、専用リポジトリからデータベースの表等を定義
するDDL文を取り出して評価用データベース上に表,
索引および仮チューニング機能が生成したScript
を実施する論理構造構築ステップと、評価用データに関
する指定値を専用リポジトリから読み出してデータ生成
用ディフォルトのScriptファイルを生成した後に
データを生成させる評価用データ生成ステップと、評価
用データベースが定常状態に近い状況になるようにラン
ダムにデータ操作を行うSQL文を小規模に発行する評
価用データ調整ステップと、評価用データベースのレプ
リカを別領域に生成するレプリカ生成ステップと、後処
理ステップとを備えている。
(6) Server Construction System The server construction system employed by the high-load emulation performance evaluation apparatus of the present invention is a measurement server computer system equivalent to an actual server computer system and a measurement environment equivalent to an operation environment. The pre-processing step of remotely logging in to the measured server computer system, and reading out a specified value related to disk allocation and the like from the dedicated repository and setting a default Sc
physical structure construction step of constructing an evaluation database using the script file after generating the script file, extracting a DDL statement defining a database table or the like from the dedicated repository, and creating a table on the evaluation database.
Script generated by index and temporary tuning function
A logical structure construction step of performing the following, a data value generation step of reading out specified values related to the evaluation data from the dedicated repository and generating data after generating a default Script file for data generation, and setting the evaluation database in a steady state. An evaluation data adjustment step for issuing a small-scale SQL statement for randomly performing data manipulation so as to be close to a situation, a replica generation step for generating a replica of the evaluation database in another area, and a post-processing step I have.

【0078】次に、本発明の作用について説明する。Next, the operation of the present invention will be described.

【0079】本発明におけるサーバ計算機システム性能
評価装置は、実機を使用する性能評価方式であるエミュ
レーション性能評価方式に基づく原理により実現され
る。
The server computer system performance evaluation device according to the present invention is realized by a principle based on an emulation performance evaluation method which is a performance evaluation method using an actual machine.

【0080】しかし、従来のエミュレーション性能評価
方式では、前述したような諸問題があり、これを解決す
るために本発明では、被測定側のサーバ計算機システム
に高負荷を掛け、クライアント計算機システムに依存す
る問題を排除した測定データを採取し、その後この測定
データに推定補正を加えて評価を実現している。そのた
め、この原理に基づく方式を「高負荷シミュレーション
性能評価方式」と定義する。
However, the conventional emulation performance evaluation method has the above-mentioned problems, and in order to solve these problems, in the present invention, a high load is applied to the server computer system to be measured, and the emulation performance depends on the client computer system. The measurement data that eliminates the problem described above is collected, and then the measurement data is subjected to estimation correction to realize the evaluation. Therefore, a method based on this principle is defined as a “high load simulation performance evaluation method”.

【0081】この高負荷シミュレーション性能評価方式
は、次の新規性を有している。
This high load simulation performance evaluation method has the following novelty.

【0082】すなわち、第1の新規性は、評価対象のサ
ーバ計算機システムをその構成要素と等価な待ち行列網
モデルで表現することはせずに、サーバ計算機システム
全体をブラックボックス化するので、評価が容易にな
る。また、ブラックボックス化したサーバ計算機システ
ム全体の特性を得るため、内部で起動するプロセス間で
定常的にディスク,メモリ等の資源獲得の競合を引き起
こすように連続トランザクション処理を与え続け、サー
バ計算機システムを極限運転する。そして、サーバ計算
機システム上で同時走行するクライアント計算機システ
ムから起動されるプロセス数の増加に対する応答時間と
スループットの変化を測定することによってサーバ計算
機システムの特性を求める点である。それにより、従
来、待ち行列網でモデル化していた計算機システム内の
構成要素は完全に隠蔽されるので、後の評価が極めて容
易になる。
That is, the first novelty is that the server computer system to be evaluated is not represented by a queuing network model equivalent to its components, but the entire server computer system is made a black box. Becomes easier. In addition, in order to obtain the characteristics of the entire server computer system in the form of a black box, continuous transaction processing is continuously provided so as to cause contention for resources such as a disk and a memory between processes started internally. Drive to the extreme. Then, a characteristic of the server computer system is obtained by measuring a change in a response time and a throughput with respect to an increase in the number of processes started from a client computer system running simultaneously on the server computer system. Thereby, the components in the computer system conventionally modeled by the queuing network are completely hidden, so that the later evaluation becomes extremely easy.

【0083】次に、第2の新規性は、ユーザ要求の単位
時間当たりの処理件数および所望応答時間から確率推定
で同時に処理されるクライアント計算機システムから起
動されるプロセス数を推定する点である。なお、このプ
ロセス数を同時処理数と定義する。その後、同時処理数
と前述した極限運転で得たサーバ計算機システムの特性
とを比較することによって性能評価を行う。なお、性能
評価を実施するときは、関連パラメータは変動分も考慮
する。
Next, the second novelty is to estimate the number of processes started from the client computer system that are simultaneously processed by probability estimation from the number of processed user requests per unit time and the desired response time. The number of processes is defined as the number of simultaneous processes. Thereafter, performance evaluation is performed by comparing the number of simultaneous processes with the characteristics of the server computer system obtained in the above-described extreme operation. When performing the performance evaluation, the related parameter also considers the variation.

【0084】本発明におけるサーバ計算機システム性能
評価装置で性能評価を行う際には、主として次に示す3
フェーズの作業を実施する必要がある。
When the performance evaluation is performed by the server computer system performance evaluation apparatus according to the present invention, the following three items are mainly used.
Phase work needs to be performed.

【0085】すなわち、第1のフェーズは評価環境の構
築フェーズである。
That is, the first phase is an evaluation environment construction phase.

【0086】そして、第2のフェーズは過負荷状態下の
計算機システムの特性を得るためのブラックボックス測
定方式による測定である。ここでは実運用と等価な処理
を行い、クライアント計算機システムから起動される複
数のプロセスを運転し、実運用と同様にその複数プロセ
ス間でディスク,メモリ等の資源獲得の競合を発生させ
る。その結果、サーバ計算機システム上で同時走行する
プロセス数の増加に対する応答時間とスループットの変
化とを測定し、サーバ計算機システム全体が有する性能
特性を求める。
The second phase is a measurement by the black box measurement method for obtaining the characteristics of the computer system under the overload condition. Here, a process equivalent to the actual operation is performed, a plurality of processes started from the client computer system are operated, and competition for obtaining resources such as disks and memories occurs between the plurality of processes as in the actual operation. As a result, the response time and the change in the throughput with respect to the increase in the number of processes running simultaneously on the server computer system are measured, and the performance characteristics of the entire server computer system are obtained.

【0087】また、第3のフェーズはユーザ要件から決
まる要求の平均到着率と平均接続時間とから、同時に処
理するプロセス数(これはクライアント計算機システム
から起動される)の期待値およびその変動分を推定し、
先に求めたサーバ計算機システムの特性と比較すること
によって所望応答時間およびスループットを満足するか
どうかを判定するシミュレーション評価方式である。
In the third phase, the expected value of the number of processes to be processed simultaneously (this is started from the client computer system) and the fluctuation thereof are determined from the average arrival rate of requests and the average connection time determined by the user requirements. Presumed,
This is a simulation evaluation method for determining whether or not the desired response time and throughput are satisfied by comparing with the characteristics of the server computer system obtained earlier.

【0088】上記ブラックボックス測定方式では、パラ
メータを含めて幾つかの入力事項を事前に設定しなけれ
ばならない。このブラックボックス測定方式で必要な仕
様情報は、ワークロードでもある各種業務で利用する
SQL文、定常運用に移行した際に保持される最大デ
ータ量、各種業務の処理発生頻度、各種業務の所望
応答時間および最大許容応答時間の4点である。
In the above black box measurement method, some input items including parameters must be set in advance. The specification information required by this black box measurement method includes SQL statements used in various tasks that are also workloads, the maximum data amount to be retained when transitioning to regular operation, the frequency of processing of various tasks, and the desired response of various tasks. Time and maximum allowable response time.

【0089】また、ブラックボックス測定方式を実施す
るときは、次の手順で行う必要がある。 ・手順1:実運用され、かつ粗くチューニングされた業
務SQL文(全業務分)を利用者特性負荷(ワークロー
ド)として用意する。 ・手順2:2〜3年後の定常運用を考慮した件数相当の
ダミーデータを準備する。 ・手順3:評価する計算機システムの環境は実際の運用
環境と同じか、性能上の観点から能力不足側になるよう
に設定する。 ・手順4:計測トランザクションを起動するクライアン
ト計算機システムは、マルチプロセス化が可能で、被評
価のサーバ計算機システムよりも性能が良いものを複数
台用意する。また、クライアント計算機システム,ネッ
トワーク上で測定時に発生するプロセス起動等のオーバ
ヘッドおよびネットワーク負荷を事前に測定しておく。 ・手順5:クライアント計算機システムから計測トラン
ザクションを連続的に与え、計測トランザクションごと
のワークロードごとに応答時間を測定し、後に測定オー
バヘッド,ネットワーク負荷の補償を行う。 ・手順6:同時処理される計測トランザクション数を変
化させ応答時間とスループットの変化を測定する。
When implementing the black box measurement method, it is necessary to perform the following procedure. Procedure 1: Prepare a work SQL statement (for all work) that is actually operated and roughly tuned as a user characteristic load (workload).・ Procedure 2: Dummy data equivalent to the number of cases taking into account regular operation after two to three years is prepared. Step 3: The environment of the computer system to be evaluated is set to be the same as the actual operation environment or to be on the side of insufficient capacity from the viewpoint of performance. Step 4: Prepare a plurality of client computer systems that can start the measurement transaction, which can be multi-processed and have higher performance than the server computer system to be evaluated. In addition, the overhead such as process startup and the like and the network load that occur at the time of measurement on the client computer system and the network are measured in advance. Procedure 5: The measurement transaction is continuously provided from the client computer system, the response time is measured for each workload for each measurement transaction, and the measurement overhead and the network load are compensated later. Step 6: Change the number of simultaneously processed measurement transactions and measure changes in response time and throughput.

【0090】次に、ブラックボックス測定方式を行う際
に使用するワークロードについて説明する。
Next, the workload used when performing the black box measurement method will be described.

【0091】図1は本発明におけるサーバ計算機システ
ム性能評価装置で評価する業務機能とワークロードと計
測トランザクションとの関係の概念を示す図である。
FIG. 1 is a diagram showing the concept of the relationship between the business function evaluated by the server computer system performance evaluation apparatus according to the present invention, the workload, and the measurement transaction.

【0092】ブラックボックス測定方式を行う際に使用
するワークロードは図1に示した概念に従う。すなわ
ち、具体的には以下の手順となる。 ・手順1:ユーザが応答を受けて新たな要求を入力する
までの期間である「思考時間」というものは与えず、典
型的な処理手順(GUI画面の一通りの操作)で発行さ
れる一連のSQL文を連結して連続的に発行できるよう
に1つのワークロードを作成する。したがって本来、各
SQL文の“間”にクライアント計算機システム上の処
理と思考時間とが含まれることになる。 ・手順2:複数種類のワークロードを平均到着率の比に
応じて複数直列結合して1計測トランザクションを構成
する。そして内部ワークロードの順番を並び変えた幾つ
かの計測トランザクションを用意する。 ・手順3:ワークロードがメモリ上のバッファ等を利用
する処理の場合(例えばSQL文のSelect処理
等)、同じものを連続処理するとバッファのヒット率が
向上するので、測定値が実運用値よりも向上したものに
なる。そのため、SQL文が処理するデータ系列を10
系列以上用意して、バッファヒット率が不用意に向上し
ないようにする。 ・手順4:ディスクに配置されるデータの近傍配置を考
慮し、検索データが一様に分布するように選択する。
The workload used when performing the black box measurement method follows the concept shown in FIG. That is, the specific procedure is as follows. Procedure 1: A series of steps issued in a typical processing procedure (one operation on a GUI screen) without giving a "thinking time" which is a period until the user receives a response and inputs a new request. One workload is created so that the SQL statements can be linked and continuously issued. Therefore, “between” each SQL statement essentially includes the processing on the client computer system and the thinking time. Procedure 2: A plurality of types of workloads are connected in series according to the ratio of the average arrival rates to form one measurement transaction. Then, prepare several measurement transactions in which the order of the internal workload has been changed. Step 3: When the workload uses a buffer or the like in the memory (for example, Select processing of an SQL statement), if the same thing is continuously processed, the hit ratio of the buffer is improved. Will also be improved. Therefore, the data sequence processed by the SQL statement is set to 10
Prepare more than the series so that the buffer hit rate does not increase carelessly. Procedure 4: Considering the neighboring arrangement of the data arranged on the disk, select so that the search data is uniformly distributed.

【0093】上記の手順に従って、測定の結果であるワ
ークロードの“End Time”と“Start T
ime”の時差ならびに別途測定したオーバヘッド時間
を引き抜くことにより、被測定の計算機システムの応答
時間を求める。
According to the above-described procedure, the workload “End Time” and “Start T”
The response time of the computer system to be measured is obtained by extracting the time difference of “im” and the overhead time separately measured.

【0094】次に、シミュレーション評価方式の原理は
以下のようになる。 ・手順1:ユーザ要件から決まる所望応答時間ならびに
各種業務の平均到着率,平均接続時間から同時に処理し
ているクライアントプロセス数(またはクライアント計
算機システム数)の期待値とその変動分とを推定する。 ・手順2:ブラックボックス測定方式で求めた同時処理
数と応答時間の関係に、推定したクライアントプロセス
数の期待値を導入し、実応答時間との大小を比較する。 ・手順3:応答時間のみならずスループットも同じよう
に比較する。 ・手順4:要求応答時間のばらつきを乱数で与えること
により、推定するクライアントプロセス数(同時処理下
のクライアント計算機システム数)を変化させ、そのそ
れぞれの場合に手順2,手順3の評価を行う。その後、
全測定結果で満足するか否かを判定する。
Next, the principle of the simulation evaluation method is as follows. Procedure 1: Estimate the expected value of the number of client processes (or the number of client computer systems) that are being processed simultaneously and the variation thereof from the desired response time determined by the user requirements, the average arrival rate of various services, and the average connection time. Procedure 2: The expected value of the estimated number of client processes is introduced into the relationship between the number of simultaneous processes and the response time obtained by the black box measurement method, and the magnitude of the actual response time is compared. -Procedure 3: Not only the response time but also the throughput are similarly compared. Procedure 4: The number of client processes to be estimated (the number of client computer systems under simultaneous processing) is changed by giving the variation of the request response time as a random number, and in each case, the evaluation of procedures 2 and 3 is performed. afterwards,
It is determined whether all the measurement results are satisfied.

【0095】次に、本発明の実施形態について図面を参
照して説明する。
Next, an embodiment of the present invention will be described with reference to the drawings.

【0096】図2は本発明の高負荷エミュレーション性
能評価装置で使用するサーバ計算機システム性能評価装
置の一実施形態を示すブロック図、図3は本発明の高負
荷エミュレーション性能評価装置全体の処理手順を示す
フローチャート、図4は図2におけるサーバ計算機シス
テム性能評価装置が採用するブラックボックス測定方式
のフローチャート、図5は図2におけるサーバ計算機シ
ステム性能評価装置が採用するシミュレーション評価方
式のフローチャート、図6は図2におけるサーバ計算機
システム性能評価装置が採用するサーバ構築方式のフロ
ーチャートである。
FIG. 2 is a block diagram showing an embodiment of a server computer system performance evaluation device used in the high load emulation performance evaluation device of the present invention, and FIG. 3 is a processing procedure of the entire high load emulation performance evaluation device of the present invention. 4 is a flowchart of a black box measurement method adopted by the server computer system performance evaluation device in FIG. 2, FIG. 5 is a flowchart of a simulation evaluation method adopted by the server computer system performance evaluation device in FIG. 2, and FIG. 3 is a flowchart of a server construction method adopted by the server computer system performance evaluation device in FIG.

【0097】図2を参照すると、基幹情報システムのプ
ログラム開発をCASEツール2で実施するときは、通
常その結果は、設計途中のものも含めてCASEツール
リポジトリ3に格納される。
Referring to FIG. 2, when a program of the core information system is developed by the CASE tool 2, the result is usually stored in the CASE tool repository 3 including the one under design.

【0098】このサーバ計算機システム性能評価装置1
でサーバ計算機システムの性能評価を行う際には、最初
に取出しローダプロセス4を立ち上げる。そして、取出
しローダプロセス4が立ち上がると、CASEツールリ
ポジトリ3からワークロードになり得るSQL文a1
と、データベースの表等を定義するDDL文a2とを取
り出し、サーバ計算機システム性能評価装置1の内部に
存在する専用リポジトリ5にコピーする。
This server computer system performance evaluation device 1
When the performance evaluation of the server computer system is performed, the extraction loader process 4 is first started. Then, when the extraction loader process 4 starts up, the SQL statement a1 that can become a workload from the CASE tool repository 3
And a DDL sentence a2 defining a database table and the like, and are copied to a dedicated repository 5 existing inside the server computer system performance evaluation apparatus 1.

【0099】次に条件設定画面6を立ち上げ、専用リポ
ジトリ5に下記のパラメータa3〜a14を始めとする
各種パラメータを登録する。 ・a3:定常運用に移行した際に保持される最大データ
量 ・a4:各種業務のトランザクション発生頻度 ・a5:各種定義表項目の定義域 ・a6:問い合わせSQL文の定義範囲と設定基準 ・a7:データ操作SQL文の定義範囲と設定基準 ・a8:計測トランザクションの最大値 ・a9:測定クライアント計算機システム7のマシン
名,ネットワークアドレス,ログイン名および基点ディ
レクトリ ・a10:被測定サーバ計算機システム8のマシン名,
ネットワークアドレスおよびログイン名 ・a11:被測定サーバ計算機システム8のデータ格納
方法の詳細指定 ・a12:計測維持最低時間 ・a13:計測トランザクション投入インターバル時間 ・a14:評価用データベース17の評価用データベー
スレプリカ21先のマシン名,ネットワークアドレス,
ログイン名および基点ディレクトリ指定 上記各種パラメータデータを与えることによってエミュ
レート環境が生成されることになる。
Next, the condition setting screen 6 is started, and various parameters including the following parameters a3 to a14 are registered in the dedicated repository 5.・ A3: Maximum data amount retained when the system is shifted to the regular operation ・ a4: Frequency of transaction occurrence of various tasks ・ a5: Definition area of various definition table items ・ a6: Definition range and setting standard of inquiry SQL statement ・ a7: Definition range and setting standard of data operation SQL statement ・ a8: Maximum value of measurement transaction ・ a9: Machine name, network address, login name and base directory of measurement client computer system 7 ・ a10: Machine name of measured server computer system 8 ,
Network address and login name ・ a11: Detailed specification of the data storage method of the measured server computer system 8 ・ a12: Minimum measurement maintenance time ・ a13: Measurement transaction input interval time ・ a14: Evaluation database replica 21 destination of evaluation database 17 Machine name, network address,
Emulation environment is generated by giving the above various parameter data.

【0100】次に、ブラックボックス測定方式の環境生
成のために、環境作成図面9を立ち上げる。環境作成図
面9が立ち上がると、測定クライアント計算機システム
7の環境の構築および被測定サーバ計算機システム8の
環境の構築の順番で構築を実施する。
Next, an environment creation drawing 9 is started to generate an environment of the black box measurement system. When the environment creation drawing 9 is started, construction is performed in the order of construction of the environment of the measurement client computer system 7 and construction of the environment of the measured server computer system 8.

【0101】測定クライアント計算機システム7の環境
の構築をするときは、測定クライアント環境作成ツール
プロセス10を立ち上げる。また、被測定サーバ計算機
システム8の環境を構築するときは、サーバ環境作成ツ
ールプロセス11を立ち上げる。
When constructing the environment of the measurement client computer system 7, the measurement client environment creation tool process 10 is started. When constructing the environment of the measured server computer system 8, the server environment creation tool process 11 is started.

【0102】測定クライアント環境作成ツールプロセス
10が立ち上がると、専用リポジトリ5からワークロー
ドになり得るSQL文a15をすべて取り出すととも
に、条件設定画面6によって登録した各種パラメータの
内、各種業務のトランザクション発生頻度a4と、問い
合わせSQL文の定義範囲および設定基準a6と、デー
タ操作SQL文の定義範囲および設定基準a7とを取り
出す。
When the measurement client environment creation tool process 10 starts up, all the SQL statements a15 that can be a workload are taken out of the dedicated repository 5, and the transaction occurrence frequency a4 of various tasks is selected from the various parameters registered on the condition setting screen 6. And the definition range and setting criterion a6 of the inquiry SQL statement and the definition range and setting criterion a7 of the data manipulation SQL statement.

【0103】その後、図1に示されているように、SQ
L文を後戻りの発生しない一連の処理になるように並べ
ることにより、各業務のワークロードのScriptを
作成する。
Thereafter, as shown in FIG.
By arranging the L statements so as to form a series of processes that do not cause regression, a script of the workload of each business is created.

【0104】そして、先の各種業務のトランザクション
発生頻度a4に対応する配分でワークロードのScri
ptを順番にかつランダムに並べて、計測トランザクシ
ョンのScriptを作成する。この順番におよびラン
ダムにをより促進するため、計測トランザクションのS
criptは複数作成され、計測トランザクションのS
criptファイル群12として格納される。
The workload Scri is distributed by the distribution corresponding to the transaction occurrence frequency a4 of the various tasks.
The script of the measurement transaction is created by arranging the pts sequentially and randomly. To further facilitate this order and randomly, the S
A plurality of scripts are created, and the S
It is stored as a script file group 12.

【0105】図1に示すように、思考時間というものを
与えず、典型的な処理手順(GUI画面の一通りの操
作)で発行される一連のSQL文を連結して連続的に発
行できるように1つのワークロードを作成した後、複数
種類のワークロードを平均到着率の比に応じて複数直列
結合して1計測トランザクションを構成し、そして内部
ワークロードの順番に並び変えた幾つかの計測トランザ
クションを作成する手法を「ワークロード作成方式」と
定義する。
As shown in FIG. 1, a series of SQL statements issued according to a typical processing procedure (one operation of a GUI screen) can be continuously issued without giving a thinking time. After one workload is created, several types of workloads are connected in series according to the ratio of average arrival rates to form one measurement transaction, and several measurements are rearranged in the order of internal workload. The method of creating a transaction is defined as "workload creation method".

【0106】なお、計測トランザクションのScrip
tを作成する際に、問い合わせSQL文の条件設定もし
くはデータ操作SQL文の値域設定は、先の問い合わせ
SQL文の定義範囲および設定基準a6と、データ操作
SQL文の定義範囲および設定基準a7とに従って設定
される。
Note that the measurement transaction Script
When creating t, the condition setting of the query SQL statement or the value range setting of the data manipulation SQL statement are performed according to the definition range and setting criteria a6 of the query SQL statement and the definition range and setting criteria a7 of the data manipulation SQL statement. Is set.

【0107】また、測定クライアント環境作成ツールプ
ロセス10は、専用リポジトリ5からワークロードにな
り得るSQL文a15を収集した際に、その条件句に関
して2次索引のDDL文a16が付加されているか否か
を判定する。ここで、DDL文が付加されていないとき
は、チューニング索引として索引を自動的に作成する
“Script”を生成し、専用リポジトリ5に“Sc
ript”a17を格納する。この機能を「仮チューニ
ング機能」と定義する。
When the measurement client environment creation tool process 10 collects the SQL statement a15 that can be a workload from the dedicated repository 5, whether or not the DDL statement a16 of the secondary index is added to the conditional phrase is determined. Is determined. Here, when the DDL sentence is not added, “Script” for automatically creating an index as a tuning index is generated, and “Sc” is stored in the dedicated repository 5.
Rip "a17 is stored. This function is defined as a" temporary tuning function ".

【0108】また、計測トランザクションのScrip
tファイル群12内の個個のファイルa53には、明確
な名称が付加される。その後、測定クライアント環境作
成ツールプロセス10は、測定クライアントジェネレー
タプロセス13を起動するコマンドa56を発行する。
In addition, the script of the measurement transaction
A clear name is added to the individual files a53 in the t-file group 12. Thereafter, the measurement client environment creation tool process 10 issues a command a56 for activating the measurement client generator process 13.

【0109】測定クライアントジェネレータプロセス1
3が起動すると、専用リポジトリ5から測定クライアン
ト計算機システムのマシン名a18と、測定クライアン
ト計算機システムのネットワークアドレスa19と、測
定クライアント計算機システムのログイン名a20と、
基点ディレクトリa21と、被測定サーバ計算機システ
ムのマシン名a22と、被測定サーバ計算機システムの
ネットワークアドレスa23と、被測定サーバ計算機シ
ステムのログイン名a24とをそれぞれ取り出す。
Measurement client generator process 1
When the server 3 starts, the machine name a18 of the measurement client computer system, the network address a19 of the measurement client computer system, the login name a20 of the measurement client computer system,
The base directory a21, the machine name a22 of the measured server computer system, the network address a23 of the measured server computer system, and the login name a24 of the measured server computer system are extracted.

【0110】その後、測定クライアント計算機システム
7にリモートログインし、測定クライアント環境を作成
するための事前準備を行う。
Thereafter, the user remotely logs in to the measurement client computer system 7 and makes preparations for creating a measurement client environment.

【0111】そして、測定クライアントジェネレータプ
ロセス13は、測定クライアント計算機システム7に測
定環境を作成するために、以下に示すステップを順次実
施する。 ・ステップ1:専用リポジトリ5を参照して計測トラン
ザクションの最大値a8を把握して記憶しておく。ま
た、構築カウンタの初期化を行った後、ステップ2に遷
移する。 ・ステップ2:試験順序の命名を行い、環境変数および
各種ファイルの格納ディレクトリを指定する。 ・ステップ3:先の計測トランザクションのScrip
tファイル群12から上記構築カウンタの値に応じた数
のファイルa53を取り出して測定クライアント計算機
システム7に転送し、ステップ2で指定された格納ディ
レクトリに格納し、その後、構築カウンタをカウントア
ップする。 ・ステップ4:測定クライアントジェネレータプロセス
13内部に保持したスケルトンから先の計測トランザク
ションのScriptファイル群12のファイルa53
に記述された計測トタンザクションが順次起動できるよ
うな計測プロセス記述ファイル16を生成するコマンド
a54を発行するとともに、それぞれの計測トランザク
ションの評価結果を受ける測定評価結果ログファイル1
4A,14Bのファイルパスa55を指定する。なお、
計測プロセス記述ファイル16を生成する際には、先に
取り出した被測定サーバ計算機システムのマシン名a2
2と、被測定サーバ計算機システムのネットワークアド
レスa23と、被測定サーバ計算機システムのログイン
名a24とからログイン先を計測プロセス記述ファイル
16に記述する。また測定評価結果ログファイル14
A,14Bのファイルパスa55を指定する際は、ステ
ップ2の格納ディレクトリの配下に作成されるように指
定される。 ・ステップ5:ステップ3で転送したファイルa53を
測定クライアント計算機システム配下のステップ2で指
定された格納ディレクトリ配下に転送して計測プロセス
記述ファイル16を実際に作成する。 ・ステップ6:ステップ4で指定された測定評価結果ロ
グファイル14A,14Bのファイルパスa55に測定
評価結果ログファイル14A,14Bのエントリを事前
に作成しておく。 ・ステップ7:記憶している計測トランザクションの最
大値a8と上記構築カウンタのカウント値とを比較し、
a8≧カウント値であればステップ3に戻る。またa8
<カウント値であれば計測トランザクションに関連する
作業が終了しているので、測定クライアントジェネレー
タプロセス13は作業終了報告a45を測定クライアン
ト環境作成ツールプロセス10に報告する。
Then, the measurement client generator process 13 sequentially executes the following steps to create a measurement environment in the measurement client computer system 7. Step 1: The maximum value a8 of the measurement transaction is grasped and stored with reference to the dedicated repository 5. After the construction counter is initialized, the process proceeds to step S2. Step 2: Name the test order and specify the storage directory for environment variables and various files. Step 3: Script of the previous measurement transaction
The number of files a53 corresponding to the value of the construction counter is taken out from the t-file group 12, transferred to the measurement client computer system 7, stored in the storage directory specified in step 2, and then the construction counter is counted up. Step 4: File a53 of the Script file group 12 of the measurement transaction preceding the skeleton held in the measurement client generator process 13
Issue the command a54 for generating the measurement process description file 16 so that the measurement transactions described in the above can be sequentially activated, and receive the measurement evaluation result log file 1 for receiving the evaluation result of each measurement transaction.
The file path a55 of 4A, 14B is designated. In addition,
When generating the measurement process description file 16, the machine name a2 of the server computer system to be measured previously extracted
2, the network address a23 of the measured server computer system, and the login name a24 of the measured server computer system, the login destination is described in the measurement process description file 16. Also, the measurement evaluation result log file 14
When the file path a55 of A, 14B is designated, it is designated to be created under the storage directory of step 2. Step 5: The file a53 transferred in Step 3 is transferred to the storage directory specified in Step 2 under the measurement client computer system, and the measurement process description file 16 is actually created. Step 6: The entries of the measurement evaluation result log files 14A and 14B are created in advance in the file path a55 of the measurement evaluation result log files 14A and 14B specified in Step 4. Step 7: Compare the stored maximum value a8 of the measurement transaction with the count value of the construction counter,
If a8 ≧ count value, the process returns to step 3. Also a8
If the count value is <the count value, the work related to the measurement transaction has been completed, so the measurement client generator process 13 reports a work end report a45 to the measurement client environment creation tool process 10.

【0112】次に、サーバ環境作成ツールプロセス11
が立ち上がると、以下に示すステップ、すなわち、図6
に示すフローにより、「サーバ構築方式」を実施する。
Next, the server environment creation tool process 11
Rises, the following steps, ie, FIG.
The “server construction method” is implemented according to the flow shown in (1).

【0113】図6を併せ参照すると、サーバ環境作成ツ
ールプロセス11が立ち上がると、専用リポジトリ5か
ら被測定サーバ計算機システム8のマシン名a22と、
被測定サーバ計算機システム8のネットワークアドレス
a23と、被測定サーバ計算機システム8のログイン名
a24と、被測定サーバ計算機システム8のデータ格納
方法の詳細指定情報a11とを得て、被測定サーバ計算
機システム8にリモートログインする。そのステップを
「前処理ステップ」と称する(ステップS61)。
Referring also to FIG. 6, when the server environment creation tool process 11 is started, the machine name a22 of the measured server computer system 8 is sent from the dedicated repository 5,
The network address a23 of the measured server computer system 8, the login name a24 of the measured server computer system 8, and the detailed designation information a11 of the data storage method of the measured server computer system 8 are obtained. Log in remotely to This step is referred to as a “pre-processing step” (step S61).

【0114】その後、ディスクの割当て等について、被
測定サーバ計算機システム8のデータ格納方法の詳細指
定情報a11に指定されているパラメータをディフォル
トのScriptファイルに書き込んだ後、そのScr
iptファイルa46で評価用データベース17の作成
を行う。このステップを「物理構造構築ステップ」と称
する(ステップS62)。
After that, regarding the disk allocation and the like, the parameters specified in the detailed specification information a11 of the data storage method of the measured server computer system 8 are written into the default Script file, and then the Scr is written.
The evaluation database 17 is created with the ip file a46. This step is called a “physical structure construction step” (step S62).

【0115】サーバ環境作成ツールプロセス11は評価
用データベース17の物理構造構築ステップ(S62)
を終了した後、専用リポジトリ5からデータベースの表
等を定義するDDL文a16を取り出して、先に作成し
た評価用データベース17上に表,索引等を定義する。
また、専用リポジトリ5に格納されたチューニング索引
を作成するための“Script”a17も、専用リポ
ジトリ5から取り出して、先に作成した評価用データベ
ース17上に追加定義する。このステップを「論理構造
構築ステップ」と称する(ステップS63)。
The server environment creation tool process 11 constructs the physical structure of the evaluation database 17 (S62).
After completing the above, the DDL sentence a16 defining the table and the like of the database is taken out from the dedicated repository 5, and the table, the index and the like are defined on the previously created evaluation database 17.
“Script” a17 for creating a tuning index stored in the dedicated repository 5 is also extracted from the dedicated repository 5 and additionally defined on the evaluation database 17 created earlier. This step is called a “logical structure construction step” (step S63).

【0116】サーバ環境作成ツールプロセス11は、評
価用データベース17の論理構造構築ステップ(S6
3)を終了した後、実際の評価用データを生成するた
め、専用リポジトリ5から定常運用に移行した際に保持
される最大データ量a3と、各種定義表項目の定義域a
5と、問い合わせSQL文の定義範囲および設定基準a
6と、データ操作SQL文の定義範囲および設定基準a
7とを得る。その後、評価用データを生成するため、問
い合わせSQL文の定義範囲および設定基準a6とデー
タ操作SQL文の定義範囲および設定基準a7とを参照
した後、各種定義表項目の定義域a5に合致するデータ
を定常運用に移行した際に保持される最大データ量a3
分だけ作成する“Script”a57を自動的に組み
立てて評価用データベース17に発行し、データを生成
する。このステップを「評価用データ生成ステップ」と
称する(ステップS64)。
The server environment creation tool process 11 constructs the logical structure of the evaluation database 17 (S6).
After completing step 3), in order to generate actual evaluation data, the maximum data amount a3 to be retained when shifting from the dedicated repository 5 to the regular operation, and the definition area a of various definition table items
5 and definition range and setting standard a of the inquiry SQL statement
6 and the definition range and setting standard a of the data manipulation SQL statement
7 is obtained. Then, in order to generate evaluation data, after referring to the definition range and setting criterion a6 of the query SQL statement and the definition range and setting criterion a7 of the data manipulation SQL statement, data matching the definition area a5 of the various definition table items is referred to. Data amount a3 retained when the system is shifted to regular operation
The “Script” a57 to be created is automatically assembled and issued to the evaluation database 17 to generate data. This step is referred to as “evaluation data generation step” (step S64).

【0117】次に、サーバ環境作成ツールプロセス11
は、評価用データベース17が定常状態に近い状況にな
るように、ランダムにデータ操作をするSQL文を小規
模に発行する。そのため、専用リポジトリ5からワーク
ロードになるデータ操作SQL文a15を取り出し、関
連する改造を加えてランダムにデータ操作をするSQL
文a58を自動生成して評価用データベース17に発行
する。このステップを「評価用データ調整ステップ」と
称する(ステップS65)。
Next, the server environment creation tool process 11
Issues a small SQL statement for performing data manipulation at random so that the evaluation database 17 is close to a steady state. Therefore, the SQL that extracts the data manipulation SQL statement a15 that becomes the workload from the dedicated repository 5 and performs the data manipulation randomly by adding the related modification.
The sentence a58 is automatically generated and issued to the evaluation database 17. This step is referred to as “evaluation data adjustment step” (step S65).

【0118】ブラックボックス測定方式の場合は、測定
の度にデータベースの状態が変化してしまうので、その
後、評価用データベース17の評価用データベースレプ
リカ21を別領域に生成する。評価用データベースレプ
リカ21の生成先は専用リポジトリ5に指定されている
のでそこから入手する。このステップを「レプリカ生成
ステップ」と称する(ステップS66)。
In the case of the black box measurement method, the state of the database changes each time the measurement is performed. Therefore, the evaluation database replica 21 of the evaluation database 17 is generated in another area. The generation destination of the evaluation database replica 21 is specified in the dedicated repository 5 and is obtained therefrom. This step is referred to as a “replica generation step” (step S66).

【0119】サーバ環境作成ツールプロセス11がレプ
リカ生成ステップ(S66)までを終了すると、すべて
の環境が作成されたことになるので、環境作成画面9に
作成の終了通知a59を表示する。このステップを「後
処理ステップ」と称する(ステップS67)。
When the server environment creation tool process 11 completes the steps up to the replica generation step (S66), all the environments have been created, and a creation completion notification a59 is displayed on the environment creation screen 9. This step is called a "post-processing step" (step S67).

【0120】以上のステップS61からステップS67
までの処理を実行して、サーバ環境作成ツールプロセス
11はサーバ構築方式を終了する。
The above steps S61 to S67
The server environment creation tool process 11 terminates the server construction method by executing the processing up to this point.

【0121】次に、実際にブラックボックス測定方式を
実施するときは、評価処理制御画面18を立ち上げる。
その後、評価処理制御画面18にて試験回数等の引き数
a60を与えた後、開始コマンドa61を入力すると、
先の引き数a60とともにエミュレーションコントロー
ラプロセス19が起動する。
Next, when actually performing the black box measurement method, the evaluation processing control screen 18 is started.
Then, after giving an argument a60 such as the number of tests on the evaluation processing control screen 18, when a start command a61 is input,
The emulation controller process 19 starts with the argument a60.

【0122】エミュレーションコントローラプロセス1
9は専用リポジトリ5から次の情報を入手する。それは
測定クライアント計算機システム7のマシン名a18,
ネットワークアドレスa19,ログイン名a20および
基点ディレクトリa21と、被測定サーバ計算機システ
ム8のマシン名a22,ネットワークアドレスa23お
よびログイン名a24とである。
Emulation controller process 1
9 obtains the following information from the dedicated repository 5. It is the machine name a18 of the measurement client computer system 7,
A network address a19, a login name a20, and a base directory a21, and a machine name a22, a network address a23, and a login name a24 of the measured server computer system 8.

【0123】その後、測定クライアント計算機システム
7にログインして、図4に示すステップによりブラック
ボックス測定方式を実施していく。
After that, the user logs in to the measurement client computer system 7 and implements the black box measurement method according to the steps shown in FIG.

【0124】図4を併せ参照すると、基点ディレクトリ
配下の一覧を出し、先に作成されている計測プロセス記
述ファイル16が格納されていて、試験順序ごとに異な
るディレクトリの一覧を作成する。このステップを「前
処理ステップ」と称する(ステップS41)。
Referring to FIG. 4 as well, a list under the base directory is obtained, and a list of directories in which the previously created measurement process description file 16 is stored and which differs for each test order is created. This step is referred to as a "pre-processing step" (step S41).

【0125】試験順序ごとのディレクトリを順次指定し
て計測プロセス記述ファイル16の起動コマンドa62
を発行すると、計測トランザクションごとに計測プロセ
ス15A,15Bが生成される。計測プロセス15A,
15Bは被測定サーバ計算機システム8上の評価用デー
タベース17に順次トランザクションa63が掛ける前
に、被測定サーバ計算機システム8にただログインのみ
を行い、ネットワーク接続時間a52を事前に計測して
測定評価結果ログインファイル14A,14Bに書き出
す。このステップを「事前計測ステップ」と称する(ス
テップS42)。
A start command a62 of the measurement process description file 16 by sequentially specifying directories for each test order
Is issued, measurement processes 15A and 15B are generated for each measurement transaction. Measurement process 15A,
15B, before the transaction a63 is sequentially applied to the evaluation database 17 on the measured server computer system 8, only logs in to the measured server computer system 8 and measures the network connection time a52 in advance to log in the measurement evaluation result. Write to files 14A and 14B. This step is referred to as a “prior measurement step” (step S42).

【0126】次にSQL配分評価を行う。これは計測ト
ランザクションを構成する各ワークロード内の個個のS
QL文に対してそのワークロード全体に対する時間消費
率を計算するものである。そのために、計測トランザク
ションを記述した計測プロセス記述ファイル16をコピ
ーしてSQL配分評価計測プロセス記述ファイル20を
生成し、その内の1画面遷移に相当するSQL文ごとに
経過時間をカウントするコメントを含ませる。
Next, SQL distribution evaluation is performed. This is the number of individual Ss in each workload that makes up the measurement transaction.
This is to calculate the time consumption rate for the entire workload for the QL statement. For this purpose, the measurement process description file 16 describing the measurement transaction is copied to generate an SQL distribution evaluation measurement process description file 20, and a comment for counting the elapsed time for each SQL statement corresponding to one screen transition is included. Let

【0127】また、専用リポジトリ5から時間経過をカ
ウントした結果を格納するログファイル25のパスとし
て利用する基点ディレクトリa9の情報を得る。その
後、SQL配分評価計測プロセス記述ファイル20を読
み、SQL配分計測プロセス29を立ち上げるコマンド
a65を複数回発行することにより、各ワークロード内
の個個のSQL文のワークロード全体に対する時間配分
比を算出するためのデータa66を測定し、先のログフ
ァイル25に格納する。このステップを「SQL配分評
価ステップ」と称する(ステップS43)。
Further, the information of the base directory a9 used as the path of the log file 25 storing the result of counting the elapsed time is obtained from the dedicated repository 5. Thereafter, by reading the SQL distribution evaluation measurement process description file 20 and issuing a command a65 for starting the SQL distribution measurement process 29 a plurality of times, the time distribution ratio of each SQL statement in each workload to the entire workload is determined. The data a66 for calculation is measured and stored in the log file 25. This step is referred to as “SQL distribution evaluation step” (step S43).

【0128】ステップ43の後、計測トランザクション
ごとの計測プロセス15A,15Bは一番目のワークロ
ードの“Start Time”a47を測定評価結果
ログファイル14A,14Bに書き出し、被測定サーバ
計算機システム8上の評価用データベース17に計測ト
ランザクションa63を掛ける。
After step 43, the measurement processes 15A and 15B for each measurement transaction write the “Start Time” a47 of the first workload to the measurement evaluation result log files 14A and 14B, and the evaluation on the server computer system 8 to be measured. Multiply the data base 17 by the measurement transaction a63.

【0129】ワークロードの“Start Time”
a47とワークロードの“EndTime”a48とは
計測トランザクション内部に含まれるワークロードすべ
てに対して記録される。計測トランザクションはエミュ
レーションコントローラプロセス19からの強制終了コ
マンドa49が無い限り、永久にこのステップを繰り返
す。このステップを「計測実施ステップ」と称する(ス
テップS44)。
"Start Time" of Workload
The a47 and the “EndTime” a48 of the workload are recorded for all the workloads included in the measurement transaction. The measurement transaction repeats this step forever unless there is a forced termination command a49 from the emulation controller process 19. This step is referred to as a “measurement execution step” (step S44).

【0130】複数の計測プロセス15A,15Bが同時
に立ち上がる場合は、エミュレーションコントローラプ
ロセス19は専用リポジトリ5から計測トランザクショ
ン投入インターバル時間a13を引き出し、1つの計測
プロセス(例えば15A)がステップS44の処理を開
始した“Start Time”a47から計測トラン
ザクション投入インターバル時間a13だけ待った後、
別の計測プロセス記述ファイル16の起動コマンドa6
2を発行する。そうすることにより、別の計測トランザ
クションに相当する計測プロセス(例えば15B)が生
成される。この計測プロセス15BもステップS43お
よびS44の処理が実施される。このステップを「次計
測投入ステップ」と称する(ステップS45)。
When the plurality of measurement processes 15A and 15B start simultaneously, the emulation controller process 19 extracts the measurement transaction input interval time a13 from the dedicated repository 5, and one measurement process (for example, 15A) starts the processing of step S44. After waiting for the measured transaction input interval time a13 from “Start Time” a47,
Start command a6 of another measurement process description file 16
Issue 2. By doing so, a measurement process (for example, 15B) corresponding to another measurement transaction is generated. The processing of steps S43 and S44 is also performed in the measurement process 15B. This step is referred to as a “next measurement input step” (step S45).

【0131】次に、計測プロセス記述ファイル16が格
納されているディレクトリ配下のすべての計測プロセス
15A,15Bが立ち上がったかどうかをチェックし
(ステップS46)、すべてが立ち上がったならば(ス
テップS46でYes).エミュレーションコントロー
ラプロセス19は専用リポジトリ5から計測維持最低時
間情報a12を取り出して、その指定時間は運転を維持
する。このステップを「計測維持ステップ」と称する
(ステップS47)。
Next, it is checked whether all the measurement processes 15A and 15B under the directory in which the measurement process description file 16 is stored have been started (step S46), and if all have been started (Yes in step S46). . The emulation controller process 19 extracts the minimum measurement and maintenance time information a12 from the dedicated repository 5, and maintains the operation for the designated time. This step is referred to as a “measurement maintenance step” (step S47).

【0132】なお、ステップS46でNo、つまりすべ
ての計測プロセスが立ち上がらないときは、ステップS
43に戻り、ステップS46でYesになるまでステッ
プS44,S45の手順を繰り返す。
If No in step S46, that is, if all the measurement processes have not started, the process proceeds to step S46.
Returning to step 43, the procedure of steps S44 and S45 is repeated until the result of step S46 becomes Yes.

【0133】ステップS47で、計測維持最低時間情報
a12の指定時間だけ運転を行ったときは、エミュレー
ションコントローラプロセス19は測定クライアント計
算機システム7内の全計測プロセス15A,15Bを一
斉に強制終了させる強制終了コマンドa49を発行す
る。このステップを「強制終了ステップ」と称する(ス
テップS48)。
In step S47, when the operation has been performed for the specified time of the minimum measurement maintenance time information a12, the emulation controller process 19 forcibly terminates all the measurement processes 15A and 15B in the measurement client computer system 7 at once. Issues the command a49. This step is referred to as a “forced end step” (step S48).

【0134】ステップS48が終了した段階で、エミュ
レーションコントローラプロセス19は専用リポジトリ
5から評価用データベースレプリカ21先のマシン名,
ネットワークアドレス,ログイン名および基点ディレク
トリ指定a14を入手し、被測定サーバ計算機システム
8上の評価用データベースレプリカ21と置き換える。
このステップを「後処理ステップ」と称する(ステップ
S49)。
At the stage when step S48 is completed, the emulation controller process 19 sends the machine name of the evaluation database replica 21 from the dedicated repository 5,
The network address, login name, and base directory designation a14 are obtained, and are replaced with the evaluation database replica 21 on the server computer system 8 to be measured.
This step is called a "post-processing step" (step S49).

【0135】エミュレーションコントローラプロセス1
9は全試験順序が未完であるときは(ステップS410
でNo)、ステップS43に戻って次の試験順序を実行
する。そして、全試験順序が完了したときは(ステップ
S410でYes)、評価処理制御画面18に終了通知
a50を表示して終了する。このステップを「終了ステ
ップ」と称する(ステップS411)。
Emulation controller process 1
9 is when the entire test order is not completed (step S410)
No), the process returns to step S43 to execute the next test order. Then, when all the test orders are completed (Yes in step S410), an end notification a50 is displayed on the evaluation processing control screen 18, and the processing ends. This step is called an “end step” (step S411).

【0136】以上のステップS41からステップS41
1までの処理を実行して、ブラックボックス測定方式が
終了する。
The above steps S41 to S41
The processing up to 1 is executed, and the black box measurement method ends.

【0137】次に、評価のためにブラックボックス測定
方式の結果を集計するときは、結果集計画面22を起動
する。そして、結果集計画面22が立ち上がると、専用
リポジトリ5からワークロードになり得るすべてのSQ
L文a51を入手して一覧表形式で表示する。
Next, when totaling the results of the black box measurement method for evaluation, the result totaling screen 22 is activated. Then, when the result tabulation screen 22 is launched, all SQs that can become workloads from the dedicated repository 5 are displayed.
The L sentence a51 is obtained and displayed in a list format.

【0138】そこで、ユーザは性能を確保すべき画面に
相当するSQL文に対してマークを付加するために、画
面によってSQL文の選択入力を行う。
Thus, the user selects and inputs an SQL sentence on the screen in order to add a mark to the SQL sentence corresponding to the screen for which the performance is to be ensured.

【0139】その後、マークされたSQL文a25を引
き数として集計プロセス23が起動する。集計プロセス
23は専用リポジトリ5から測定クライアント計算機シ
ステム7のマシン名a18と、ネットワークアドレスa
19と、ログイン名a20とを入手し、測定クライアン
ト計算機システム7にログインする。
Thereafter, the tallying process 23 is started using the marked SQL statement a25 as an argument. The tallying process 23 sends the machine name a18 of the measurement client computer system 7 and the network address a
19 and the login name a20, and logs in to the measurement client computer system 7.

【0140】その後、以下に示すステップで各データを
収集・集計して専用リポジトリ5内の能力データストア
24に格納する。 ・ステップ1:基点ディレクトリの配下を検索し、先に
作成された計測プロセス記述ファイル16が格納されて
いる全ディレクトリの一覧を作成する。 ・ステップ2:次に試験順序ごとに異なるディレクトリ
配下に存在する測定評価結果ログファイル14A,14
Bをすべて参照する。 ・ステップ3:全測定評価結果ログファイル14A,1
4Bの内、指定された計測プロセス数に至らない部分の
データを廃棄して必要な部分のみを残す。 ・ステップ4:全測定評価結果ログファイル14A,1
4Bの内、必要な部分から計測トランザクション数a2
8と、ワークロードの“Start Time”a4
7,ワークロードの“End Time”a48および
ネットワーク接続時間a52の各情報を取り出して、専
用リポジトリ5内の能力データストア24に格納する。 ・ステップ5:次に、SQL配分強化計算を行う。専用
リポジトリ5から時間経過をカウントした結果を格納す
るログファイル25のパスとして利用する基点ディレク
トリa9を得る。その後、そのログファイル25に格納
されているSQL文ごとの時間経過から各ワードロード
内の個個のSQL文に対してワークロードに対する時間
配分比a26を計算し、ワークロード名称およびSQL
文と関連付けて専用リポジトリ5内の能力データストア
24に格納する。 ・ステップ6:次に、結果集計画面22において選択入
力されたSQL文a25に対しては、選択されたことを
記すため、専用リポジトリ5内の能力データストア24
にその旨を格納する。 ・ステップ7:上記ステップ4で求めたワークロードの
“Start Time”a47,ワークロードの“E
nd Time”a48およびネットワーク接続時間a
52の各情報からワークロード応答時間a27を計算
し、計測トランザクション数a28とともにワークロー
ド応答時間a27を専用リポジトリ5内の能力データス
トア24に格納する。 ・ステップ8:その後、計測トランザクション数a28
ごとに同じ種類のワークロードのワークロード応答時間
a27のデータを集め、計測トランザクション数/ワー
クロードごとの応答時間平均値a29と応答時間分散値
a30とを求めるとともに、計測トランザクション数/
ワークロードごとのスループット平均値a31とスルー
プット分散値a32をも求め、専用リポジトリ5内の能
力データストア24に格納する。 ・ステップ9:上記ステップ1からステップ8により、
集計プロセス23の作業はすべて終了したので、作業完
了メッセージa33を結果集計画面22に戻して終了す
る。その後、結果集計画面22には、作業完了メッセー
ジa33が表示されることになる。
Thereafter, each data is collected and totalized in the following steps and stored in the capacity data store 24 in the dedicated repository 5. Step 1: Search under the base directory and create a list of all directories in which the previously created measurement process description file 16 is stored. Step 2: Next, the measurement evaluation result log files 14A and 14 existing under different directories for each test order
See all B. Step 3: All measurement evaluation result log files 14A, 1
In 4B, data of a portion that does not reach the designated number of measurement processes is discarded, and only a necessary portion is left. Step 4: All measurement evaluation result log files 14A, 1
Measured transaction number a2 from necessary part of 4B
8 and “Start Time” a4 of the workload
7. The information of the “End Time” a48 and the network connection time a52 of the workload are extracted and stored in the capacity data store 24 in the dedicated repository 5. Step 5: Next, an SQL distribution strengthening calculation is performed. From the dedicated repository 5, a base directory a9 to be used as the path of the log file 25 storing the result of counting the elapsed time is obtained. Thereafter, a time distribution ratio a26 to the workload is calculated for each of the SQL statements in each word load from the lapse of time for each SQL statement stored in the log file 25, and the workload name and the SQL are calculated.
It is stored in the capability data store 24 in the dedicated repository 5 in association with the statement. Step 6: Next, for the SQL sentence a25 selected and input on the result totaling screen 22, to indicate that the SQL statement a25 has been selected, the capability data store 24 in the dedicated repository 5
To that effect. Step 7: “Start Time” a47 of the workload obtained in step 4 above and “E” of the workload
nd Time "a48 and network connection time a
The workload response time a27 is calculated from each of the information 52, and the workload response time a27 is stored in the capacity data store 24 in the dedicated repository 5 together with the measured transaction number a28. Step 8: Thereafter, the number of measured transactions a28
The data of the workload response time a27 of the same type of workload is collected every time, and the number of measured transactions / the average response time a29 and the response time variance a30 for each workload are obtained.
An average throughput value a31 and a throughput variance value a32 for each workload are also obtained and stored in the capacity data store 24 in the dedicated repository 5. Step 9: By the above steps 1 to 8,
Since all the work of the tallying process 23 has been completed, the work completion message a33 is returned to the result tallying screen 22 and the processing is ended. Thereafter, a work completion message a33 is displayed on the result totaling screen 22.

【0141】次に、シミュレーション評価方式を実施す
るときは評価画面26を起動する。評価画面26が立ち
上がると、評価のための補助パラメータ入力要求が表示
されるので、下記のパラメータa34〜a41を入力す
る。 ・a34:平均接続時間(T) ・a35:接続時間分散値 ・a36:サービス継続時間 ・a37:ワークロードに相当する各種業務の所望応答
時間 ・a38:ワークロードに相当する各種業務の最大許容
応答時間またはばらつき値 ・a39:各ワークロードのランダムウォーク安全係数
(n) ・a40:シミュレーション評価実施回数 ・a41:許容エラー発生率上限値 上記パラメータを入力した後、評価画面26上で評価開
始a42を入力すると、評価画面26は上記パラメータ
a34〜a41を引き数に評価プロセス27を起動す
る。
Next, when executing the simulation evaluation method, the evaluation screen 26 is started. When the evaluation screen 26 is activated, a request for inputting auxiliary parameters for evaluation is displayed, and the following parameters a34 to a41 are input. · A34: average connection time (T) · a35: connection time dispersion value · a36: service duration · a37: desired response time of various tasks corresponding to workload · a38: maximum allowable response of various tasks corresponding to workload Time or variation value a39: Random walk safety factor (n) for each workload a40: Number of simulation evaluations performed a41: Upper limit of allowable error occurrence rate After inputting the above parameters, start evaluation a42 on evaluation screen 26 When input, the evaluation screen 26 starts the evaluation process 27 using the parameters a34 to a41 as arguments.

【0142】その後、評価プロセス27は専用リポジト
リ5内の能力データストア24から下記の情報を得る。 ・a4:各種業務のトランザクション発生頻度 ・a29:計測トランザクション数/ワークロードごと
の応答時間平均値 ・a30:計測トランザクション数/ワークロードごと
の応答時間分散値 ・a31:計測トランザクション数/ワークロードごと
のスループット平均値 ・a32:計測トランザクション数/ワークロードごと
のスループット分散値 ・a26:各ワークロード内の個個のSQL文のワーク
ロードに対する時間配分比 次に、評価プロセス27は図5に示すフローチャートに
よってシミュレーション評価方式を実施する。
After that, the evaluation process 27 obtains the following information from the capability data store 24 in the dedicated repository 5.・ A4: Frequency of transaction occurrence of various tasks ・ a29: Number of measured transactions / average response time for each workload ・ a30: Number of measured transactions / variance of response time for each workload ・ a31: Number of measured transactions / each workload Average throughput value a32: number of measured transactions / throughput variance value for each workload a26: time distribution ratio of individual SQL statements in each workload to the workload Next, the evaluation process 27 is based on the flowchart shown in FIG. Implement a simulation evaluation method.

【0143】図5を併せ参照すると、各パラメータに値
をセットする。また、シミュレーション回数カウンタお
よびエラー発生カウンタを0にリセットする。このステ
ップを「前処理ステップ」と称する(ステップS5
1)。
Referring to FIG. 5, a value is set for each parameter. Further, the simulation counter and the error occurrence counter are reset to zero. This step is referred to as a “preprocessing step” (step S5).
1).

【0144】シミュレーション回数カウンタと評価画面
26で入力したシミュレーション評価実施回数a40と
を比較し(ステップS53)、シミュレーション評価実
施回数が指定された回数未満のときは以下に示す処理を
行う。また、シミュレーション評価実施回数が指定され
た回数以上のときはステップS58に進む。
The number-of-simulations counter is compared with the number of times of simulation evaluation a40 input on the evaluation screen 26 (step S53). If the number of times of simulation evaluation is less than the specified number, the following processing is performed. If the number of simulation evaluations is equal to or greater than the specified number, the process proceeds to step S58.

【0145】ステップS53でYes、つまりシミュレ
ーション評価実施回数が指定された回数未満(ステップ
S53でYes)のときは、各ワークロードに相当する
各種業務内の所望応答時間に、乱数で発生させたばらつ
き値を加減した値を求めてベクトル表現する。そして、
このばらつき値を変動することによって確率現象を表現
する。
If Yes in step S53, that is, if the number of times of performing the simulation evaluation is less than the specified number (Yes in step S53), a random number-generated variation in the desired response time in various tasks corresponding to each workload. The value obtained by adding or subtracting the value is obtained and expressed as a vector. And
The probability phenomenon is expressed by changing the variation value.

【0146】 [0146]

【0147】その際、専用リポジトリ5からマークの付
加したSQL文a25を取り出し、ワークロードごとに
SQL文の時間配分比を求めてベクトル表現する。それ
は式(2)のように表現される。 (ρ1 ,ρ2 ,…,ρm ) (2) ここで、式(1)のベクトル表現の各要素を式(2)の
ベクトル表現の各要素で割ることによって、ワークロー
ド全体の許容時間を求めることができる。その結果は式
(3)のように表現される。 (Et1 ,Et2 ,…,EtM ) (3) このステップを「ベクトル生成ステップ」と称する(ス
テップS52)。
At this time, the SQL sentence a25 with the mark added is taken out from the dedicated repository 5, and the time distribution ratio of the SQL sentence is obtained for each workload and expressed in a vector. It is expressed as in equation (2). (Ρ 1 , ρ 2 ,..., Ρ m ) (2) Here, by dividing each element of the vector expression of Expression (1) by each element of the vector expression of Expression (2), the allowable time of the entire workload is obtained. Can be requested. The result is expressed as in equation (3). (Et 1 , Et 2 ,..., Et M ) (3) This step is referred to as a “vector generation step” (step S 52).

【0148】次に、確率計算を利用して、ある任意時点
に同時にサーバ計算機システムに接続し、かつ処理中の
状態にあるクライアント計算機システムの台数期待値を
推定する。ここで同時接続数とは、クライアント計算機
システムがサーバ計算機システムにアクセス最中も含め
て同時に接続している台数(プロセス数)のことを意味
する。このステップでは、この同時接続数を推定する。
Next, using the probability calculation, the expected number of client computer systems that are simultaneously connected to the server computer system at a certain point in time and are being processed is estimated. Here, the number of simultaneous connections means the number (the number of processes) of the client computer system that is simultaneously connected to the server computer system even during access. In this step, the number of simultaneous connections is estimated.

【0149】これに対し、次のステップで、同時接続数
の内、さらに同時に処理しているクライアント計算機シ
ステムを意味する同時処理数を推定する。
On the other hand, in the next step, the number of simultaneous processes, which means the client computer system that is simultaneously processing, is estimated from the number of simultaneous connections.

【0150】ここで専用リポジトリ5から各種業務のト
ランザクション発生頻度a4と評価画面で入力した平均
接続時間(T)a34を入手する。各種業務のトランザ
クション発生頻度a4はワークロードの発生頻度を意味
する。
Here, the transaction occurrence frequency a4 of various tasks and the average connection time (T) a34 input on the evaluation screen are obtained from the dedicated repository 5. The transaction occurrence frequency a4 of various tasks means the occurrence frequency of the workload.

【0151】ここでワークロードm:(1≦m≦M)の
平均到着率をλm とすると、平均接続時間(T)a34
の下では、同時接続数はポアソン分布で表現されるの
で、同時接続数Nsameの確率は式(4)のように導出さ
れる。
[0151] Here workload m: If you mean the arrival rate λ m of (1 ≦ m ≦ M), average connection time (T) a34
, The number of simultaneous connections is represented by a Poisson distribution, so that the probability of the number of simultaneous connections N same is derived as in equation (4).

【0152】 [0152]

【0153】式(4)からワークロードm:(1≦m≦
M)がjだけ“接続中”の確率は式(5)で導出され
る。これはワークロードがお互いに排反事象から成り立
つ。
From equation (4), the workload m: (1 ≦ m ≦
The probability that M) is “connected” by j is derived by equation (5). This is where the workloads consist of mutually exclusive events.

【0154】 [0154]

【0155】このステップを「同時接続数推定ステッ
プ」と称する(ステップS54)。
This step is called “simultaneous connection number estimation step” (step S54).

【0156】次に、クライアント計算機システムの同時
処理数を推定する。ワークロードの応答時間は同時接続
数Nsameの一般関数で表現されるので、専用リポジトリ
5から得た各ワークロードのランダムウォーク安全係数
(n)a39および平均接続時間(T)a34から、あ
る接続が処理中である確率は式(6)で導出される。こ
こでランダムウォーク安全係数(n)a39とは、画面
選択の後戻り等を考慮して付加する。
Next, the number of simultaneous processes of the client computer system is estimated. Since the response time of the workload is expressed by a general function of the number of concurrent connections N same,, the random walk safety factor of each workload obtained from only repository 5 (n) a39 and average connection time (T) a34, a connection Is derived in equation (6). Here, the random walk safety coefficient (n) a39 is added in consideration of the return of the screen selection and the like.

【0157】 [0157]

【0158】上記式(6)を用いれば、ワークロード
m:(1≦m≦M)がj台接続中の状況下で、さらに処
理中である台数(プロセス数)の期待値は式(7)で導
出される。
If the above equation (6) is used, the expected value of the number of processes (the number of processes) which are further processed under the condition that j workloads m: (1 ≦ m ≦ M) are connected is calculated by the equation (7). ).

【0159】 [0159]

【0160】以上のことからワークロードm:(1≦m
≦M)が処理中の期待値は条件付き確率となるので、式
(5)と式(7)との積で計算される。したがって、ワ
ークロードm:(1≦m≦M)の同時処理中の期待値N
(m)は式(8)で計算される。
From the above, the workload m: (1 ≦ m
(≦ M) is the conditional probability, and the expected value during the processing is calculated by the product of Expressions (5) and (7). Therefore, the expected value N during the simultaneous processing of the workload m: (1 ≦ m ≦ M)
(M) is calculated by equation (8).

【0161】また、同時接続数Nsameが十分に大きい値
であるときは、ワークロードの到着は独立な事象と見做
し得るので、ワークロードm(1≦m≦M)について和
を取れば任意時点の同時処理数の期待値は式(9)で計
算される。
When the number of simultaneous connections N same is a sufficiently large value, the arrival of the workload can be regarded as an independent event. Therefore, if the sum of the workload m (1 ≦ m ≦ M) is obtained, The expected value of the number of simultaneous processes at any time is calculated by Expression (9).

【0162】 [0162]

【0163】上記式(1)から式(9)までにより、ス
テップS52で求めたワークロード全体の許容時間から
同時処理数を推定する。このステップを「同時処理数推
定ステップ」と称する(ステップS55)。
From the above equations (1) to (9), the number of simultaneous processes is estimated from the allowable time of the entire workload obtained in step S52. This step is referred to as a “simultaneous processing number estimation step” (step S55).

【0164】次に、評価プロセス27は専用リポジトリ
5内の能力データストア24から得た同時処理数を意味
する計測トランザクション数a28に対する各ワークロ
ードの応答時間と式(3)のワークロード全体の許容時
間とを比較する。
Next, the evaluation process 27 determines the response time of each workload with respect to the number of measured transactions a28 indicating the number of simultaneous processes obtained from the performance data store 24 in the dedicated repository 5, and the tolerance of the entire workload of the formula (3). Compare with time.

【0165】ここで各パラメータは下記の式(10)〜
式(12)のように定義される。 計測トランザクション数(N)のもとでのワークロードmごとの応答時間平均値 :μm (N) (10) 計測トランザクション数(N)のもとでのワークロードmごとの応答時間分散値 :σm (N) (11) 推定同時接続数Nのばらつき:δN (12) 以上の定義のもとで、下記の2式が成立するかどうかの
判定をワークロードmごとに行う。
Here, each parameter is represented by the following equation (10).
It is defined as in equation (12). Average response time for each workload m under the number of measured transactions (N): μ m (N) (10) Variance of response time per workload m under the number of measured transactions (N): σ m (N) (11) Variation of the estimated number of simultaneous connections N: δ N (12) Under the above definition, it is determined for each workload m whether or not the following two equations hold.

【0166】 [0166]

【0167】式(13)は平均値で評価するときに用い
る。それに対して式(14)は指定された画面の95%
が所望応答時間を満足できるための条件下で用いる。
The equation (13) is used when evaluating with an average value. In contrast, equation (14) is 95% of the specified screen
Is used under conditions that satisfy the desired response time.

【0168】このステップで、式(13)または式(1
4)を満足しないワークロードが1つでもあれば、エラ
ー発生カウンタとシミュレーション回数カウンタとの両
方をインクリメントし、評価ログファイル28に評価の
詳細情報a43を書き出した後、ステップS52に戻
る。また、全ワークロードが式(13)または式(1
4)を満足したときは、評価ログファイル28に評価の
詳細情報a43を書き出した後、ステップS57に進
む。このステップを「応答性能評価ステップ」と称する
(ステップS56)。
In this step, equation (13) or equation (1)
If there is even one workload that does not satisfy 4), both the error occurrence counter and the simulation counter are incremented, the detailed evaluation information a43 is written in the evaluation log file 28, and the process returns to step S52. In addition, the total workload is calculated by the equation (13) or the equation (1).
When 4) is satisfied, the detailed information a43 of the evaluation is written in the evaluation log file 28, and then the process proceeds to step S57. This step is referred to as a “response performance evaluation step” (step S56).

【0169】次に、スループットの能力評価を行う。そ
のために、専用リポジトリ5から得たパラメータの各種
業務のトランザクション発生頻度a4を得るとともに、
評価プロセス27は専用リポジトリ5内の能力データス
トア24から以下に示す必要情報を得る。
Next, performance evaluation of throughput is performed. For this purpose, the transaction occurrence frequency a4 of various tasks of the parameter obtained from the dedicated repository 5 is obtained,
The evaluation process 27 obtains the following necessary information from the capability data store 24 in the dedicated repository 5.

【0170】 [0170]

【0171】以上の定義のもとで、次式(17)が成立
するか否かの判定をワークロードmごとに行う。
Under the above definition, it is determined whether or not the following equation (17) holds for each workload m.

【0172】 [0172]

【0173】式(17)は平均値のみを対象とする。こ
のステップで式(17)を1つのワークロードでも満足
しないときは、エラー発生カウンタとシミュレーション
回数カウンタとの両方をインクリメントし、評価ログフ
ァイル28に評価の詳細情報a43を書き出した後、ス
テップS52に戻る。また、全ワークロードが式(1
7)を満足したときは、シミュレーション回数カウンタ
のみをインクリメントし、評価ログファイル28に評価
の詳細情報a43を書き出した後、ステップS52に戻
る。このステップを「スループット性能評価ステップ」
と称する(ステップS57)。
Equation (17) targets only the average value. In this step, when even one workload does not satisfy the expression (17), both the error occurrence counter and the simulation number counter are incremented, and the detailed evaluation information a43 is written in the evaluation log file 28. Return. Also, all workloads are given by the formula (1
When 7) is satisfied, only the simulation counter is incremented, the detailed evaluation information a43 is written in the evaluation log file 28, and the process returns to step S52. This step is the “throughput performance evaluation step”
(Step S57).

【0174】評価プロセス27はエラー発生カウンタお
よびシミュレーション回数カウンタの両者を比較し、エ
ラー発生率が前述した許容エラー発生率上限値a41を
上回るときは能力不足の戻り値a44を戻して終了す
る。また、それ以外のときは問題なしの戻り値a44を
戻して終了する。このステップを「総合評価ステップ」
と称する(ステップS58)。
The evaluation process 27 compares both the error occurrence counter and the number-of-simulations counter. If the error occurrence rate exceeds the allowable error occurrence rate upper limit value a41, a return value a44 of insufficient capacity is returned and the process ends. Otherwise, a return value a44 without any problem is returned and the processing is terminated. This step is called “Comprehensive evaluation step”
(Step S58).

【0175】評価プロセス27が実施するシミュレーシ
ョン評価が終了すると、評価画面26に戻り値a44が
戻されて評価画面26に表示される。また、評価画面2
6には、評価ログファイル28内の評価の詳細情報a4
3も一覧表示される。
When the simulation evaluation performed by the evaluation process 27 is completed, the return value a44 is returned to the evaluation screen 26 and displayed on the evaluation screen 26. Evaluation screen 2
6 shows detailed evaluation information a4 in the evaluation log file 28.
3 is also displayed in a list.

【0176】以上のステップS51からステップS58
までの処理を実行して、シミュレーション評価が終了す
る。
The above steps S51 to S58
The processing up to is executed, and the simulation evaluation ends.

【0177】[0177]

【発明の効果】以上説明したように本発明の高負荷エミ
ュレーション性能評価方法は、ユーザがシステムと会話
形式で処理を進める際にこのシステムを構成する各業務
機能のGUI画面の一通りの操作を含む典型的な処理手
順で表示される全画面に付随してSQL文を連結して連
続的に発行可能とするためにワークロードを定義・作成
し、その後サーバ計算機システムへの平均到着率の比に
応じてサーバ計算機システムが受理する全業務機能の複
数のワークロードを直列に結合して計測トランザクショ
ンを構成し、その後さらにワークロードの順番を並び変
えることにより複数の計測トランザクションを用意する
ワークロード作成方式の手順で複数の計測トランザクシ
ョンを順次走行させ、待ち時間を発生させない状況下で
の同時処理数とスループットと応答時間との関係をエミ
ュレーション評価し、ブラックボックス測定方式により
同時処理数の増加に対するスループットおよび応答時間
の変化を含む性能評価に必要な評価用データを把握し、
運用環境およびユーザ所望のスループットならびに応答
時間から待ち行列網によるモデルとは異なる単純確率計
算で同時に処理すべき同時処理数を推定するとともにシ
ミュレーション評価方式によりブラックボックス測定方
式によって入手した性能評価に必要な評価用データと比
較する実験を有限回試行して評価対象のサーバ計算機シ
ステムの能力判定を行うことにより、そして、本発明の
高負荷エミュレーション性能評価装置は、CASEツー
ル内のリポジトリが管理しているデータベースへのアク
セスプログラムのSQL文とデータベースの各資源を定
義するDDL文とをリポジトリから取り出す第1の手段
と、サーバ構築方式の手順に基づいてサーバ計算機シス
テムに測定環境を自動生成する第2の手段と、負荷試験
を行うためのワークロード作成方式の手順に基づいて計
測トランザクションを半自動的に生成する第3の手段
と、ワークロード作成方式の手順に基づいて作成された
計測トランザクションを連続的に被測定サーバ計算機シ
ステムに与えブラックボックス測定方式により性能評価
値の変化を測定する第4の手段と、待ち行列網によるモ
デルとは異なる単純確率計算で同時に処理すべき同時処
理数を推定するとともにシミュレーション評価方式によ
りブラックボックス測定方式によって入手した性能評価
に必要な評価用データと比較する実験を有限回試行して
評価対象のサーバ計算機システムの能力判定を行う第5
の手段とを備えることにより、また、上記第1の手段が
取り出したSQL文の条件句と第1の手段が取り出した
DDL文とを比較してデータベースをアクセスする際の
2次索引が付加しているか否かを判定し、付加していな
いときは対応するプログラム記述を自動生成する仮チュ
ーニング手段を備えることにより、さらに、上記第2の
手段が採用するサーバ構築方式の手順は、測定用サーバ
計算機システムに測定環境を自動生成する手順を提供す
るとともに被測定サーバ計算機システムにリモートログ
インする前処理ステップと、ディスクの割当て等に関す
る指定値を専用リポジトリから読み出してスケルトンを
基にプログラム記述を生成した後このプログラム記述で
評価用データベースを構築する物理構造構築ステップ
と、データを保存する専用リポジトリからデータベース
の各資源を定義するDDL文を取り出して評価用データ
ベース上に資源を生成した上で仮チューニング手段が生
成したプログラム記述を実行する論理構造構築ステップ
と、評価用データに関する指定値を専用リポジトリから
読み出してデータ生成用ディフォルトのプログラム記述
を生成した後にデータを生成させる評価用データ生成ス
テップと、評価用データベースが定常状態に近い状況に
なるようにランダムにデータ操作をするSQL文を小規
模に発行する評価用データ調整ステップと、評価用デー
タベースのレプリカを別領域に生成するレプリカ生成ス
テップと、後処理ステップとを備えることにより、従来
のシミュレーション性能評価方式および積み上げ計算性
能評価方式では性能データを測定するために必要とした
専用の高性能ツールが不要になるという効果を有する。
As described above, the high-load emulation performance evaluation method according to the present invention performs a series of operations on the GUI screen of each business function constituting the system when the user proceeds with the system in an interactive manner. Workload is defined and created so that SQL statements can be linked and attached continuously to all screens displayed in a typical processing procedure, including the ratio of the average arrival rate to the server computer system. A workload is created by combining multiple workloads of all business functions received by the server computer system in series to form a measurement transaction, and then rearranging the workload order to prepare multiple measurement transactions Run multiple measurement transactions in sequence according to the method of Related emulation evaluate the response time Putto, grasp the evaluation data necessary to evaluate the performance, including changes in throughput and response time to increase the concurrency by the black box measurement method,
Estimate the number of simultaneous processes to be performed simultaneously with simple probability calculation different from that of the queuing network model from the operating environment and user-desired throughput and response time, and evaluate the performance obtained by the black box measurement method using the simulation evaluation method. By performing a finite number of experiments to compare the evaluation data with the evaluation data and determining the capability of the server computer system to be evaluated, the high-load emulation performance evaluation device of the present invention is managed by the repository in the CASE tool. First means for extracting SQL statements of a database access program and DDL statements defining each resource of a database from a repository, and second means for automatically generating a measurement environment in a server computer system based on a procedure of a server construction method Means and work load testing Third means for semi-automatically generating a measurement transaction based on the procedure of the load creation method, and continuously providing the measurement transaction created based on the procedure of the workload creation method to the measured server computer system, and performing black box measurement Fourth means for measuring the change of the performance evaluation value by the method, and the number of simultaneous processes to be simultaneously processed by the simple probability calculation different from the model by the queuing network, and obtained by the simulation evaluation method by the black box measurement method A finite number of trials of an experiment comparing with the evaluation data necessary for performance evaluation to determine the capability of the server computer system to be evaluated.
Means, the condition index of the SQL statement retrieved by the first means is compared with the DDL statement retrieved by the first means, and a secondary index for accessing the database is added. The provision of a temporary tuning means for judging whether or not the program description has not been added and automatically generating a corresponding program description when the program description has not been added. Provision of a procedure for automatically generating a measurement environment in the computer system, pre-processing step for remote login to the server computer system to be measured, and reading out specified values related to disk allocation etc. from the dedicated repository and generating a program description based on the skeleton The physical structure construction step of constructing an evaluation database using this program description and saving the data A logical structure construction step of extracting a DDL statement defining each resource of the database from the dedicated repository, generating a resource on the evaluation database, and executing the program description generated by the temporary tuning means, and specifying a value for the evaluation data. An evaluation data generation step of generating data after generating a default program description for data generation by reading from the dedicated repository, and a small SQL statement for randomly operating data so that the evaluation database is in a state close to a steady state. By providing an evaluation data adjustment step to be issued to a scale, a replica generation step to generate a replica of the evaluation database in another area, and a post-processing step, the performance of the conventional simulation performance evaluation method and the stacked calculation performance evaluation method is reduced. Measure data A dedicated high-performance tool that is needed in order has the effect that it becomes unnecessary.

【0178】また、従来のシミュレーション性能評価方
式における性能評価の際の待ち行列網モデルの膨大な記
述量が必要となる問題点が解決され、ワークロード作成
方式では、実運用で利用されるSQL文からワークロー
ドおよび計測トランザクションが容易に作成され、シミ
ュレーション評価方式では、待ち行列網によるモデル化
を行わずに確率計算により同時処理数を推定するので評
価が容易になるという効果を有する。
In addition, the problem that a large amount of description of the queuing network model is required at the time of performance evaluation in the conventional simulation performance evaluation method is solved. In the workload creation method, the SQL statement used in actual operation is used. , A workload and a measurement transaction are easily created. In the simulation evaluation method, the number of simultaneous processes is estimated by probability calculation without performing modeling using a queuing network.

【0179】さらに、従来のエミュレーション性能評価
方式においては、実運用分のクライアント計算機システ
ムを用意する必要があり、複数の画面操作で構成され、
完結するトランザクションに対してはキャッシュヒット
を考慮した出現率を正確にエミュレートすることができ
ないという問題点があったが、本発明におけるブラック
ボックス測定方式では、この問題点が本質的に解決され
るという効果を有する。
Further, in the conventional emulation performance evaluation method, it is necessary to prepare a client computer system for actual operation, and it is composed of a plurality of screen operations.
Although there has been a problem that the appearance rate in consideration of a cache hit cannot be accurately emulated for a completed transaction, the black box measurement method of the present invention essentially solves this problem. It has the effect of.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明におけるサーバ計算機システム性能評価
装置で評価する業務機能とワークロードと計測トランザ
クションとの関係の概念を示す図である。
FIG. 1 is a diagram showing a concept of a relationship between a business function evaluated by a server computer system performance evaluation device according to the present invention, a workload, and a measurement transaction.

【図2】本発明の高負荷エミュレーション性能評価装置
で使用するサーバ計算機システム性能評価装置の一実施
形態を示すブロック図である。
FIG. 2 is a block diagram showing an embodiment of a server computer system performance evaluation device used in the high load emulation performance evaluation device of the present invention.

【図3】本発明の高負荷エミュレーション性能評価装置
全体の処理手順を示すフローチャートである。
FIG. 3 is a flowchart showing a processing procedure of the entire high-load emulation performance evaluation device of the present invention.

【図4】図2におけるサーバ計算機システム性能評価装
置が採用するブラックボックス測定方式のフローチャー
トである。
FIG. 4 is a flowchart of a black box measurement method adopted by the server computer system performance evaluation device in FIG. 2;

【図5】図2におけるサーバ計算機システム性能評価装
置が採用するシミュレーション評価方式のフローチャー
トである。
FIG. 5 is a flowchart of a simulation evaluation method adopted by the server computer system performance evaluation device in FIG. 2;

【図6】図2におけるサーバ計算機システム性能評価装
置が採用するサーバ構築方式のフローチャートである。
FIG. 6 is a flowchart of a server construction method adopted by the server computer system performance evaluation device in FIG. 2;

【図7】計算機性能評価方式の第1の例を示すシミュレ
ーション性能評価方式のブロック図である。
FIG. 7 is a block diagram of a simulation performance evaluation method showing a first example of a computer performance evaluation method.

【図8】計算機性能評価方式の第2の例を示す積上げ計
算性能評価方式のブロック図である。
FIG. 8 is a block diagram of a stacking performance evaluation method showing a second example of the computer performance evaluation method.

【図9】計算機性能評価方式の第3の例を示すエミュレ
ーション性能評価方式のブロック図である。
FIG. 9 is a block diagram of an emulation performance evaluation method showing a third example of a computer performance evaluation method.

【符号の説明】[Explanation of symbols]

1 サーバ計算機システム性能評価装置 2 CASEツール 3 CASEツールリポジトリ 4 取出しローダプロセス 5 専用リポジトリ 6 条件設定画面 7 測定クライアント計算機システム 8 被測定サーバ計算機システム 9 環境作成画面 10 測定クライアント環境作成ツールプロセス 11 サーバ環境作成ツールプロセス 12 Scriptファイル群 13 測定クライアントジェネレータプロセス 14A,14B 測定評価結果ログファイル 15A,15B 計測プロセス 16 計測プロセス記述ファイル 17 評価用データベース 18 評価処理制御画面 19 エミュレーションコントローラプロセス 20 SQL配分評価計測プロセス記述ファイル 21 評価用データベースレプリカ 22 結果集計画面 23 集計プロセス 24 能力データストア 25 ログファイル 26 評価画面 27 評価プロセス 28 評価ログファイル 29 SQL配分計測プロセス 71 シミュレータ部 72 性能評価部 73 制御装置 74 シミュレータインタフェース 75 性能評価インタフェース 76 ユーザインタフェース 80 稼働計算機システム 81 CPU時間測定装置 82,84,85,88 記憶装置 83 入出力回数測定装置 86,89 指示装置 87,810 処理装置 90 クライアント計算機システム 91 端末シミュレート制御部 92 性能評価制御部 93 入力トランザクションファイル部 94 性能評価データ格納部 95 性能評価データ出力部 96 コンソール 97 性能評価リスト 98 通信制御部 99 トランザクション処理部 100 サーバ計算機システム a1,a15,a25,a51,a58 SQL文 a2,a16 DDL文 a3 定常運用に移行した際に保持される最大データ
量 a4 各種業務のトランザクション発生頻度 a5 各種定義表項目の定義域 a6 問い合わせSQL文の定義範囲と設定基準 a7 データ操作SQL文の定義範囲と設定基準 a8 計測トランザクションの最大値 a9 測定クライアント計算機システム7のマシン
名,ネットワークアドレス,ログイン名および基点ディ
レクトリ a10 被測定サーバ計算機システム8のマシン名,
ネットワークアドレスおよびログイン名 a11 被測定サーバ計算機システム8のデータ格納
方法の詳細指定情報 a12 計測維持最低時間情報 a13 計測トランザクション投入インターバル時間 a14 評価用データベース17の評価用データベー
スレプリカ21先のマシン名,ネットワークアドレス,
ログイン名および基点ディレクトリ指定 a17,a57 Script a18 測定クライアント計算機システム7のマシン
名 a19 測定クライアント計算機システム7のネット
ワークアドレス a20 測定クライアント計算機システム7のログイ
ン名 a21 基点ディレクトリ a22 被測定サーバ計算機システム8のマシン名 a23 被測定サーバ計算機システム8のネットワー
クアドレス a24 被測定サーバ計算機システム8のログイン名 a26 各ワークロード内の個個のSQL文のワーク
ロードに対する時間配分比 a27 ワークロード応答時間 a28 計測トランザクション数 a29 計測トランザクション数/ワークロードごと
の応答時間平均値 a30 計測トランザクション数/ワークロードごと
の応答時間分散値 a31 計測トランザクション数/ワークロードごと
のスループット平均値 a32 計測トランザクション数/ワークロードごと
のスループット分散値 a33 作業完了メッセージ a34 平均接続時間(T) a35 接続時間分散値 a36 サービス継続時間 a37 ワークロードに相当する各種業務の所望応答
時間 a38 ワークロードに相当する各種業務の最大許容
応答時間またはばらつき値 a39 ランダムウォーク安全係数(n) a40 シミュレーション評価実施回数 a41 許容エラー発生率上限値 a42 評価開始 a43 評価の詳細情報 a44 戻り値 a45 作業終了報告 a46 Scriptファイル a47 Start Time a48 End Time a49 強制終了コマンド a50,a59 終了通知 a52 ネットワーク接続時間 a53 ファイル a54,a56,a65 コマンド a55 ファイルパス a60 引き数 a61 開始コマンド a62 起動コマンド a63 トランザクション a66 時間配分比算出のためのデータ
DESCRIPTION OF SYMBOLS 1 Server computer system performance evaluation apparatus 2 CASE tool 3 CASE tool repository 4 Extraction loader process 5 Dedicated repository 6 Condition setting screen 7 Measurement client computer system 8 Server server system to be measured 9 Environment creation screen 10 Measurement client environment creation tool process 11 Server environment Creation tool process 12 Script file group 13 Measurement client generator process 14A, 14B Measurement evaluation result log file 15A, 15B Measurement process 16 Measurement process description file 17 Evaluation database 18 Evaluation processing control screen 19 Emulation controller process 20 SQL distribution evaluation measurement process description File 21 Evaluation database replica 22 Result tabulation screen 23 Tabulation process 24 Performance data Tor 25 Log file 26 Evaluation screen 27 Evaluation process 28 Evaluation log file 29 SQL allocation measurement process 71 Simulator unit 72 Performance evaluation unit 73 Controller 74 Simulator interface 75 Performance evaluation interface 76 User interface 80 Operating computer system 81 CPU time measurement device 82, 84, 85, 88 storage device 83 input / output count measuring device 86, 89 pointing device 87, 810 processing device 90 client computer system 91 terminal simulation control unit 92 performance evaluation control unit 93 input transaction file unit 94 performance evaluation data storage unit 95 Performance evaluation data output unit 96 Console 97 Performance evaluation list 98 Communication control unit 99 Transaction processing unit 100 Server computer system a1, a15, a25, a51, a58 SQL statement a2, a16 DDL statement a3 Maximum amount of data retained when transition to regular operation a4 Transaction occurrence frequency of various tasks a5 Definition area of various definition table items a6 Definition range and setting standard of inquiry SQL statement a7 Definition range and setting standard of data operation SQL statement a8 Maximum value of measurement transaction a9 Machine name, network address, login name and base directory of measurement client computer system 7 a10 Machine name of server computer system 8 to be measured,
Network address and login name a11 Detailed specification information of the data storage method of the measured server computer system 8 a12 Measurement maintenance minimum time information a13 Measurement transaction input interval time a14 Machine name and network address of the evaluation database replica 21 of the evaluation database 17 ,
Login name and base directory specification a17, a57 Script a18 Machine name of measurement client computer system 7 a19 Network address of measurement client computer system 7 a20 Login name of measurement client computer system 7 a21 Base directory a22 Machine name of measurement target server computer system 8 a23 Network address of server computer system 8 to be measured a24 Login name of server computer system 8 to be measured a26 Time distribution ratio of individual SQL statements in each workload to workload a27 Workload response time a28 Number of measured transactions a29 Measurement transaction Number / Response time average value for each workload a30 Measured transactions / Response time variance value for each workload a31 Measured Number of transactions / average throughput value for each workload a32 Measured transaction number / dispersion value of throughput for each workload a33 Work completion message a34 Average connection time (T) a35 Connection time dispersion value a36 Service duration a37 Various types of workloads Desired response time of work a38 Maximum allowable response time or variation value of various work corresponding to workload a39 Random walk safety factor (n) a40 Number of simulation evaluations performed a41 Permissible error occurrence upper limit a42 Evaluation start a43 Detailed information of evaluation a44 Return value a45 Work end report a46 Script file a47 Start Time a48 End Time a49 Forced end command a50, a59 End notification a52 Network connection time a53 File a54, a56, a65 Command a55 File path a60 Argument a61 Start command a62 Start command a63 Transaction a66 Data for calculating time distribution ratio

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ユーザがシステムと会話形式で処理を進
める際に前記システムを構成する各業務機能のGUI画
面の一通りの操作を含む典型的な処理手順で表示される
全画面に付随してSQL文を連結して連続的に発行可能
とするためにワークロードを定義・作成し、その後サー
バ計算機システムへの平均到着率の比に応じて前記サー
バ計算機システムが受理する全業務機能の複数の前記ワ
ークロードを直列に結合して計測トランザクションを構
成し、その後さらに前記ワークロードの順番を並び変え
ることにより複数の前記計測トランザクションを用意す
るワークロード作成方式の手順で前記複数の計測トラン
ザクションを順次走行させ、待ち時間を発生させない状
況下での同時処理数とスループットと応答時間との関係
をエミュレーション評価し、ブラックボックス測定方式
により前記同時処理数の増加に対する前記スループット
および前記応答時間の変化を含む性能評価に必要な評価
用データを把握し、運用環境および前記ユーザ所望のス
ループットならびに応答時間から待ち行列網によるモデ
ルとは異なる単純確率計算で同時に処理すべき同時処理
数を推定するとともにシミュレーション評価方式により
前記ブラックボックス測定方式によって入手した前記性
能評価に必要な評価用データと比較する実験を有限回試
行して評価対象の前記サーバ計算機システムの能力判定
を行うことを特徴とする高負荷エミュレーション性能評
価方法。
1. When a user proceeds with a process in a conversational manner with a system, it is attached to a full screen displayed in a typical processing procedure including a series of operations of a GUI screen of each business function constituting the system. A workload is defined and created so that SQL statements can be linked and continuously issued, and then a plurality of business functions received by the server computer system are received in accordance with a ratio of an average arrival rate to the server computer system. The workloads are connected in series to form a measurement transaction, and then the workloads are rearranged in order to prepare a plurality of the measurement transactions. Emulates the relationship between the number of concurrent processes, throughput, and response time in a situation where no waiting time occurs Evaluate, grasp the evaluation data necessary for performance evaluation including the change of the throughput and the response time with respect to the increase in the number of simultaneous processes by the black box measurement method, and wait from the operation environment and the user-desired throughput and the response time. The number of simultaneous processes to be processed simultaneously by a simple probability calculation different from the model based on the matrix network is estimated, and an experiment for comparing with the evaluation data necessary for the performance evaluation obtained by the black box measurement method by the simulation evaluation method is performed a finite number of times. A high-load emulation performance evaluation method, comprising performing a trial to determine the capability of the server computer system to be evaluated.
【請求項2】 CASEツール内のリポジトリが管理し
ているデータベースへのアクセスプログラムのSQL文
と前記データベースの各資源を定義するDDL文とを前
記リポジトリから取り出す第1の手段と、サーバ構築方
式の手順に基づいてサーバ計算機システムに測定環境を
自動生成する第2の手段と、負荷試験を行うためのワー
クロード作成方式の手順に基づいて計測トランザクショ
ンを半自動的に生成する第3の手段と、前記ワークロー
ド作成方式の手順に基づいて作成された前記計測トラン
ザクションを連続的に被測定サーバ計算機システムに与
えブラックボックス測定方式により性能評価値の変化を
測定する第4の手段と、待ち行列網によるモデルとは異
なる単純確率計算で同時に処理すべき同時処理数を推定
するとともにシミュレーション評価方式により前記ブラ
ックボックス測定方式によって入手した性能評価に必要
な評価用データと比較する実験を有限回試行して評価対
象の前記サーバ計算機システムの能力判定を行う第5の
手段とを備えることを特徴とする高負荷エミュレーショ
ン性能評価装置。
A first means for extracting, from the repository, an SQL statement of an access program to a database managed by a repository in the CASE tool and a DDL statement defining each resource of the database; A second means for automatically generating a measurement environment in the server computer system based on a procedure, a third means for semi-automatically generating a measurement transaction based on a procedure of a workload creation method for performing a load test, Fourth means for continuously giving the measurement transaction created based on the procedure of the workload creation method to the server computer system to be measured and measuring a change in the performance evaluation value by a black box measurement method, and a model based on a queuing network The number of simultaneous processes that should be processed simultaneously with a simple probability calculation different from A fifth means for performing a finite number of trials of an experiment for comparing with the evaluation data necessary for the performance evaluation obtained by the black box measurement method by the evaluation method, and determining the capability of the server computer system to be evaluated. High load emulation performance evaluation device characterized by the following.
【請求項3】 前記第1の手段が取り出した前記SQL
文の条件句と前記第1の手段が取り出した前記DDL文
とを比較して前記データベースをアクセスする際の2次
索引が付加しているか否かを判定し、付加していないと
きは対応するプログラム記述を自動生成する仮チューニ
ング手段を備えることを特徴とする請求項2記載の高負
荷エミュレーション性能評価装置。
3. The SQL retrieved by the first means
By comparing a conditional phrase of a sentence with the DDL sentence extracted by the first means, it is determined whether or not a secondary index has been added when accessing the database. 3. The high-load emulation performance evaluation device according to claim 2, further comprising a temporary tuning means for automatically generating a program description.
【請求項4】 前記第2の手段が採用する前記サーバ構
築方式の手順は、測定用サーバ計算機システムに測定環
境を自動生成する手順を提供するとともに前記被測定サ
ーバ計算機システムにリモートログインする前処理ステ
ップと、ディスクの割当て等に関する指定値を専用リポ
ジトリから読み出してスケルトンを基に前記プログラム
記述を生成した後このプログラム記述で評価用データベ
ースを構築する物理構造構築ステップと、データを保存
する前記専用リポジトリから前記データベースの各資源
を定義する前記DDL文を取り出して前記評価用データ
ベース上に前記資源を生成した上で前記仮チューニング
手段が生成した前記プログラム記述を実行する論理構造
構築ステップと、前記評価用データに関する指定値を前
記専用リポジトリから読み出してデータ生成用ディフォ
ルトのプログラム記述を生成した後にデータを生成させ
る評価用データ生成ステップと、前記評価用データベー
スが定常状態に近い状況になるようにランダムにデータ
操作をする前記SQL文を小規模に発行する評価用デー
タ調整ステップと、前記評価用データベースのレプリカ
を別領域に生成するレプリカ生成ステップと、後処理ス
テップとを備えることを特徴とする請求項2または3記
載の高負荷エミュレーション性能評価装置。
4. The procedure of the server construction method adopted by the second means provides a procedure for automatically generating a measurement environment in a server computer system for measurement and a pre-process for remote login to the server computer system to be measured. A physical structure construction step of reading a specified value relating to disk allocation and the like from a dedicated repository and generating the program description based on a skeleton, and then constructing an evaluation database with the program description; and the dedicated repository for storing data. A logical structure construction step of extracting the DDL statement defining each resource of the database from the database, generating the resource on the evaluation database, and executing the program description generated by the temporary tuning means; Is the specified value for data in the dedicated repository? An evaluation data generation step of generating data after generating a default program description for data generation by reading data from the database, and reducing the SQL statement for randomly performing data manipulation so that the evaluation database is close to a steady state. 4. The high-load emulation performance according to claim 2, further comprising: an evaluation data adjustment step for issuing a scale, a replica generation step for generating a replica of the evaluation database in another area, and a post-processing step. Evaluation device.
JP8347824A 1996-12-26 1996-12-26 High load emulation performance evaluation method and device Expired - Lifetime JP2923874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8347824A JP2923874B2 (en) 1996-12-26 1996-12-26 High load emulation performance evaluation method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8347824A JP2923874B2 (en) 1996-12-26 1996-12-26 High load emulation performance evaluation method and device

Publications (2)

Publication Number Publication Date
JPH10187495A true JPH10187495A (en) 1998-07-21
JP2923874B2 JP2923874B2 (en) 1999-07-26

Family

ID=18392853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8347824A Expired - Lifetime JP2923874B2 (en) 1996-12-26 1996-12-26 High load emulation performance evaluation method and device

Country Status (1)

Country Link
JP (1) JP2923874B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6910061B2 (en) 2000-01-11 2005-06-21 International Business Machines Corporation Framework system and method for testing server performance under multiple workloads
US6985940B1 (en) 1999-11-12 2006-01-10 International Business Machines Corporation Performance testing of server systems
US6996811B2 (en) 2001-01-22 2006-02-07 Hitachi, Ltd. Method for creating a performance model of an application program adjusted with an execution result of the application program
CN100382518C (en) * 2005-10-14 2008-04-16 北京启明星辰信息技术有限公司 Computer network data calogue ultimate measuring method and system
JP2010231488A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Monitoring system, program and method
WO2012173283A1 (en) * 2011-06-16 2012-12-20 日本電気株式会社 System performance prediction method, information processing device, and control program thereof
CN104123672A (en) * 2014-07-22 2014-10-29 西北工业大学 Method for calculating production capability of airplane assembly line workers
CN112260322A (en) * 2020-10-10 2021-01-22 中国电力科学研究院有限公司 Source network load storage simulation platform, method and system
CN113064777A (en) * 2021-04-02 2021-07-02 中国建设银行股份有限公司 Method and device for testing data acquisition service
CN117331846A (en) * 2023-11-30 2024-01-02 河北雄安尚世嘉科技有限公司 Internet-based software development, operation, test and management system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985940B1 (en) 1999-11-12 2006-01-10 International Business Machines Corporation Performance testing of server systems
US6910061B2 (en) 2000-01-11 2005-06-21 International Business Machines Corporation Framework system and method for testing server performance under multiple workloads
US6996811B2 (en) 2001-01-22 2006-02-07 Hitachi, Ltd. Method for creating a performance model of an application program adjusted with an execution result of the application program
CN100382518C (en) * 2005-10-14 2008-04-16 北京启明星辰信息技术有限公司 Computer network data calogue ultimate measuring method and system
JP2010231488A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Monitoring system, program and method
JPWO2012173283A1 (en) * 2011-06-16 2015-02-23 日本電気株式会社 System performance prediction method, information processing apparatus and control program thereof
WO2012173283A1 (en) * 2011-06-16 2012-12-20 日本電気株式会社 System performance prediction method, information processing device, and control program thereof
CN104123672A (en) * 2014-07-22 2014-10-29 西北工业大学 Method for calculating production capability of airplane assembly line workers
CN112260322A (en) * 2020-10-10 2021-01-22 中国电力科学研究院有限公司 Source network load storage simulation platform, method and system
CN112260322B (en) * 2020-10-10 2022-12-30 中国电力科学研究院有限公司 Source network load storage simulation platform, method and system
CN113064777A (en) * 2021-04-02 2021-07-02 中国建设银行股份有限公司 Method and device for testing data acquisition service
CN117331846A (en) * 2023-11-30 2024-01-02 河北雄安尚世嘉科技有限公司 Internet-based software development, operation, test and management system
CN117331846B (en) * 2023-11-30 2024-03-08 河北雄安尚世嘉科技有限公司 Internet-based software development, operation, test and management system

Also Published As

Publication number Publication date
JP2923874B2 (en) 1999-07-26

Similar Documents

Publication Publication Date Title
CA2171802C (en) Comparative performance modeling for distributed object oriented applications
Ganapathi et al. Statistics-driven workload modeling for the cloud
Heidelberger et al. Computer performance evaluation methodology
EP2572294B1 (en) System and method for sql performance assurance services
AU2021240156B2 (en) Quantum Control Pulse Generation Method And Apparatus, Device, And Storage Medium
Varki Response time analysis of parallel computer and storage systems
JP2923874B2 (en) High load emulation performance evaluation method and device
Menasce Computing Missing Service Demand Parameters for Performance Models.
US7860700B2 (en) Hardware verification batch computing farm simulator
Nguyen et al. A black-box fork-join latency prediction model for data-intensive applications
CN105630575A (en) Performance evaluation method aiming at KVM virtualization server
CN111045932A (en) Business system simulation processing method and device, electronic equipment and storage medium
Wang et al. Estimating multiclass service demand distributions using Markovian arrival processes
Huesmann et al. Evaluating computer systems through simulation
Coulden et al. Performance modelling of database contention using queueing petri nets
Jagannatha et al. Algorithm approach: modelling and performance analysis of software system
CN116974874A (en) Database testing method and device, electronic equipment and readable storage medium
Kounev et al. Qpme 2.0-a tool for stochastic modeling and analysis using queueing petri nets
Porzucek et al. Combination of a discrete event simulation and an analytical performance analysis through model-transformations
Hughes et al. Qos explorer: A tool for exploring qos in composed services
Ghaith et al. Software contention aware queueing network model of three-tier web systems
Zhang et al. Performance difference prediction in cloud services for SLA-based auditing
Osman et al. Performance evaluation of database designs
CN109525642A (en) A kind of LIMS system users datamation report method under user&#39;s mechanism
KR20190143595A (en) Method and system for optimizing concurrent schedule

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990330