JP4896909B2 - Scenario generation apparatus and program - Google Patents

Scenario generation apparatus and program Download PDF

Info

Publication number
JP4896909B2
JP4896909B2 JP2008066622A JP2008066622A JP4896909B2 JP 4896909 B2 JP4896909 B2 JP 4896909B2 JP 2008066622 A JP2008066622 A JP 2008066622A JP 2008066622 A JP2008066622 A JP 2008066622A JP 4896909 B2 JP4896909 B2 JP 4896909B2
Authority
JP
Japan
Prior art keywords
image
information
scenario
range
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008066622A
Other languages
Japanese (ja)
Other versions
JP2009223568A (en
Inventor
潤 平井
智 関根
晋一郎 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2008066622A priority Critical patent/JP4896909B2/en
Publication of JP2009223568A publication Critical patent/JP2009223568A/en
Application granted granted Critical
Publication of JP4896909B2 publication Critical patent/JP4896909B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Computer And Data Communications (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、指定された画像をもとにシナリオを生成するシナリオ生成装置及びシナリオ生成プログラムに係り、例えば、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上し得るシナリオ生成装置及びプログラムに関する。   The present invention relates to a scenario generation device and a scenario generation program that generate a scenario based on a specified image. For example, the specification of an image that causes an error during scenario execution can be prevented, and the efficiency of scenario correction can be improved. The present invention relates to a scenario generation device and a program.

一般に、CPUがソフトウェアを実行してなる情報システムが広く知られている。この種の情報システムでは、多量の処理要求が発生すると、処理要求に応答するためにCPUの負荷が高くなる。このような高負荷時における情報システムの性能は極めて重要である。具体的には、高負荷時におけるリソース(CPU等)利用率や高負荷時のレスポンスタイム等が情報システムの利用者にとって重要な性能となっている。   In general, an information system in which a CPU executes software is widely known. In this type of information system, when a large amount of processing requests occur, the load on the CPU increases in response to processing requests. The performance of the information system at such a high load is extremely important. Specifically, resource (CPU etc.) utilization rate at high load, response time at high load, and the like are important performances for information system users.

情報システムを開発、運用する際に、高負荷時の性能を測定、検証する観点から、擬似的に生じさせた高負荷の状況において、情報システムの性能を計測するための負荷試験が広く行われている。負荷試験では、一般に、情報端末に相当するマシンから擬似的に多量の処理要求を情報システムに発生させる(例えば、特許文献1参照。)。情報端末に相当するマシンは、通常、インストールされた負荷試験プログラムの実行により、負荷を発生する。負荷試験プログラムを実行するCPUは、人間が情報端末を操作して入力する場合の処理要求と同様の処理要求を情報端末から発生させる。   When developing and operating an information system, from the viewpoint of measuring and verifying performance at high loads, load tests for measuring the performance of information systems are widely conducted in the simulated high load situation. ing. In a load test, generally, a large amount of processing requests are generated in a pseudo manner from a machine corresponding to an information terminal (see, for example, Patent Document 1). A machine corresponding to an information terminal usually generates a load by executing an installed load test program. The CPU that executes the load test program generates from the information terminal a processing request similar to the processing request when a human operates and inputs the information terminal.

ここで、負荷試験プログラムには、いくつかの方式がある。比較的普及している方式は、クライアントソフトウェアからサーバへ送られる処理要求を予め記録しておき、この予め記録した処理要求を負荷発生ツールからサーバに向けて擬似的に繰り返し発生させる方式である。   Here, there are several types of load test programs. A relatively popular method is a method in which processing requests sent from the client software to the server are recorded in advance, and the pre-recorded processing requests are repeatedly generated in a pseudo manner from the load generation tool to the server.

しかしながら、この方式は、処理要求が毎回変化する複雑なシステムのとき、クライアントソフトウェアと同様に処理要求を変化させる機構を負荷発生ツールに設けることが困難となり、実現に多大な労力を要する場合がある。さらに、処理要求を適切に変化させる観点から、クライアントソフトウェアの内部の動きを理解する必要がある場合には、負荷試験の実施者に高度なスキルが要求されるため、負荷試験を行う人材確保が困難となる。   However, in this system, in a complex system in which processing requests change every time, it is difficult to provide a load generation tool with a mechanism for changing processing requests as in the case of client software. . Furthermore, from the viewpoint of appropriately changing processing requirements, when it is necessary to understand the internal behavior of client software, a high level of skill is required for the load tester. It becomes difficult.

一方、別の実現方法として、クライアントソフトウェアの画面の自動操作により、負荷を発生する方法が考えられる。これは、情報端末にてクライアントソフトウェアを起動しておき、人間による操作と同様の操作を負荷試験ツールが擬似的に実行して当該クライアントソフトウェアを動作させることにより、クライアントソフトウェアから処理要求を発生させてサーバに送る方法である。   On the other hand, as another realization method, a method of generating a load by automatic operation of the screen of the client software can be considered. This is because the client software is activated on the information terminal, and the load test tool performs a similar operation as a human operation to cause the client software to operate, thereby generating a processing request from the client software. Is sent to the server.

この方法の場合、クライアントソフトウェアの画面遷移に応じて、ボタンなどの所定の操作対象に、マウスやキーボードからの入力イベント(操作イベント)が投入される。このような画面の自動操作は、予め操作シナリオ(以下、単にシナリオともいう)の形で定義されている。この方式では、クライアントソフトウェアに実装された機構をそのまま利用して処理要求を発生させるため、前述とは異なり、処理要求を毎回変化させる機構が不要である。さらにクライアントソフトウェアの操作方法を理解した者であれば、操作シナリオを作成可能であるため、高度なスキルが要求されない。   In the case of this method, an input event (operation event) from a mouse or a keyboard is input to a predetermined operation target such as a button in accordance with the screen transition of the client software. Such automatic operation of the screen is defined in advance in the form of an operation scenario (hereinafter also simply referred to as a scenario). In this method, since the processing request is generated by using the mechanism installed in the client software as it is, a mechanism for changing the processing request every time is not required unlike the above. Furthermore, since a person who understands how to operate the client software can create an operation scenario, advanced skills are not required.

このような画面自動操作による負荷発生方式では、情報端末上のウィンドウ内で表示されるボタンやテキストボックスのような操作対象を用いる。この操作対象に操作イベントを投入する場合に、いくつかの実現方法が考えられる。   In such a load generation method by automatic screen operation, an operation target such as a button or a text box displayed in a window on the information terminal is used. When an operation event is input to this operation target, several realization methods can be considered.

第1の実現方法においては、画面を構成しているソフトウェアの構造を理解し、画面内の操作対象を上記ソフトウェアが管理している仕組みに基づき、画面内の操作対象をソフトウェアが特定するIDを明確にし、そのIDと、そのIDに投入するイベントの種別を、操作シナリオに記述しておく。シナリオ実行時には、操作対象のIDに基づいて、その操作対象にマウスのクリックイベントなどを投入する。   In the first implementation method, an ID for identifying the operation target in the screen is determined based on a mechanism in which the software manages the operation target in the screen by understanding the structure of the software constituting the screen. Clearly, the ID and the type of event to be input to the ID are described in the operation scenario. When the scenario is executed, a mouse click event or the like is input to the operation target based on the operation target ID.

しかしながら、第1の実現方法は、ソフトウェアによる操作対象の管理方法が変わると、操作対象の特定の仕方や表示位置の特定の方法が変化する。このため、個々のソフトウェアによる操作対象の管理方法に対応させて負荷試験プログラムを開発する必要があるので、多大なコストが発生する。   However, in the first implementation method, when the management method of the operation target by software changes, the method of specifying the operation target and the method of specifying the display position change. For this reason, since it is necessary to develop a load test program corresponding to the management method of the operation target by each software, a great cost is generated.

一方、第2の実現方法においては、画面上の操作対象を、予め取得した画像情報と比較して画面上での操作対象の表示位置を特定し、その操作対象の表示位置にマウスを移動してクリックなどの操作に相当するイベントを発生させる。この第2の実現方法によれば、操作対象の外見(形状、色、等)に基づいて操作対象を特定するので、操作対象の管理方法に対応させて負荷試験プログラムを開発する必要が無い。   On the other hand, in the second realization method, the operation target on the screen is compared with the image information acquired in advance, the display position of the operation target on the screen is specified, and the mouse is moved to the display position of the operation target. To generate an event corresponding to an operation such as clicking. According to the second realization method, since the operation target is specified based on the appearance (shape, color, etc.) of the operation target, it is not necessary to develop a load test program corresponding to the management method of the operation target.

係る第2の実現方法のためのソフトウェアとしては、例えば、フリーソフトウェアとして公開されているオートマウス(AutoMouse)が知られている(例えば、非特許文献1参照。)。
特開2003−208329号公報 山本格也:GUIをAPIとして用いるプログラミング法,情報処理学会論文誌:プログラミング Vol.39,No.SIG 1(PRO 1),pp.26−33,(1998).
As software for the second realization method, for example, an auto mouse published as free software is known (for example, see Non-Patent Document 1).
JP 2003-208329 A Masaya Yama: Programming method using GUI as API, Transactions of Information Processing Society of Japan: Programming Vol. 39, no. SIG 1 (PRO 1), pp. 26-33, (1998).

しかしながら、以上のような第2の実現方法では、種々の画面を持つクライアントソフトウェアに適応して効率的に利用する場合に、操作シナリオを作成するための労力が大きいという課題が有った。   However, in the second realization method as described above, there is a problem that labor for creating an operation scenario is large when the client software having various screens is used efficiently.

例えば、従来の方式では、情報端末(PC)の画面のスナップショットとしての画像情報を取得し、特殊なエディタを用いて操作対象となる画像の一部を指定し、その操作対象に対して、マウスやキーボードからどのような入力イベントを投入すべきかを定義する必要があった。複数の操作画面を順次切り替えるタイプのクライアントソフトウェアについて、このような手順で操作シナリオを作成するには多くの労力が必要となり、作業効率を著しく低下させる要因となっていた。   For example, in the conventional method, image information as a snapshot of the screen of an information terminal (PC) is acquired, a part of an image to be operated is specified using a special editor, and the operation target is It was necessary to define what input events should be thrown from the mouse and keyboard. For a type of client software that sequentially switches a plurality of operation screens, it takes a lot of labor to create an operation scenario in such a procedure, which has been a factor of significantly reducing work efficiency.

そこで、本発明者らは、この出願の出願時点で未公開の特願2007−196422号において、操作に伴い発生するイベントを採取して記録すると共に、操作画面の全体画像と操作画面上で操作対象として指定された画像とを採取して記録することにより、これらイベント及び各画像から操作シナリオを効率的に作成する第3の実現方法を提案した。   Therefore, the present inventors have collected and recorded events that occur in accordance with the operation in Japanese Patent Application No. 2007-196422 that has not been published at the time of filing of this application, and operated the entire operation screen on the operation screen. A third realization method has been proposed in which an operation scenario is efficiently created from these events and each image by collecting and recording the images designated as targets.

しかしながら、第3の実現方法においては、熟練していない操作者の場合、シナリオ実行時にエラーを生じる画像を指定してシナリオを作成してしまう可能性がある。このようなシナリオを生成した場合、シナリオ実行時までエラーが発生しないので、エラーを生じる画像を修正しにくい不都合が生じる。また、熟練していない操作者にとっては、エラーが発生した場合に、エラーの原因が中々分からず、シナリオ修正の作業効率を低下させてしまう心配がある。また、エラーの原因を探すために、クライアントアプリケーションを起動し直す手間が発生し、作業効率をさらに低下させる心配がある。   However, in the third realization method, an unskilled operator may create a scenario by specifying an image that causes an error when executing the scenario. When such a scenario is generated, an error does not occur until the scenario is executed, so that it is difficult to correct an image that causes the error. In addition, for an unskilled operator, when an error occurs, the cause of the error is not clearly understood, and there is a concern that the work efficiency of scenario correction is reduced. In addition, it takes time to restart the client application to find the cause of the error, and there is a concern that the work efficiency may be further reduced.

本発明は上記実情を考慮してなされたもので、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上し得るシナリオ生成装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a scenario generation device and a program that can prevent the designation of an image that causes an error during scenario execution and improve the efficiency of scenario correction.

本発明の第1の局面は、操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の一部画像を含む比較対象の画像に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、前記イベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を示す抽出範囲情報を決定する抽出範囲決定手段と、前記抽出範囲情報に基づき、前記比較対象の画像の抽出範囲を前記操作画面上に表示する抽出範囲表示手段と、前記イベント情報が前記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値と前記抽出範囲情報とをもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し記憶する画像取得手段と、前記記憶したイベント情報及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段とを備えたシナリオ生成装置である。   The first aspect of the present invention describes a procedure for generating an operation event for a comparison target image including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. A scenario generation device for generating an operation scenario, wherein event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen, and when the event information is an instruction of an extraction range including position coordinates, Based on the event information, extraction range determining means for determining extraction range information indicating a range from which the comparison target image is extracted; and based on the extraction range information, the extraction range of the comparison target image is displayed on the operation screen. When the extraction range display means to display and the event information is a recording instruction following the extraction range instruction, the operation screen is displayed based on the event information. Image acquisition means for extracting and storing the image information to be compared from the image information of the entire image based on the coordinate value of the image information of the entire image and the extraction range information, the stored event information, and the A scenario generation apparatus comprising scenario generation means for generating the operation scenario based on image information to be compared.

本発明の第2の局面は、操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の一部画像を含む比較対象の画像に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、前記イベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を示す抽出範囲情報を決定する抽出範囲決定手段と、前記イベント情報が前記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値と前記抽出範囲情報とをもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し記憶する画像取得手段と、前記記憶したイベント情報及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段とを備えており、前記画像取得手段としては、前記操作画面上に複数のウィンドウ画面が表示されている場合、前記記録指示に基づき、当該各ウィンドウ画面の範囲及び重なり順序をそれぞれ示すウィンドウ範囲情報及び重なり順序情報を記憶するウィンドウ範囲記憶手段と、前記抽出範囲の指示に含まれる位置座標と、前記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応するウィンドウ範囲情報を選択するウィンドウ選択手段と、前記ウィンドウ選択手段により選択したウィンドウ範囲情報と、前記抽出範囲情報との共通範囲を示す共通範囲情報を抽出する共通範囲抽出手段と、前記抽出範囲情報の値を前記共通範囲情報の値に変更する抽出範囲変更手段と、前記変更された値の抽出範囲情報に基づいて、前記比較対象の画像情報を抽出し記憶する画像抽出記憶手段と、を備えたシナリオ生成装置である。   The second aspect of the present invention describes a procedure for generating an operation event for a comparison target image including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. A scenario generation device for generating an operation scenario, wherein event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen, and when the event information is an instruction of an extraction range including position coordinates, Based on the event information, extraction range determining means for determining extraction range information indicating a range for extracting the comparison target image; and when the event information is a recording instruction following the extraction range instruction, Then, based on the coordinate value of the image information of the whole image on the operation screen and the extraction range information, the image information of the whole image is compared with the comparison target. Image acquisition means for extracting and storing image information, and scenario generation means for generating the operation scenario based on the stored event information and the image information to be compared, and as the image acquisition means, When a plurality of window screens are displayed on the operation screen, based on the recording instruction, window range storage means for storing window range information and overlap order information indicating the range of each window screen and the overlap order, respectively, Based on the position coordinates included in the instruction of the extraction range, the window range information, and the overlapping order information, window range information corresponding to the overlapping order information indicating the highest position among the window range information including the position coordinates is obtained. Window selection means to be selected and window range information selected by the window selection means , Common range extraction means for extracting common range information indicating a common range with the extraction range information, extraction range change means for changing the value of the extraction range information to the value of the common range information, and the changed value And an image extraction storage means for extracting and storing the image information to be compared based on the extracted range information.

本発明の第3の局面は、操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の一部画像を含む比較対象の画像に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、あるステップ番号に対し、前記操作画面上の操作に伴い発生するイベント情報、前記操作画面上の全体画像の画像情報、及び前記操作画面から抽出された比較対象の画像情報、を互いに関連付けてなる前記操作シナリオを記憶する記憶手段と、前記記憶手段内の操作シナリオから、あるステップ番号に対して全体画像の画像情報及び比較対象の画像情報をそれぞれ抽出する画像抽出手段と、前記画像抽出手段により抽出された全体画像の画像情報の中で、前記画像抽出手段により抽出された比較対象の画像情報を一意に決定できるか否かを判定する判定手段と、前記判定の結果、否の場合、当該否であることを表示する結果表示手段と、を備えたシナリオ生成装置である。   The third aspect of the present invention describes a procedure for generating an operation event for a comparison target image including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. A scenario generation device for generating an operation scenario, which is extracted from event information generated by an operation on the operation screen, image information of an entire image on the operation screen, and the operation screen for a certain step number The storage means for storing the operation scenario in which the comparison target image information is associated with each other, and the image information of the entire image and the comparison target image information for each step number are extracted from the operation scenario in the storage means, respectively. Image extracting means, and a ratio extracted by the image extracting means in the image information of the whole image extracted by the image extracting means. Determination means for determining whether the image information of the object can be uniquely determined, the result of the determination, if not, a scenario generation device including a result display means for displaying that the relevant negative, the.

なお、本発明の各局面は、装置として表現したが、これに限らず、プログラム、プログラムを記憶したコンピュータ読み取り可能な記憶媒体、又は方法、として表現することができる。   Each aspect of the present invention is expressed as an apparatus, but is not limited thereto, and can be expressed as a program, a computer-readable storage medium storing the program, or a method.

(作用)
第1の局面によれば、比較対象の画像の抽出範囲を操作画面上に表示する構成により、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。
(Function)
According to the first aspect, with the configuration in which the extraction range of the comparison target image is displayed on the operation screen, it is possible to prevent the designation of an image that causes an error during scenario execution, and to improve the efficiency of scenario correction.

第2の局面によれば、抽出範囲の指示に含まれる位置座標を含む最上位のウィンドウ範囲情報と抽出範囲情報との共通範囲に基づいて、比較対象の画像を抽出する構成により、指示した位置座標を含まない背景のウィンドウ画面が比較対象の画像の一部として抽出されなくなるので、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。   According to the second aspect, the position indicated by the configuration for extracting the image to be compared based on the common range of the top-level window range information including the position coordinates included in the extraction range instruction and the extraction range information. Since a background window screen that does not include coordinates is no longer extracted as part of the image to be compared, it is possible to prevent the designation of an image that causes an error during scenario execution, and to improve the efficiency of scenario correction.

第3の局面によれば、抽出された比較対象の画像情報を一意に決定できるか否かを判定し、否の場合、否であることを表示する構成により、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。   According to the third aspect, it is determined whether or not the extracted image information to be compared can be uniquely determined. Specification can be prevented and the work efficiency of scenario correction can be improved.

以上説明したように本発明によれば、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。   As described above, according to the present invention, it is possible to prevent the designation of an image that causes an error during scenario execution, and to improve the work efficiency of scenario correction.

以下、本発明の各実施形態について図面を用いて説明する。なお、以下の各装置は、装置毎に、ハードウェア構成、又はハードウェア資源とソフトウェアとの組合せ構成のいずれでも実施可能となっている。組合せ構成のソフトウェアとしては、予めネットワーク又は記憶媒体から対応する装置のコンピュータにインストールされ、対応する装置の機能を実現させるためのプログラムが用いられる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each of the following devices can be implemented for each device with either a hardware configuration or a combination configuration of hardware resources and software. As the software of the combined configuration, a program that is installed in advance on a computer of a corresponding device from a network or a storage medium and that realizes the function of the corresponding device is used.

(第1の実施形態)
先ず図1乃至図11を参照して本発明の第1の実施形態を説明する。
図1は、負荷試験を行うシステム全体の構成を示すブロック図であり、負荷を発生するクライアント側の複数の情報端末(PC)1,1,…と、負荷試験の対象となるサーバ2とにより構成される。クライアント側の複数の情報端末(PC)1,1,…には、それぞれサーバ2に対して処理要求を行う負荷発生システム10及びクライアントアプリケーション実行部20を単位負荷発生源とする負荷発生手段が設けられる。
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram showing the configuration of the entire system for performing a load test, and includes a plurality of information terminals (PCs) 1, 1,... On the client side that generate a load and a server 2 to be subjected to the load test. Composed. A plurality of information terminals (PCs) 1, 1,... On the client side are provided with a load generation unit that uses the load generation system 10 and the client application execution unit 20 that make processing requests to the server 2 as unit load generation sources. It is done.

負荷試験においては、クライアント側の複数の情報端末(PC)1,1,…に設けられた負荷発生手段から、サーバ2に対し、多量の処理要求を加えることによって、サーバ2の負荷時におけるリソース(CPU等)利用率や、処理要求に対するレスポンスタイム等を測定する。   In the load test, by adding a large amount of processing requests to the server 2 from the load generating means provided in the plurality of information terminals (PCs) 1, 1,. (CPU etc.) Measure the utilization rate, response time for processing requests, etc.

上記図1に示す負荷発生システム10の構成を図2に示す。
負荷発生システム10は、メモリ内のクライアントアプリケーションプログラムをCPUが実行してなるクライアントアプリケーション実行部20に対して、人間が操作するのと同等に、マウスイベントやキーボードイベントを発生させることによって、画面操作を行う。クライアントアプリケーションプログラムはGUI(Graphical User Interface)による画面操作を伴うものである。クライアントアプリケーション実行部20は、負荷発生システム10からの画面操作に応じて、サーバ2に処理要求を発行する。
The configuration of the load generation system 10 shown in FIG. 1 is shown in FIG.
The load generation system 10 generates a mouse event or a keyboard event to a client application execution unit 20 in which a CPU executes a client application program in a memory. I do. The client application program is accompanied by a screen operation using a GUI (Graphical User Interface). The client application execution unit 20 issues a processing request to the server 2 in response to a screen operation from the load generation system 10.

負荷発生システム10は、図2に示すように、制御部11と、画面遷移判定部12と、比較対象特定部13と、操作イベント発生部14と、画像情報取得部15とを備えている。   As illustrated in FIG. 2, the load generation system 10 includes a control unit 11, a screen transition determination unit 12, a comparison target identification unit 13, an operation event generation unit 14, and an image information acquisition unit 15.

図2に示す負荷発生システム10において、制御部11は、操作実行制御部111と、シナリオ記憶部112とを備えている。   In the load generation system 10 illustrated in FIG. 2, the control unit 11 includes an operation execution control unit 111 and a scenario storage unit 112.

制御部11に設けられた操作実行制御部111は、シナリオ記憶部112内の操作シナリオの記述内容に従い、画面遷移判定部12、比較対象特定部13、及び操作イベント発生部14を制御する。シナリオ記憶部112は、画面上の操作により負荷発生システム10に実行させる一連の画面操作の内容を定義した操作シナリオを記憶するものである。   The operation execution control unit 111 provided in the control unit 11 controls the screen transition determination unit 12, the comparison target specifying unit 13, and the operation event generation unit 14 according to the description contents of the operation scenario in the scenario storage unit 112. The scenario storage unit 112 stores an operation scenario that defines the contents of a series of screen operations to be executed by the load generation system 10 by operations on the screen.

制御部11に設けられた操作実行制御部111は、画面遷移判定部12に対して画面遷移判定要求213を発行し、画面遷移判定部12から画面遷移判定応答221を受け付ける機能と、比較対象特定部13に対して比較対象特定要求211を発行し、比較対象特定部13から比較対象特定応答222を受け付ける機能と、操作イベント発生部14に対してイベント発生要求212を発行し、操作イベント発生部14からイベント発生応答223を受け付ける機能を備えている。   The operation execution control unit 111 provided in the control unit 11 issues a screen transition determination request 213 to the screen transition determination unit 12, receives a screen transition determination response 221 from the screen transition determination unit 12, and specifies a comparison target. A function for accepting a comparison target identification response 222 from the comparison target identification unit 13 and an event generation request 212 for the operation event generation unit 14. 14 is provided with a function of accepting an event occurrence response 223 from 14.

画面遷移判定部12は、操作実行制御部111から受けた画面遷移判定要求213に従い画像情報取得部15に対して画面情報取得要求215を発行し、画像情報取得部15から画像情報取得応答225を受け付けて、画面遷移判定応答221を操作実行制御部111に送出する機能を備えている。   The screen transition determination unit 12 issues a screen information acquisition request 215 to the image information acquisition unit 15 in accordance with the screen transition determination request 213 received from the operation execution control unit 111, and sends an image information acquisition response 225 from the image information acquisition unit 15. It has a function of accepting and sending a screen transition determination response 221 to the operation execution control unit 111.

比較対象特定部13は、操作実行制御部111から受けた比較対象特定要求211に従い画像情報取得部15に対して画面情報取得要求216を発行し、画像情報取得部15から画像情報取得応答226を受け付けて、比較対象特定応答222を操作実行制御部111に送出する機能を備えている。   The comparison target specifying unit 13 issues a screen information acquisition request 216 to the image information acquisition unit 15 in accordance with the comparison target specification request 211 received from the operation execution control unit 111, and sends an image information acquisition response 226 from the image information acquisition unit 15. It has a function of accepting and sending the comparison target specifying response 222 to the operation execution control unit 111.

操作イベント発生部14は、操作実行制御部111から受けたイベント発生要求212に従いクライアントアプリケーション実行部20に対してイベント201を発行し、イベント発生応答223を操作実行制御部111に送出する機能を備えている。クライアントアプリケーション実行部20は操作イベント発生部14から受けたイベント201に従う処理要求202をサーバ2に送出する。   The operation event generation unit 14 has a function of issuing an event 201 to the client application execution unit 20 in accordance with an event generation request 212 received from the operation execution control unit 111 and sending an event generation response 223 to the operation execution control unit 111. ing. The client application execution unit 20 sends a processing request 202 according to the event 201 received from the operation event generation unit 14 to the server 2.

画像情報取得部15は、画面遷移判定部12から受けた画面情報取得要求215に従いクライアントアプリケーション実行部20から画像情報203を取得し、画像情報取得応答225を画面遷移判定部12に送出する機能と、比較対象特定部13から受けた画面情報取得要求216に従いクライアントアプリケーション実行部20から画像情報203を取得し、画像情報取得応答226を比較対象特定部13に送出する機能とを備えている。   The image information acquisition unit 15 acquires the image information 203 from the client application execution unit 20 in accordance with the screen information acquisition request 215 received from the screen transition determination unit 12, and sends the image information acquisition response 225 to the screen transition determination unit 12. And a function of acquiring image information 203 from the client application execution unit 20 in accordance with the screen information acquisition request 216 received from the comparison target specifying unit 13 and sending an image information acquisition response 226 to the comparison target specifying unit 13.

なお、比較対象特定要求211、画面遷移判定要求213、画像情報取得応答225,226には、それぞれクライアントアプリケーション実行部20の操作画面に含まれるビットマップイメージ(拡張子bmpのファイル)の画像情報が付随する。ただし、ビットマップイメージには限定されず、他の形式のイメージファイルであっても構わない。   The comparison target specifying request 211, the screen transition determination request 213, and the image information acquisition responses 225 and 226 each include image information of a bitmap image (file with extension bmp) included in the operation screen of the client application execution unit 20. Accompanying. However, the image file is not limited to a bitmap image, and may be an image file of another format.

上記図2に示す比較対象特定部13の構成を図3に示す。   The configuration of the comparison target specifying unit 13 shown in FIG. 2 is shown in FIG.

比較対象特定部13は、図3に示すように、比較対象特定制御部131と、画像比較部133とを備えている。   As illustrated in FIG. 3, the comparison target specifying unit 13 includes a comparison target specifying control unit 131 and an image comparison unit 133.

比較対象特定制御部131は、操作実行制御部111から受けた比較対象特定要求211に従い、当該要求211に付随するビットマップイメージの画像情報を画像比較部133に送出するとともに、画面情報取得要求216を画像情報取得部15に送出して、画像情報取得部15から画像情報取得応答226に付随するビットマップイメージの画像情報を取得し、上記各画像情報を画像比較部133に供給する処理機能を実現する。   In accordance with the comparison target specification request 211 received from the operation execution control unit 111, the comparison target specification control unit 131 sends the image information of the bitmap image associated with the request 211 to the image comparison unit 133 and the screen information acquisition request 216. Is sent to the image information acquisition unit 15 to acquire image information of a bitmap image accompanying the image information acquisition response 226 from the image information acquisition unit 15 and supply the image information to the image comparison unit 133. Realize.

画像比較部133は、クライアントアプリケーション実行部20の操作画面の画面情報の中から、上記比較対象特定要求211が指定したビットマップイメージと合致する部分を探索する。探索の結果、合致する部分が見つかった場合には、比較対象特定制御部131に探索結果通知を送出する。探索結果通知には、画面情報内での上記ビットマップイメージと合致した部分の座標情報を含む。なお、ここで言う「合致」は、ビットマップイメージを構成する全てのピクセルが完全に一致することであってもよいし、完全ではないが指定された基準以上に一致することであってもよい。例えば、予め指定された値以上の割合で、ピクセルの色の情報が一致していることを条件に「合致」を定義してもよい。   The image comparison unit 133 searches the screen information on the operation screen of the client application execution unit 20 for a portion that matches the bitmap image specified by the comparison target specification request 211. If a matching part is found as a result of the search, a search result notification is sent to the comparison target specifying control unit 131. The search result notification includes the coordinate information of the portion that matches the bitmap image in the screen information. Note that the term “match” as used herein may mean that all the pixels constituting the bitmap image are completely matched, or may be matched not less than a specified standard, though not completely. . For example, “match” may be defined on the condition that the pixel color information matches at a rate equal to or greater than a predetermined value.

ここで、クライアントアプリケーション実行部20に於ける操作画面の具体例を挙げて、上記負荷発生システム10の動作について、図4乃至図11を参照して説明する。ここでは、クライアントアプリケーション実行部20が扱うアプリケーション操作ウィンドウとして、図4に示すスケジュール表示画面を例に動作を説明する。   Here, the operation of the load generation system 10 will be described with reference to FIGS. 4 to 11 by giving a specific example of the operation screen in the client application execution unit 20. Here, the operation will be described taking the schedule display screen shown in FIG. 4 as an example of the application operation window handled by the client application execution unit 20.

負荷発生システム10の制御部11に設けられた操作実行制御部111は、シナリオ記憶部112内の操作シナリオの定義内容に従い、負荷発生システム10内部に設けられた画面遷移判定部12、比較対象特定部13、操作イベント発生部14、及び画像情報取得部15等の各構成要素を制御する。   The operation execution control unit 111 provided in the control unit 11 of the load generation system 10 includes a screen transition determination unit 12 provided in the load generation system 10 and a comparison target specification according to the definition of the operation scenario in the scenario storage unit 112. Each component such as the unit 13, the operation event generation unit 14, and the image information acquisition unit 15 is controlled.

制御部11の下で操作実行制御部111は、シナリオ記憶部112内の操作シナリオに記述(定義)されている内容に従い、比較対象特定部13に対して比較対象特定要求211を送出し、操作イベント発生部14に対してイベント発生要求212を送出し、画面遷移判定部12に対して画面遷移判定要求213を送出する。   Under the control unit 11, the operation execution control unit 111 sends a comparison target specifying request 211 to the comparison target specifying unit 13 according to the contents described (defined) in the operation scenario in the scenario storage unit 112. An event generation request 212 is sent to the event generation unit 14, and a screen transition determination request 213 is sent to the screen transition determination unit 12.

画面遷移判定部12及び比較対象特定部13はそれぞれ操作実行制御部111の制御の下に画像情報取得部15に画面情報取得要求215,216を送出する。すなわち画面遷移判定部12は、操作実行制御部111から画面遷移判定要求213を受けると、画像情報取得部15に対して画面情報取得要求215を送出する。比較対象特定部13は、操作実行制御部111から比較対象特定要求211を受けると、画像情報取得部15に対して画面情報取得要求216を送出する。   The screen transition determination unit 12 and the comparison target identification unit 13 send screen information acquisition requests 215 and 216 to the image information acquisition unit 15 under the control of the operation execution control unit 111, respectively. That is, when the screen transition determination unit 12 receives the screen transition determination request 213 from the operation execution control unit 111, the screen transition determination unit 12 sends a screen information acquisition request 215 to the image information acquisition unit 15. When receiving the comparison target specification request 211 from the operation execution control unit 111, the comparison target specifying unit 13 sends a screen information acquisition request 216 to the image information acquisition unit 15.

画像情報取得部15は画面遷移判定部12から画面情報取得要求215を受けると、オペレーティングシステム(OS)実行部40を介してクライアントアプリケーション実行部20が画面に表示している画像情報203を取得し、取得した画像を含む画像情報取得応答225を画面遷移判定部12に送出する。同様に比較対象特定部13から画面情報取得要求216を受けると、クライアントアプリケーション実行部20が画面に表示している画像情報203を取得し、取得した画像を含む画像情報取得応答226を比較対象特定部13に送出する。   Upon receiving the screen information acquisition request 215 from the screen transition determination unit 12, the image information acquisition unit 15 acquires the image information 203 displayed on the screen by the client application execution unit 20 via the operating system (OS) execution unit 40. The image information acquisition response 225 including the acquired image is sent to the screen transition determination unit 12. Similarly, when the screen information acquisition request 216 is received from the comparison target specifying unit 13, the client application execution unit 20 acquires the image information 203 displayed on the screen, and the image information acquisition response 226 including the acquired image is specified as the comparison target. Send to unit 13.

この際のクライアントアプリケーション実行部20が画面に表示している画像情報(アプリケーション操作ウィンドウ)203の具体例を図4に示している。ここでは、スケジュール管理システムに於けるスケジュール表示画面21を例に示している。以降の動作説明においては、この図4に示すスケジュール表示画面21の画像情報が画像情報取得部15により画像情報203として取得され、当該スケジュール表示画面21の画像情報が画面遷移判定部12、及び比較対象特定部13に送出されるものとする。   A specific example of the image information (application operation window) 203 displayed on the screen by the client application execution unit 20 at this time is shown in FIG. Here, a schedule display screen 21 in the schedule management system is shown as an example. In the subsequent operation description, the image information on the schedule display screen 21 shown in FIG. 4 is acquired as the image information 203 by the image information acquisition unit 15, and the image information on the schedule display screen 21 is the screen transition determination unit 12 and the comparison. It is assumed that it is sent to the target specifying unit 13.

図4に示すスケジュール表示画面21において、ボタン「旅費清算システム」をクリックすると、図5に示す旅費清算システムの画面22に遷移する。さらに、この旅費清算システムの画面22上で、「一括請求」ボタンをクリックすると、さらに次の画面に遷移する。   When the button “travel expense clearing system” is clicked on the schedule display screen 21 shown in FIG. 4, a transition is made to the travel expense clearing system screen 22 shown in FIG. 5. Further, when the “collective billing” button is clicked on the screen 22 of this travel expense clearing system, the screen further transitions to the next screen.

この一連の画面遷移に応じた操作を負荷発生システム10によって実現する手順を以下に説明する。   A procedure for realizing the operation corresponding to the series of screen transitions by the load generation system 10 will be described below.

上記図4に示すスケジュール表示画面21の座標軸を図6に示している。ここでは、XGA(1024×768ピクセル)のアプリケーション操作ウィンドウを例に示している。   The coordinate axes of the schedule display screen 21 shown in FIG. 4 are shown in FIG. Here, an XGA (1024 × 768 pixels) application operation window is shown as an example.

上記シナリオ記憶部112内の操作シナリオの一部記述例を図7に示している。この操作シナリオは、図7に示すように、操作ステップと、画面識別情報(画面ID)と、ビットマップイメージの画面遷移判定画像及び比較対象画像と、判定/操作内容と、数値情報とを設定項目(定義項目)として構成される。   A partial description example of the operation scenario in the scenario storage unit 112 is shown in FIG. In this operation scenario, as shown in FIG. 7, an operation step, screen identification information (screen ID), a screen transition determination image of a bitmap image, a comparison target image, determination / operation contents, and numerical information are set. Configured as an item (definition item).

クライアントアプリケーション実行部20は、画面遷移の中で、図4に示すスケジュール表示画面21を表示しようとしている状態とする。   The client application execution unit 20 is in a state of displaying the schedule display screen 21 shown in FIG. 4 during the screen transition.

操作実行制御部111は、シナリオ記憶部112内の操作シナリオのステップ20を読み取る。このステップ20には、[判定/操作内容]として「画面遷移判定」が設定(定義)されている。従って、次に行うことは、画面遷移の判定であることが決定される。また、[画面遷移判定画像]として、ファイル名「1.bmp」が設定されている。その内容(ビットマップイメージ)を図8に示している。操作実行制御部111は、この図8に示す画面遷移判定画像の情報(ビットマップイメージ)を含む画面遷移判定要求213を画面遷移判定部12に送出する。   The operation execution control unit 111 reads step 20 of the operation scenario in the scenario storage unit 112. In this step 20, “screen transition determination” is set (defined) as [determination / operation content]. Accordingly, it is determined that the next operation is to determine screen transition. Further, the file name “1.bmp” is set as the [screen transition determination image]. The contents (bitmap image) are shown in FIG. The operation execution control unit 111 sends a screen transition determination request 213 including information (bitmap image) of the screen transition determination image shown in FIG. 8 to the screen transition determination unit 12.

画面遷移判定部12は、操作実行制御部111から画面遷移判定要求213を受けると、画像情報取得部15に対して画面情報取得要求215を送出する。   Upon receiving the screen transition determination request 213 from the operation execution control unit 111, the screen transition determination unit 12 sends a screen information acquisition request 215 to the image information acquisition unit 15.

画像情報取得部15は、画面遷移判定部12から画面情報取得要求215を受けると、クライアントアプリケーション実行部20が表示している画像情報(ビットマップイメージ)203を取得し、当該画像情報203を含む画像情報取得応答225を画面遷移判定部12に送出する。   Upon receiving the screen information acquisition request 215 from the screen transition determination unit 12, the image information acquisition unit 15 acquires the image information (bitmap image) 203 displayed by the client application execution unit 20 and includes the image information 203. An image information acquisition response 225 is sent to the screen transition determination unit 12.

画面遷移判定部12は、画像情報取得部15を介してクライアントアプリケーション実行部20から取得した画像情報203の中に、「1.bmp」の画像と合致する部分があるか否かを検査する。この際の「1.bmp」の内容(ビットマップイメージ)は上記した図8に示す画面遷移判定画像の情報(ビットマップイメージ)である。   The screen transition determination unit 12 checks whether or not there is a portion that matches the “1.bmp” image in the image information 203 acquired from the client application execution unit 20 via the image information acquisition unit 15. The contents (bitmap image) of “1.bmp” at this time are information (bitmap image) of the screen transition determination image shown in FIG.

なお、この検査において、例えば画面遷移が完了していないために、合致する部分が存在しなかった場合、画面遷移判定部12は、画像情報取得部15に対して、画面情報取得要求215を送出する動作から、上記同様の処理を適当な頻度で繰り返し実行する。   In this examination, for example, if the matching part does not exist because the screen transition is not completed, the screen transition determination unit 12 sends the screen information acquisition request 215 to the image information acquisition unit 15. Therefore, the same processing as described above is repeatedly executed at an appropriate frequency.

画面遷移が完了し、合致する部分が見つかった場合、画面遷移判定部12は、操作実行制御部111に対して画面遷移判定応答221を送出する。   When the screen transition is completed and a matching part is found, the screen transition determination unit 12 sends a screen transition determination response 221 to the operation execution control unit 111.

操作実行制御部111は、シナリオ記憶部112内の操作シナリオの次のステップであるステップ21を読み取る。このステップ21には、[判定/操作内容]として「クリック」が設定されている。従って、次に行うことは、クリックであることが決定される。また、[比較対象画像]としてファイル名「2.bmp」が設定されている。この「2.bmp」のビットマップイメージを図9に示す。   The operation execution control unit 111 reads step 21 which is the next step of the operation scenario in the scenario storage unit 112. In this step 21, “click” is set as [determination / operation content]. Thus, the next thing to do is determined to be a click. In addition, the file name “2.bmp” is set as the “comparison target image”. The bitmap image of “2.bmp” is shown in FIG.

操作実行制御部111は、シナリオ記憶部112内の操作シナリオの内容に従い、比較対象特定部13に対して比較対象特定要求211を送出する。この比較対象特定要求211には、上記した図9に示す比較対象画像(ビットマップイメージ)が付随している。   The operation execution control unit 111 sends a comparison target specifying request 211 to the comparison target specifying unit 13 according to the contents of the operation scenario in the scenario storage unit 112. This comparison target specifying request 211 is accompanied by the comparison target image (bitmap image) shown in FIG.

比較対象特定部13において、比較対象特定制御部131は、操作実行制御部111から比較対象特定要求211を受けると、画像情報取得部15に画面情報取得要求216を送出する。   In the comparison target specifying unit 13, when receiving the comparison target specifying request 211 from the operation execution control unit 111, the comparison target specifying control unit 131 sends a screen information acquisition request 216 to the image information acquisition unit 15.

画像情報取得部15は、比較対象特定部13に設けられた比較対象特定制御部131から画面情報取得要求216を受けると、クライアントアプリケーション実行部20が表示している画像情報203を取得し、当該取得した画像情報203を比較対象特定部13に設けられた画像比較部133に送出する。今回のケースでは、画像情報203として図4に示すスケジュール表示画面21が画像比較部133に送出される。   When receiving the screen information acquisition request 216 from the comparison target specifying control unit 131 provided in the comparison target specifying unit 13, the image information acquiring unit 15 acquires the image information 203 displayed by the client application executing unit 20, The acquired image information 203 is sent to the image comparison unit 133 provided in the comparison target specifying unit 13. In this case, the schedule display screen 21 shown in FIG. 4 is sent to the image comparison unit 133 as the image information 203.

画像比較部133は、画像情報取得部15を介してクライアントアプリケーション実行部20から取得した画像情報203の中から、比較対象画像としてファイル名「2.bmp」で表される画像(ビットマップイメージ)112と一致する部分を検索する。   The image comparison unit 133 is an image (bitmap image) represented by the file name “2.bmp” as a comparison target image from the image information 203 acquired from the client application execution unit 20 via the image information acquisition unit 15. The part that matches 112 is searched.

画像比較部133は、上記検索の結果として、[中心X座標]、[中心Y座標]を比較対象特定制御部131に応答し、比較対象特定制御部131は、操作実行制御部111に、比較対象特定応答222を送付する。   As a result of the search, the image comparison unit 133 responds with [center X coordinate] and [center Y coordinate] to the comparison target specifying control unit 131, and the comparison target specifying control unit 131 compares the operation execution control unit 111 with the comparison. A target identification response 222 is sent.

操作実行制御部111は、比較対象特定制御部131から受けた比較対象特定応答222に付随した比較対象の中心X座標、中心Y座標の情報と、操作/判定内容として「クリック」の情報をイベント発生要求212に付随させ、当該イベント発生要求212を操作イベント発生部14に送出する。   The operation execution control unit 111 uses the comparison target identification response 222 received from the comparison target identification control unit 131 as information on the comparison target center X coordinate and center Y coordinate, and information on “click” as the operation / determination content. In association with the generation request 212, the event generation request 212 is sent to the operation event generation unit 14.

操作イベント発生部14は、操作実行制御部111から受けたイベント発生要求212に従い、比較対象の中心X座標、中心Y座標にマウスが移動したのと同等のイベント201を発生する。さらに、マウスクリックのイベント201を発生する。その後、イベント発生応答223を操作実行制御部111に送出する。   In accordance with the event generation request 212 received from the operation execution control unit 111, the operation event generation unit 14 generates an event 201 equivalent to the movement of the mouse to the center X coordinate and the center Y coordinate to be compared. Further, a mouse click event 201 is generated. Thereafter, an event occurrence response 223 is sent to the operation execution control unit 111.

このようにして、クライアントアプリケーション実行部20の画面が操作されるような適切な操作イベントを発生させることができる。   In this way, an appropriate operation event can be generated such that the screen of the client application execution unit 20 is operated.

次に、操作実行制御部111は、シナリオ記憶部112内の操作シナリオの次のステップであるステップ22を読み取る。このステップ22には、[判定/操作内容]として「画面遷移判定」が設定されている。   Next, the operation execution control unit 111 reads Step 22, which is the next step of the operation scenario in the scenario storage unit 112. In this step 22, “screen transition determination” is set as [determination / operation content].

ここでは、上記ステップ20で実行したのと同様に、ステップ22の処理が実行される。このステップ22における「3.bmp」の内容(ビットマップイメージ)を図10に符号113を付して示している。   Here, the processing in step 22 is executed in the same manner as in step 20 described above. The contents (bitmap image) of “3.bmp” in step 22 are shown in FIG.

操作実行制御部111は、シナリオ記憶部112内の操作シナリオの次のステップであるステップ23を読み取る。   The operation execution control unit 111 reads step 23 which is the next step of the operation scenario in the scenario storage unit 112.

ここでは、上記ステップ21で実行したのと同様に、ステップ23の処理が実行される。このステップ23における「4.bmp」の内容(ビットマップイメージ)を図11に符号114を付して示している。   Here, the processing in step 23 is executed in the same manner as in step 21 described above. The contents (bitmap image) of “4.bmp” in step 23 are shown in FIG.

このようにしてクライアントアプリケーション実行部20の画面に対して適切な操作イベントを発生させることができる。   In this way, an appropriate operation event can be generated on the screen of the client application execution unit 20.

上記したシナリオ記憶部112内の操作シナリオに従う処理動作によって、負荷発生システム10から、クライアントアプリケーション実行部20に対して、画面遷移に応じ、順次、適正なイベントを発生させることができ、これに伴いクライアントアプリケーション実行部20からサーバ2に処理要求を送出して、サーバ2に所望の負荷をかける負荷試験が可能となる。   By the processing operation according to the operation scenario in the scenario storage unit 112 described above, the load generation system 10 can cause the client application execution unit 20 to generate appropriate events sequentially in accordance with the screen transition. A load test for applying a desired load to the server 2 by sending a processing request from the client application execution unit 20 to the server 2 becomes possible.

(第2の実施形態)
次に図12乃至図16を参照して本発明の第2の実施形態を説明する。この第2の実施形態は、画面遷移を伴うアプリケーションプログラムを対象に、上記第1の実施形態で用いた操作シナリオを作成するシステムを実現している。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS. The second embodiment realizes a system for creating an operation scenario used in the first embodiment for an application program with screen transition.

本発明の第2の実施形態は、操作画面の表示を伴うアプリケーションプログラムを対象に、上記操作画面内の操作対象の一部画像を含む比較対象に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成システムであって、上記操作画面上の操作に伴い発生するイベントを採取し記録するイベント取得手段と、上記操作画面の全体画像、及び上記操作画面上における指定部位の抽出画像を採取し記録する画像取得手段と、上記イベント取得手段が取得したイベント、及び上記画像取得手段が取得した画像をもとに上記操作シナリオを生成するシナリオ生成手段とを具備して構成される。上記イベント取得手段は、後述する図13に示すイベント検出部308、イベント記録部309及びイベントログ記憶部306により実現される。上記画像取得手段は、後述する図13に示す画面画像記録指示部311及び画面画像記録部310と、画面画像記録部310が記録した画面全体画像情報と、比較対象範囲抽出部303とにより実現される。上記シナリオ生成手段は、後述する図13に示すシナリオ生成部302により実現される。   In the second embodiment of the present invention, an operation describing a procedure for generating an operation event for a comparison target including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. A scenario generation system for generating a scenario, wherein an event acquisition unit that collects and records an event that occurs in response to an operation on the operation screen, an entire image of the operation screen, and an extracted image of a specified part on the operation screen Image acquisition means that collects and records the event, and a scenario generation means that generates the operation scenario based on the event acquired by the event acquisition means and the image acquired by the image acquisition means. The event acquisition means is realized by an event detection unit 308, an event recording unit 309, and an event log storage unit 306 shown in FIG. The image acquisition means is realized by a screen image recording instruction unit 311 and a screen image recording unit 310 shown in FIG. 13 to be described later, the entire screen image information recorded by the screen image recording unit 310, and a comparison target range extracting unit 303. The The scenario generation means is realized by a scenario generation unit 302 shown in FIG.

本発明の第2、第3、第4の実施形態に係るシナリオを作成するシステム全体の構成を図12に示す。この図12に示すシステムは、シナリオ生成システム30を主構成要素として実現される。シナリオ生成システム30は、サーバ2に処理要求を送出するクライアントアプリケーション実行部20に対して、操作者3の操作指示に伴い、オペレーティングシステム(OS)実行部40を介して発生する各種の操作イベントをクライアントアプリケーション実行部20の画像情報とともに取り込み、操作シナリオを作成してシナリオ記憶部112に記録する機能を実現している。   FIG. 12 shows the configuration of the entire system for creating scenarios according to the second, third, and fourth embodiments of the present invention. The system shown in FIG. 12 is realized with the scenario generation system 30 as a main component. The scenario generation system 30 sends various operation events generated via the operating system (OS) execution unit 40 to the client application execution unit 20 that sends a processing request to the server 2 in response to an operation instruction from the operator 3. A function of creating an operation scenario and recording it in the scenario storage unit 112 is realized along with the image information of the client application execution unit 20.

このシナリオ生成システム30の構成を図13に示す。
図13に示すシナリオ生成システム30は、シナリオ生成部302、比較対象範囲抽出部303、イベント検出部308、イベント記録部309、画面画像記録部310、画面画像記録指示部311等を有して構成される。
The configuration of this scenario generation system 30 is shown in FIG.
The scenario generation system 30 illustrated in FIG. 13 includes a scenario generation unit 302, a comparison target range extraction unit 303, an event detection unit 308, an event recording unit 309, a screen image recording unit 310, a screen image recording instruction unit 311, and the like. Is done.

画面画像記録指示部311は、クライアントアプリケーション実行部20が画面に表示している画像を取り込む際に操作者3によって操作されるもので、例えばキーボード上の「PrintScreen」キー等により実現される。   The screen image recording instruction unit 311 is operated by the operator 3 when the client application execution unit 20 captures an image displayed on the screen, and is realized by, for example, a “PrintScreen” key on the keyboard.

画面画像記録部310は、画面画像記録指示部311の操作に従い、クライアントアプリケーション実行部20が画面に表示している画像情報(画面全体画像情報)を取り込み、画面全体画像情報記憶部307に記録する。例えば図4に示すスケジュール表示画面21の全画像(ビットマップイメージ)を画面全体画像情報として所定の記録領域(画面全体画像情報記憶部307)に記録する。なお、ここで言う「画面全体画像」は、あくまで操作対象範囲にある全体画像であって、マウス操作が行われるであろう位置が含まれる操作対象範囲内の画像であればよく、例えばアクティブになっているウィンドウの画像である場合も含む。   The screen image recording unit 310 captures the image information (entire screen image information) displayed on the screen by the client application execution unit 20 in accordance with the operation of the screen image recording instruction unit 311, and records it in the entire screen image information storage unit 307. . For example, all the images (bitmap images) on the schedule display screen 21 shown in FIG. 4 are recorded in a predetermined recording area (the entire screen image information storage unit 307) as entire screen image information. The “entire screen image” referred to here is an entire image within the operation target range, and may be an image within the operation target range including the position where the mouse operation will be performed. It includes the case of the image of the window that is.

イベント検出部308は、操作者3によるマウスのクリック操作、キー操作等、各種の操作指示に伴い、オペレーティングシステム(OS)実行部40を介して発生する操作イベントの情報を検出する。このイベント情報には、操作者3が操作する操作画面上における操作の位置を示す座標情報が含まれる。   The event detection unit 308 detects operation event information generated through the operating system (OS) execution unit 40 in accordance with various operation instructions such as mouse click operation and key operation by the operator 3. This event information includes coordinate information indicating the position of the operation on the operation screen operated by the operator 3.

イベント記録部309は、イベント検出部308が検出したマウスのクリック操作、キー操作等により発生する各種のイベント情報をイベントログとしてイベントログ記憶部306に記録する。   The event recording unit 309 records various event information generated by the mouse click operation, key operation, and the like detected by the event detection unit 308 in the event log storage unit 306 as an event log.

比較対象範囲抽出部303は、画面全体画像情報記憶部307内の画面全体画像情報からイベントログ記憶部306内のイベントログに従う比較対象範囲の画像情報(ビットマップイメージ)を比較対象画像情報として抽出し、比較対象画像情報記憶部301に記録する。   The comparison target range extraction unit 303 extracts image information (bitmap image) of the comparison target range according to the event log in the event log storage unit 306 from the entire screen image information in the entire screen image information storage unit 307 as comparison target image information. And recorded in the comparison target image information storage unit 301.

シナリオ生成部302は、比較対象画像情報記憶部301内の比較対象画像情報と、イベントログ記憶部306内のイベントログとをもとに操作シナリオを生成する。ここでは、クライアントアプリケーション実行部20を操作対象とした操作シナリオを作成してシナリオ記憶部112に記録する。   The scenario generation unit 302 generates an operation scenario based on the comparison target image information in the comparison target image information storage unit 301 and the event log in the event log storage unit 306. Here, an operation scenario with the client application execution unit 20 as an operation target is created and recorded in the scenario storage unit 112.

本発明の第2の実施形態におけるシナリオ生成システム30を主構成要素としたシステムの処理手順を図14に示し、当該処理により生成される操作シナリオの内容例を図7に示し、当該操作シナリオに設定された比較対象画像情報の一例を図9乃至図11に示している。また、操作画面上におけるマウスカーソルの操作に伴う比較対象画像の状態遷移の一例を図15及び図16に示している。   FIG. 14 shows a processing procedure of a system having the scenario generation system 30 in the second embodiment of the present invention as a main component, FIG. 7 shows an example of the contents of an operation scenario generated by the processing, An example of the set comparison target image information is shown in FIGS. Moreover, an example of the state transition of the comparison target image accompanying the operation of the mouse cursor on the operation screen is shown in FIGS.

ここで上記図12乃至図16を参照して本発明の第2の実施形態における操作シナリオの作成処理動作を説明する。   Here, the operation scenario creation processing operation in the second embodiment of the present invention will be described with reference to FIGS.

シナリオ作成者となる操作者3は、まず操作対象となるクライアントアプリケーション実行部20を起動する。そして、シナリオ生成システム30の動作を開始させる。   The operator 3 who is a scenario creator first activates the client application execution unit 20 which is an operation target. Then, the operation of the scenario generation system 30 is started.

操作者3は、オペレーティングシステム(OS)実行部40を介し、クライアントアプリケーション実行部20に、マウスの移動、マウスのクリック、キーボード入力等の各種イベントを送出することによって、クライアントアプリケーション実行部20を操作する。   The operator 3 operates the client application execution unit 20 by sending various events such as mouse movement, mouse click, and keyboard input to the client application execution unit 20 via the operating system (OS) execution unit 40. To do.

シナリオ生成システム30は、上記各種イベントの情報や、クライアントアプリケーション実行部20の画像情報をオペレーティングシステム(OS)実行部40から取得することによって、操作シナリオを生成してシナリオ記憶部112に記録する。   The scenario generation system 30 acquires information about the various events and image information of the client application execution unit 20 from the operating system (OS) execution unit 40 to generate an operation scenario and record it in the scenario storage unit 112.

以下に図14に示す処理手順と図7に示す操作シナリオの内容例と図9乃至図11に示す比較対象画像の一例を参照して、図12及び図13に示す本発明の第2の実施形態におけるシナリオ生成システム30を主構成要素としたシステムの具体的な処理動作を説明する。   The second embodiment of the present invention shown in FIGS. 12 and 13 will be described below with reference to the processing procedure shown in FIG. 14, the contents of the operation scenario shown in FIG. 7, and the comparison target images shown in FIGS. A specific processing operation of a system in which the scenario generation system 30 in the embodiment is a main component will be described.

図14に示す処理フローにおいて、ステップS21では、操作者3が、クライアントアプリケーション実行部20の画面に画像から所期の比較対象を認識して、画面画像記録指示部311を操作する。例えば、図4に示されるスケジュール表示画面21が表示され、操作者3が当該スケジュール表示画面21上において、左下の「旅費清算システム」のボタンを発見したとき、キーボード上の「PrintScreen」キー等のボタンを押下する。   In the processing flow shown in FIG. 14, in step S <b> 21, the operator 3 recognizes an intended comparison target from the image on the screen of the client application execution unit 20 and operates the screen image recording instruction unit 311. For example, when the schedule display screen 21 shown in FIG. 4 is displayed and the operator 3 finds a button for the “travel expense clearing system” in the lower left on the schedule display screen 21, the “PrintScreen” key on the keyboard, etc. Press the button.

ステップS22では、画面画像記録指示部311の操作に従い、画面画像記録指示部311が画面画像記録部310に対して画面全体画像情報の記録を指示する。   In step S <b> 22, the screen image recording instruction unit 311 instructs the screen image recording unit 310 to record the entire screen image information in accordance with the operation of the screen image recording instruction unit 311.

ステップS23では、画面画像記録部310が、画面画像記録指示部311からの指示に従い、クライアントアプリケーション実行部20が画面に表示している図4に示すスケジュール表示画面21を画面全体画像情報として所定の記録領域(画面全体画像情報記憶部307)に記録する。   In step S23, the screen image recording unit 310 follows the instruction from the screen image recording instruction unit 311, and the schedule display screen 21 shown in FIG. Recording is performed in a recording area (entire screen image information storage unit 307).

ステップS24では、操作者3が上記スケジュール表示画面21の「旅費清算システム」ボタン上へマウスを移動させ、クリック操作を行う。   In step S24, the operator 3 moves the mouse onto the “travel expense settlement system” button on the schedule display screen 21 and performs a click operation.

ステップS25では、イベント記録部309が、上記マウスのクリック操作をイベントとして検出し、マウスの位置を示す座標情報と、イベントの種別情報(この例ではクリック)を、イベントログとして所定の記録領域(イベント記憶部306)に記録する。   In step S25, the event recording unit 309 detects the click operation of the mouse as an event, and coordinates information indicating the position of the mouse and event type information (click in this example) are used as an event log in a predetermined recording area ( Record in the event storage unit 306).

ステップS26では、比較対象範囲抽出部303が、画面全体画像情報記憶部307内の画面全体画像情報の中から、上記イベントログ記憶部306にイベントログとして記録した座標情報を中心とした、既定の形状とサイズによって決まるエリアに含まれる部分を、マッチング範囲として抽出し、比較対象画像情報として所定の記録領域(比較対象画像情報記憶部301)に記録する。   In step S <b> 26, the comparison target range extraction unit 303 sets a predetermined value centered on coordinate information recorded as an event log in the event log storage unit 306 from the entire screen image information in the entire screen image information storage unit 307. A portion included in an area determined by the shape and size is extracted as a matching range, and is recorded in a predetermined recording area (comparison target image information storage unit 301) as comparison target image information.

ステップS27では、操作者3によるクライアントアプリケーション実行部20の操作が終了したか否かを判断する。操作が終了していない場合は、ステップS21へ戻る。操作が終了していれば、ステップS28へ移行する。   In step S27, it is determined whether or not the operation of the client application execution unit 20 by the operator 3 is completed. If the operation has not ended, the process returns to step S21. If the operation has been completed, the process proceeds to step S28.

ステップS28では、シナリオ生成部302が、比較対象画像情報記憶部301内の比較対象画像情報と、イベントログ記憶部306内のイベントログの情報を組み合わせて、操作シナリオを生成してシナリオ記憶部112に記録する。   In step S <b> 28, the scenario generation unit 302 generates an operation scenario by combining the comparison target image information in the comparison target image information storage unit 301 and the event log information in the event log storage unit 306, and generates a scenario storage unit 112. To record.

シナリオ記憶部112内の操作シナリオの一例を図7に示している。この操作シナリオは、操作ステップと、画面識別情報(画面ID)と、ビットマップイメージの画面遷移判定画像及び比較対象画像と、判定/操作内容と、数値情報とを設定項目として構成される。   An example of the operation scenario in the scenario storage unit 112 is shown in FIG. This operation scenario includes, as setting items, operation steps, screen identification information (screen ID), a screen transition determination image and comparison target image of a bitmap image, determination / operation contents, and numerical information.

上記図7に示す操作シナリオにおいて、比較対象画像の設定項目には、比較対象画像を適当な画像ファイル形式として保存したファイルのファイル名が設定される。この例では、ビットマップのイメージ形式ファイルを表す「.bmp」が設定されている。   In the operation scenario shown in FIG. 7, the file name of a file in which the comparison target image is saved as an appropriate image file format is set in the setting item of the comparison target image. In this example, “.bmp” representing a bitmap image format file is set.

上記図7に示す操作シナリオの[比較対象画像]に設定された比較対象画像ファイル(2.bmp)の内容を図9に示している。この例ではスケジュール表示画面21から抽出された「旅費清算システム」が比較対象画像として操作シナリオに登録される。   FIG. 9 shows the contents of the comparison target image file (2.bmp) set in [Comparison target image] in the operation scenario shown in FIG. In this example, the “travel expense clearing system” extracted from the schedule display screen 21 is registered in the operation scenario as a comparison target image.

なお、上記したステップS24の処理において、マウスをクリックする直前に、マウスがボタンの上へ到達した時点で、ボタンの外見(形状、色、等)が変化することがある。例えば図15に示すようにマウスカーソル(MC)がボタン設定エリア(BA1)に到達しない(BA1の外に位置している)状態から、図16に示すようにマウスカーソル(MC)がボタン設定エリア(BA1)に到達した(BA1内に位置した)とき、ボタンの外郭(非明示/明示)、色(例えば非反転/反転)、明度(暗/明)等が変化する。実際に、汎用OS上の多くのアプリケーションソフトウェアは、メニュ−の上にマウスを移動させただけで、外見(形状、色、等)が変化する。   In the process of step S24 described above, the appearance (shape, color, etc.) of the button may change when the mouse reaches the button immediately before clicking the mouse. For example, from the state where the mouse cursor (MC) does not reach the button setting area (BA1) as shown in FIG. 15 (is located outside BA1), the mouse cursor (MC) is moved to the button setting area as shown in FIG. When (BA1) is reached (positioned within BA1), the button outline (not explicit / explicit), color (eg non-inverted / inverted), brightness (dark / light), etc. change. In fact, many application softwares on a general-purpose OS change the appearance (shape, color, etc.) just by moving the mouse over the menu.

したがって、上記ステップS24の時点でマウスのクリックが発生したときに、画面の画像情報を取得したのでは、変化した後の画像しか得られない。しかしながら、シナリオを実行する際には、まだマウスが操作対象となるボタンよりも離れた位置に有る状態においてボタンの画像を画面全体の画像の中から検出しなければならず、その時点では、まだボタンの画像は変化していない。つまり、画面全体画像を取得すべき時点とは、操作者3が比較対象(例:ボタン)を視認した後の時点でなければならず、かつ、マウスが比較対象に近づく以前であって、比較対象の外見が変化する以前の時点でなければならない。したがって、上記ステップS21の段階で、画面画像記録指示部を操作する必要がある。   Therefore, if the screen image information is acquired when the mouse click occurs at the time of step S24, only the image after the change can be obtained. However, when the scenario is executed, the button image must be detected from the entire screen image in a state where the mouse is still located away from the button to be operated. The button image has not changed. That is, the time point at which the entire screen image should be acquired must be the time point after the operator 3 visually recognizes the comparison target (eg, button) and before the mouse approaches the comparison target. Must be before the subject's appearance changes. Therefore, it is necessary to operate the screen image recording instruction unit in the step S21.

上記したような画面全体の画像の取得処理機能をもつことで、実行可能な操作シナリオによる負荷試験システムを構築することができる。   By having an image acquisition processing function for the entire screen as described above, a load test system based on an executable operation scenario can be constructed.

(第3の実施形態)
次に、本発明の第3の実施形態を図17乃至図24を参照して説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described with reference to FIGS.

第3の実施形態は、シナリオ生成時の比較対象範囲を抽出する方法の不具合を解消するものである。例えば、図13の比較対象範囲抽出部303が比較対象を特定するため画面画像を抽出する手法において、従来方法では抽出範囲が操作者にわからず、また抽出範囲が自由に決められず、抽出範囲が不適切になってしまう可能性がある。   The third embodiment solves the problem of the method for extracting the comparison target range at the time of scenario generation. For example, in the method in which the comparison target range extraction unit 303 in FIG. 13 extracts the screen image to identify the comparison target, the extraction range is not determined by the operator in the conventional method, and the extraction range is not freely determined. May become inappropriate.

これにより、実行時毎に画像が変わるような部分を、抽出画面画像の一部に含んでしまうと、比較対象を特定するための画像が無効になる場合がある。この場合の典型例として、あるウィンドウの端付近をクリックしたときに、そのウィンドウの後ろにある背景画像(壁紙、他のウィンドウ)を含んでしまう状況がある。   As a result, if a part of the extracted screen image includes a part whose image changes every time it is executed, the image for specifying the comparison target may become invalid. As a typical example in this case, there is a situation in which when a portion near the edge of a certain window is clicked, a background image (wallpaper, another window) behind the window is included.

図17は操作対象アプリウィンドウの後ろに他の背景ウィンドウが存在する画面状況の例を示している。このような画面状況では、「会議室予約システム」ボタンを特定するための比較対象の画像として、図18に示すように、背景画像の一部を含む「会議室予約システム」ボタンの抽出画像が保存される場合がある。図19は、図17に示した操作対象アプリウィンドウの後ろに図17とは異なる背景ウィンドウが存在する画面状況の例を示している。図18に示す画像が図19の画面状況では存在しないため、図19の画面状況では「会議室予約システム」ボタンのクリック操作を再現できず、比較対象を特定できない。このため、図18の画像を含む操作シナリオは、図17の状況では正常に動作するが、図19の状況では正常に動作しないという不具合が発生してしまう。   FIG. 17 shows an example of a screen situation in which another background window exists behind the operation target application window. In such a screen situation, an extracted image of the “meeting room reservation system” button including a part of the background image is used as a comparison target image for specifying the “meeting room reservation system” button, as shown in FIG. May be saved. FIG. 19 shows an example of a screen situation in which a background window different from that in FIG. 17 exists behind the operation target application window shown in FIG. Since the image shown in FIG. 18 does not exist in the screen situation of FIG. 19, the click operation of the “conference room reservation system” button cannot be reproduced in the screen situation of FIG. 19, and the comparison target cannot be specified. For this reason, the operation scenario including the image of FIG. 18 operates normally in the situation of FIG. 17 but does not operate normally in the situation of FIG.

また同様に抽出範囲が操作者にわからず、また抽出範囲が自由に決められないことから、抽出範囲が不適切になってしまう例として、抽出された画像と同じ画像が操作対象画面の複数の位置に存在する場合、比較対象を特定するための画像が無効になることがある。   Similarly, since the extraction range is not known to the operator and the extraction range cannot be determined freely, as an example in which the extraction range becomes inappropriate, the same image as the extracted image has a plurality of operation target screens. If present at the position, the image for specifying the comparison target may become invalid.

例えば、図20に示すようなアプリケーションの「旅費精算システム」ボタンを特定するための比較対象の画像として、図21に示す「費精算シ」の画像が抽出される場合がある。しかし図21に示す「費精算シ」の画像は「旅費精算システム」ボタン上と「経費精算システム」ボタン上の2箇所に存在し、この画像からは比較対象がどちらのボタンなのか特定できない。このため、図21の画像を含むシナリオは図20の状況においては、シナリオ製作者の意図と異なる動作を行う不具合が発生してしまう可能性がある。   For example, as an image to be compared for specifying the “travel expense adjustment system” button of the application as shown in FIG. 20, an image of “expense expense adjustment” shown in FIG. 21 may be extracted. However, there are two images of “cost adjustment system” shown in FIG. 21 on the “travel expense adjustment system” button and “expense adjustment system” button, and it is not possible to specify which button is the comparison target from this image. For this reason, in the situation shown in FIG. 20, the scenario including the image of FIG. 21 may cause a problem of performing an operation different from the intention of the scenario producer.

第3の実施形態は、上記のような不具合を解消するために、シナリオ生成時に操作者に画面の抽出範囲を明示的に示す仕組み及び、明示的に示すと同時にキー操作により抽出範囲の拡大縮小及び変形を可能にする仕組みについて説明するものである。図22は抽出範囲を明示的に示した画面の例である。図22の長方形枠221が抽出範囲を示しており、操作者はマウスクリック時にこの長方形枠221を参考にすることにより、適切な抽出範囲を選ぶことが可能になる。また、図23は抽出範囲を拡大縮小及び変形した例である。ここでは、抽出範囲を「旅費精算システム」ボタンの全体を囲むように変形したことにより、上述した共通画像を含むような不具合の発生を防ぐことができる。   In the third embodiment, in order to solve the above-described problems, a mechanism for explicitly indicating the extraction range of the screen to the operator at the time of scenario generation, and the enlargement / reduction of the extraction range by the key operation at the same time as the explicit indication And a mechanism that enables deformation. FIG. 22 is an example of a screen explicitly showing the extraction range. A rectangular frame 221 in FIG. 22 indicates the extraction range, and the operator can select an appropriate extraction range by referring to the rectangular frame 221 when the mouse is clicked. FIG. 23 shows an example in which the extraction range is enlarged / reduced and modified. Here, by changing the extraction range so as to surround the entire “travel expense adjustment system” button, it is possible to prevent the occurrence of the above-described problem including the common image.

第3の実施形態は、操作画面の表示を伴うアプリケーションプログラムを対象に、上記操作画面内の操作対象の一部画像を含む比較対象の画像に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成システム(シナリオ生成装置)であって、上記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、上記イベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、上記比較対象の画像を抽出する範囲を示す抽出範囲情報を決定する抽出範囲決定手段と、上記抽出範囲情報に基づき、上記比較対象の画像の抽出範囲を上記操作画面上に表示する抽出範囲表示手段と、上記表示された抽出範囲に対して入力された拡大又は縮小指示に応じて、当該表示された抽出範囲を拡大又は縮小するように上記抽出範囲情報を変更する抽出範囲変更手段と、上記イベント情報が上記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、上記操作画面上の全体画像の画像情報の座標値と上記抽出範囲情報とをもとに上記全体画像の画像情報から上記比較対象の画像情報を抽出し記憶する画像取得手段と、上記記憶したイベント情報及び上記比較対象の画像情報をもとに上記操作シナリオを生成するシナリオ生成手段とを備えて構成される。上記イベント情報取得手段は、後述する図24に示すイベント記録部309及びイベントログ記憶部306により実現される。上記抽出範囲決定手段及び抽出範囲変更手段は、抽出範囲指示部314及び抽出範囲情報記憶部313により実現される。上記抽出範囲表示手段は、範囲表示部312により実現される。画像取得手段は、画面画像記録指示部311、画面画像記録部310、画面全体画像情報記憶部307、比較対象画像情報記憶部301及び比較対象範囲抽出部303により実現される。上記シナリオ生成手段は、シナリオ生成部302及びシナリオ記憶部112により実現される。   In the third embodiment, an operation scenario describing a procedure for generating an operation event for a comparison target image including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. Is a scenario generation system (scenario generation device) for generating event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen, and indicating an extraction range in which the event information includes position coordinates At this time, based on the event information, extraction range determining means for determining extraction range information indicating a range from which the comparison target image is extracted, and the extraction range of the comparison target image based on the extraction range information According to the extraction range display means to be displayed on the screen and the enlargement or reduction instruction input to the displayed extraction range, the display is performed. Extraction range changing means for changing the extraction range information so as to expand or reduce the extraction range, and when the event information is a recording instruction following the instruction of the extraction range, on the operation screen based on the event information Image acquisition means for extracting and storing the comparison target image information from the image information of the whole image based on the coordinate value of the image information of the whole image and the extraction range information, the stored event information, and the comparison A scenario generation unit configured to generate the operation scenario based on the target image information. The event information acquisition unit is realized by an event recording unit 309 and an event log storage unit 306 shown in FIG. The extraction range determining unit and the extraction range changing unit are realized by the extraction range instruction unit 314 and the extraction range information storage unit 313. The extraction range display means is realized by the range display unit 312. The image acquisition means is realized by the screen image recording instruction unit 311, the screen image recording unit 310, the entire screen image information storage unit 307, the comparison target image information storage unit 301, and the comparison target range extraction unit 303. The scenario generation means is realized by the scenario generation unit 302 and the scenario storage unit 112.

図24は本発明の第3の実施形態に係るシナリオ生成システムの構成を示す模式図である。このシナリオ生成システムは、前述した図13に示した構成に比べ、抽出範囲指示部314、抽出範囲情報記憶部313及び範囲表示部312が付加されている。   FIG. 24 is a schematic diagram showing a configuration of a scenario generation system according to the third exemplary embodiment of the present invention. This scenario generation system includes an extraction range instruction unit 314, an extraction range information storage unit 313, and a range display unit 312 as compared to the configuration shown in FIG.

次に、以上のように構成されたシナリオ生成システムの動作を説明する。   Next, the operation of the scenario generation system configured as described above will be described.

始めに、前述した通り、クライアントアプリケーション実行部20が起動され、シナリオ生成システム30の動作が開始したとする。また同様に、クライアントアプリケーション実行部20は、操作者3によるマウスやキーボード操作により、オペレーティングシステム実行部(OS)40から各種入力イベントを受けて操作される。   First, as described above, it is assumed that the client application execution unit 20 is activated and the operation of the scenario generation system 30 is started. Similarly, the client application execution unit 20 is operated in response to various input events from the operating system execution unit (OS) 40 by a mouse or keyboard operation by the operator 3.

シナリオ生成システム30は、各種イベントの情報や、クライアントアプリケーション実行部20の画像情報や、画像情報内の抽出範囲情報、位置座標といった情報をオペレーティングシステム実行部(OS)40から取得することにより、操作シナリオを生成してシナリオ記憶部112に記録する。   The scenario generation system 30 obtains information such as various event information, image information of the client application execution unit 20, extraction range information in the image information, and position coordinates from the operating system execution unit (OS) 40. A scenario is generated and recorded in the scenario storage unit 112.

例えば、イベント記録部309は、操作画面上の操作に伴い発生するイベント情報を採取しイベントログとしてイベントログ記憶部306に記録する。   For example, the event recording unit 309 collects event information generated in response to an operation on the operation screen and records it in the event log storage unit 306 as an event log.

ここで、抽出範囲指示部314は、このイベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、比較対象の画像を抽出する範囲を示す抽出範囲情報を決定し、この抽出範囲情報を抽出範囲情報記憶部313に記録する。   Here, when the event information is an extraction range instruction including position coordinates, the extraction range instruction unit 314 determines extraction range information indicating a range in which a comparison target image is extracted based on the event information. The range information is recorded in the extraction range information storage unit 313.

範囲表示部312は、抽出範囲情報記憶部313内の抽出範囲情報に基づき、比較対象の画像の抽出範囲を示す長方形枠231を操作画面上に表示する。   The range display unit 312 displays a rectangular frame 231 indicating the extraction range of the comparison target image on the operation screen based on the extraction range information in the extraction range information storage unit 313.

操作者は、この長方形枠231を見てキー操作を行う。キー操作が、当該表示された長方形枠231に対して入力された拡大又は縮小指示の場合、抽出範囲指示部314は、この拡大又は縮小指示に応じて、当該表示された長方形枠231を拡大又は縮小するように抽出範囲情報記憶部313内の抽出範囲情報を変更する。   The operator performs key operations while looking at the rectangular frame 231. When the key operation is an enlargement or reduction instruction input to the displayed rectangular frame 231, the extraction range instruction unit 314 enlarges or displays the displayed rectangular frame 231 according to the enlargement or reduction instruction. The extraction range information in the extraction range information storage unit 313 is changed so as to be reduced.

また、キー操作が抽出範囲の指示に続く記録指示のとき、画面画像記録指示部311は、当該記録指示を画面画像記録部310に入力する。画面画像記録部310は、当該記録指示に基づいて、操作画面上の全体画像の画像情報を抽出し画面全体画像情報記憶部307に記録する。   When the key operation is a recording instruction subsequent to the extraction range instruction, the screen image recording instruction unit 311 inputs the recording instruction to the screen image recording unit 310. The screen image recording unit 310 extracts image information of the entire image on the operation screen based on the recording instruction, and records the extracted image information in the entire screen image information storage unit 307.

比較対象範囲抽出部303は、画面全体画像情報記憶部307内の全体画像の画像情報の座標値と抽出範囲情報記憶部313内の抽出範囲情報とをもとに操作画面から比較対象の画像情報を抽出し比較対象画像情報記憶部301に記録する。   The comparison target range extraction unit 303 compares the image information of the comparison target from the operation screen based on the coordinate values of the image information of the entire image in the entire screen image information storage unit 307 and the extraction range information in the extraction range information storage unit 313. Is extracted and recorded in the comparison target image information storage unit 301.

シナリオ生成部112は、イベントログ記憶部306内のイベントログ内のイベント情報及び比較対象画像情報記憶部301内の画像情報をもとに操作シナリオを生成してシナリオ記憶部112に記録する。   The scenario generation unit 112 generates an operation scenario based on the event information in the event log in the event log storage unit 306 and the image information in the comparison target image information storage unit 301 and records the operation scenario in the scenario storage unit 112.

上述したように本実施形態によれば、比較対象の画像の抽出範囲を示す長方形枠231を操作画面上に表示する構成により、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。また、長方形枠231の表示中、入力された拡大又は縮小指示に応じて長方形枠231を拡大又は縮小して表示する構成により、表示された長方形枠231を適切な抽出範囲に調整することができる。   As described above, according to the present embodiment, the configuration in which the rectangular frame 231 indicating the extraction range of the comparison target image is displayed on the operation screen can prevent the designation of an image that causes an error when executing the scenario, and the scenario correction work Efficiency can be improved. In addition, while the rectangular frame 231 is displayed, the displayed rectangular frame 231 can be adjusted to an appropriate extraction range by the configuration in which the rectangular frame 231 is enlarged or reduced according to the input enlargement or reduction instruction. .

(第4の実施形態)
次に本発明の第4の実施形態を図17乃至図26を参照して説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described with reference to FIGS.

第4の実施形態は、第3の実施形態に述べた如き、あるウィンドウの端付近をクリックしたときに、そのウィンドウの後ろにある背景画像(壁紙、他のウィンドウ)を抽出画像に含んでしまう状況を解消するものである。   In the fourth embodiment, as described in the third embodiment, when the vicinity of a certain window is clicked, the background image (wallpaper, other window) behind the window is included in the extracted image. The situation is solved.

前述した通り、図17に示す画面から「会議室予約システム」ボタンを特定するために図18に示すように背景画像を含む抽出画像が保存された場合、次の図19に示す画面では「会議室予約システム」ボタンをクリックする操作を再現できない不都合が生じる。   As described above, when the extracted image including the background image is stored as shown in FIG. 18 in order to specify the “conference room reservation system” button from the screen shown in FIG. An inconvenience that the operation of clicking the “room reservation system” button cannot be reproduced occurs.

第4の実施形態ではこのような不都合を解消するために、操作対象の操作時に操作対象を含むウィンドウを特定し、第3の実施形態で決定した抽出範囲と、特定したウィンドウ範囲の両方に含まれる範囲を抽出範囲とする仕組みについて説明するものである。但し、第4の実施形態は、第3の実施形態とは異なり、抽出範囲を明示する長方形枠231の表示を省略してもよい。図25は、図17に示す操作画面から抽出した図18に示す抽出画像のうち、操作対象アプリウィンドウの部分のみを抜き出したものである。   In the fourth embodiment, in order to eliminate such an inconvenience, a window including the operation target is specified when the operation target is operated, and the window is included in both the extraction range determined in the third embodiment and the specified window range. This is a description of the mechanism for setting the extracted range as the extraction range. However, unlike the third embodiment, the fourth embodiment may omit the display of the rectangular frame 231 that clearly indicates the extraction range. FIG. 25 shows only an operation target application window portion extracted from the extracted image shown in FIG. 18 extracted from the operation screen shown in FIG.

図25に示す抽出画像は、背景画像を含まないため、図19に示す画面にも存在する。このことから、図25に示す抽出画像を含む操作シナリオは、図17又は図19のいずれに示す操作画面でも「会議室予約システム」を特定するように正常に動作する。   The extracted image shown in FIG. 25 does not include a background image, and therefore also exists on the screen shown in FIG. From this, the operation scenario including the extracted image shown in FIG. 25 operates normally so as to specify the “conference room reservation system” on the operation screen shown in FIG. 17 or 19.

第4の実施形態は、操作画面の表示を伴うアプリケーションプログラムを対象に、上記操作画面内の操作対象の一部画像を含む比較対象の画像に対して操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成システム(シナリオ生成装置であって、上記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、上記イベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、上記比較対象の画像を抽出する範囲を示す抽出範囲情報を決定する抽出範囲決定手段と、上記イベント情報が上記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、上記操作画面上の全体画像の画像情報の座標値と上記抽出範囲情報とをもとに上記全体画像の画像情報から上記比較対象の画像情報を抽出し記憶する画像取得手段と、上記記憶したイベント情報及び上記比較対象の画像情報をもとに上記操作シナリオを生成するシナリオ生成手段とを備えており、上記画像取得手段としては、上記操作画面上に複数のウィンドウ画面が表示されている場合、上記記録指示に基づき、当該各ウィンドウ画面の範囲及び重なり順序をそれぞれ示すウィンドウ範囲情報及び重なり順序情報を記憶するウィンドウ範囲記憶手段と、上記抽出範囲の指示に含まれる位置座標と、上記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応するウィンドウ範囲情報を選択するウィンドウ選択手段と、上記ウィンドウ選択手段により選択したウィンドウ範囲情報と、上記抽出範囲情報との共通範囲を示す共通範囲情報を抽出する共通範囲抽出手段と、上記記憶手段内の抽出範囲情報の値を上記共通範囲情報の値に変更する抽出範囲変更手段と、上記変更された値の抽出範囲情報に基づいて、上記比較対象の画像情報を抽出し記憶する画像抽出記憶手段と、を備えて構成される。なお、第4の実施形態は、上記抽出範囲変更手段に代えて、上記抽出範囲の指示に含まれる位置座標と、上記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含まず上記抽出範囲の一部を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応する背景ウィンドウ範囲情報を選択する背景ウィンドウ選択手段と、上記共通範囲情報が示す共通範囲を含みつつ、上記背景ウィンドウ範囲情報が示すウィンドウ画面の範囲に含まれないように移動させた抽出範囲を示す抽出範囲情報を抽出する抽出範囲移動手段と、上記決定した抽出範囲情報を上記移動後の抽出範囲情報に変更する変更手段とを備えてもよい。上記イベント情報取得手段は、後述する図26に示すイベント記録部309及びイベントログ記憶部306により実現される。上記抽出範囲決定手段及び抽出範囲変更手段は、抽出範囲指示部314及び抽出範囲情報記憶部313により実現される。上記抽出範囲表示手段は、範囲表示部312により実現される。画像取得手段は、画面画像記録指示部311、画面画像記録部310、画面全体画像情報記憶部307、比較対象画像情報記憶部301及び比較対象範囲抽出部303により実現される。ウィンドウ範囲記憶手段は、画面画像記録指示部311、画面画像記録部310、ウィンドウ範囲情報記憶部316及びウィンドウ範囲検出部317により実現される。ウィンドウ選択手段、背景ウィンドウ選択手段、共通範囲抽出手段、抽出範囲変更手段、変更手段及び画像抽出記憶手段は、比較対象範囲抽出部303、比較対象画像情報記憶部301及び共通範囲抽出部315により実現される。上記シナリオ生成手段は、シナリオ生成部302及びシナリオ記憶部112により実現される。   In the fourth embodiment, an operation scenario describing a procedure for generating an operation event for a comparison target image including a partial image of the operation target in the operation screen for an application program accompanied by display of the operation screen. A scenario generation system (which is a scenario generation device that collects and stores event information that occurs in response to an operation on the operation screen, and indicates an extraction range indicating that the event information includes position coordinates. An extraction range determining means for determining extraction range information indicating a range for extracting the comparison target image based on the event information; and when the event information is a recording instruction following the extraction range instruction, the event information Based on the coordinate value of the image information of the whole image on the operation screen and the extraction range information, Image acquisition means for extracting and storing the comparison target image information, and scenario generation means for generating the operation scenario based on the stored event information and the comparison target image information. As the acquisition means, when a plurality of window screens are displayed on the operation screen, a window for storing window range information and overlapping order information indicating the range and overlapping order of the window screens based on the recording instruction, respectively. Based on the range storage means, the position coordinates included in the extraction range instruction, the window range information and the overlapping order information, among the window range information including the position coordinates, corresponds to the overlapping order information indicating the highest level. Window selection means for selecting window range information to be selected, and the window selection means Common range extraction means for extracting common range information indicating a common range between the window range information and the extraction range information, and an extraction range change for changing the value of the extraction range information in the storage means to the value of the common range information And an image extraction storage means for extracting and storing the image information to be compared based on the changed extraction range information of the value. Instead of the extraction range changing means, based on the position coordinates included in the extraction range instruction, the window range information and the overlapping order information, window range information that does not include the position coordinates and includes a part of the extraction range A background window selection means for selecting background window range information corresponding to the overlapping order information indicating the highest level, and the background window including the common range indicated by the common range information. Extraction range moving means for extracting extraction range information indicating the extraction range moved so as not to be included in the window screen range indicated by the window range information, and changing the determined extraction range information to the extracted extraction range information And a changing unit that performs the above-described processing. The event information acquisition means is realized by an event recording unit 309 and an event log storage unit 306 shown in FIG. The extraction range determining unit and the extraction range changing unit are realized by the extraction range instruction unit 314 and the extraction range information storage unit 313. The extraction range display means is realized by the range display unit 312. The image acquisition means is realized by the screen image recording instruction unit 311, the screen image recording unit 310, the entire screen image information storage unit 307, the comparison target image information storage unit 301, and the comparison target range extraction unit 303. The window range storage unit is realized by the screen image recording instruction unit 311, the screen image recording unit 310, the window range information storage unit 316, and the window range detection unit 317. Window selection means, background window selection means, common range extraction means, extraction range change means, change means and image extraction storage means are realized by comparison target range extraction section 303, comparison target image information storage section 301 and common range extraction section 315. Is done. The scenario generation means is realized by the scenario generation unit 302 and the scenario storage unit 112.

図26は本発明の第4の実施形態に係るシナリオ生成システムの構成を示す模式図である。このシナリオ生成システムは、前述した図24に示した構成に比べ、共通範囲抽出部315、ウィンドウ範囲情報記憶部316及びウィンドウ範囲検出部317が付加されている。   FIG. 26 is a schematic diagram showing a configuration of a scenario generation system according to the fourth embodiment of the present invention. In this scenario generation system, a common range extraction unit 315, a window range information storage unit 316, and a window range detection unit 317 are added as compared with the configuration shown in FIG.

ウィンドウ範囲情報記憶部316には、図27に一例を示すように、画面全体画像情報記憶部307内の画面全体画像情報に関連付けて、各ウィンドウ画面の画面ID毎に、ウィンドウ範囲情報(左上隅座標、右下隅座標)及び重なり順序情報が記憶される。ウィンドウ範囲情報は各ウィンドウ画面の範囲を示す情報であり、ここではウィンドウ画面の左上隅の位置座標と、右下隅の位置座標とが用いられている。重なり順序情報は各ウィンドウ画面間の重なり順序を示す情報であり、この例では値の小さい順に上位側(表面側、画面手前側)を示している。これらウィンドウ範囲情報及び重なり順序情報は、それぞれ図示しないオペレーティングシステム(OS)実行部40からウィンドウ範囲検出部317に取得される。   In the window range information storage unit 316, as shown in an example in FIG. 27, window range information (upper left corner) is associated with the entire screen image information in the entire screen image information storage unit 307 for each screen ID of each window screen. Coordinates, lower right corner coordinates) and overlap order information are stored. The window range information is information indicating the range of each window screen. Here, the position coordinates of the upper left corner and the position coordinates of the lower right corner of the window screen are used. The overlapping order information is information indicating the overlapping order between the window screens, and in this example, the upper order (front side, front side of the screen) is shown in ascending order. The window range information and the overlapping order information are acquired by the window range detection unit 317 from an operating system (OS) execution unit 40 (not shown).

次に、以上のように構成されたシナリオ生成システムの動作を説明する。   Next, the operation of the scenario generation system configured as described above will be described.

始めに、前述した通り、クライアントアプリケーション実行部20が起動され、シナリオ生成システム30の動作が開始したとする。また同様に、クライアントアプリケーション実行部20は、操作者3によるマウスやキーボード操作により、オペレーティングシステム実行部(OS)40から各種入力イベントを受けて操作される。   First, as described above, it is assumed that the client application execution unit 20 is activated and the operation of the scenario generation system 30 is started. Similarly, the client application execution unit 20 is operated in response to various input events from the operating system execution unit (OS) 40 by a mouse or keyboard operation by the operator 3.

シナリオ生成システム30は、各種イベントの情報や、クライアントアプリケーション実行部20の画像情報や、画像情報内の抽出範囲情報、位置座標といった情報をオペレーティングシステム実行部(OS)40から取得することにより、操作シナリオを生成してシナリオ記憶部112に記録する。   The scenario generation system 30 obtains information such as various event information, image information of the client application execution unit 20, extraction range information in the image information, and position coordinates from the operating system execution unit (OS) 40. A scenario is generated and recorded in the scenario storage unit 112.

例えば、イベント記録部309は、操作画面上の操作に伴い発生するイベント情報を採取しイベントログとしてイベントログ記憶部306に記録する。   For example, the event recording unit 309 collects event information generated in response to an operation on the operation screen and records it in the event log storage unit 306 as an event log.

ここで、抽出範囲指示部314は、このイベント情報が位置座標を含む抽出範囲の指示のとき、当該イベント情報に基づき、比較対象の画像を抽出する範囲を示す抽出範囲情報を決定し、この抽出範囲情報を抽出範囲情報記憶部313に記録する。   Here, when the event information is an extraction range instruction including position coordinates, the extraction range instruction unit 314 determines extraction range information indicating a range in which a comparison target image is extracted based on the event information. The range information is recorded in the extraction range information storage unit 313.

範囲表示部312は、抽出範囲情報記憶部313内の抽出範囲情報に基づき、比較対象の画像の抽出範囲を示す長方形枠を操作画面上に表示する。但し、範囲表示部312による長方形枠の表示は省略してもよい。   The range display unit 312 displays a rectangular frame indicating the extraction range of the comparison target image on the operation screen based on the extraction range information in the extraction range information storage unit 313. However, the display of the rectangular frame by the range display unit 312 may be omitted.

また、イベント情報が抽出範囲の指示に続く記録指示のとき、画面画像記録指示部311は、当該記録指示を画面画像記録部310に入力する。画面画像記録部310は、当該記録指示に基づいて、操作画面上の全体画像の画像情報を抽出し画面全体画像情報記憶部307に記録する。   When the event information is a recording instruction following the extraction range instruction, the screen image recording instruction unit 311 inputs the recording instruction to the screen image recording unit 310. The screen image recording unit 310 extracts image information of the entire image on the operation screen based on the recording instruction, and records the extracted image information in the entire screen image information storage unit 307.

ここで、図28に示すように、操作画面上に複数のウィンドウ画面W1〜W3が表示されている場合、ウィンドウ範囲検出部317は、当該記録指示に基づき、当該各ウィンドウ画面の範囲及び重なり順序をそれぞれ示すウィンドウ範囲情報及び重なり順序情報をウィンドウ範囲情報記憶部316に記録する。   Here, as shown in FIG. 28, when a plurality of window screens W1 to W3 are displayed on the operation screen, the window range detection unit 317 determines the range of each window screen and the overlapping order based on the recording instruction. Are recorded in the window range information storage unit 316.

共通範囲抽出部315は、抽出範囲Cの指示に含まれる位置座標(xc,yc)と、ウィンドウ範囲情報記憶部316内のウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標(xc,yc)を含むウィンドウ範囲情報(W2対応)のうち、最上位を示す重なり順序情報に対応するウィンドウ範囲情報(W2対応)を選択する。   Based on the position coordinates (xc, yc) included in the instruction of the extraction range C, the window range information in the window range information storage unit 316, and the overlapping order information, the common range extraction unit 315 performs the position coordinates (xc, Among the window range information including yc) (corresponding to W2), the window range information (corresponding to W2) corresponding to the overlapping order information indicating the highest order is selected.

続いて、共通範囲抽出部315は、図29に示すように、選択したウィンドウ範囲情報(W2対応)と、抽出範囲情報(xc1,yc1,xc2,yc2)との共通範囲を示す共通範囲情報(xc1’,yc1’,xc2,yc2)を抽出する。   Subsequently, as shown in FIG. 29, the common range extraction unit 315 includes common range information (common range information) indicating the common range of the selected window range information (corresponding to W2) and the extraction range information (xc1, yc1, xc2, yc2). xc1 ′, yc1 ′, xc2, yc2) are extracted.

また、共通範囲抽出部315は、抽出範囲情報記憶部313の抽出範囲情報の値を共通範囲情報の値に変更する。なお、共通範囲抽出部315は、図29に示す手法に代えて、図30に示すように、抽出範囲の指示に含まれる位置座標と、ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含まず抽出範囲の一部を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応する背景ウィンドウ範囲情報(W1対応)を選択すると共に、共通範囲情報が示す共通範囲を含みつつ、背景ウィンドウ範囲情報が示すウィンドウ画面W1の範囲に含まれないように移動させた抽出範囲を示す抽出範囲情報を抽出し、抽出範囲情報記憶部313内の抽出範囲情報を当該移動後の抽出範囲情報(xc1’,yc1’,xc2’,yc2’)に変更するように動作してもよい。   Further, the common range extraction unit 315 changes the value of the extraction range information in the extraction range information storage unit 313 to the value of the common range information. Note that, instead of the method shown in FIG. 29, the common range extraction unit 315 performs the position detection based on the position coordinates included in the extraction range instruction, the window range information, and the overlapping order information, as shown in FIG. 30. While selecting the background window range information (corresponding to W1) corresponding to the overlapping order information indicating the highest rank from among the window range information not including coordinates and including a part of the extraction range, including the common range indicated by the common range information The extraction range information indicating the extraction range moved so as not to be included in the range of the window screen W1 indicated by the background window range information is extracted, and the extraction range information in the extraction range information storage unit 313 is extracted as the extraction range after the movement. You may operate | move so that it may change into information (xc1 ', yc1', xc2 ', yc2').

いずれにしても抽出範囲情報の変更の後、比較対象範囲抽出部303は、画面全体画像情報記憶部307内の全体画像の画像情報の座標値と抽出範囲情報記憶部313内の抽出範囲情報とをもとに操作画面から比較対象の画像情報を抽出し比較対象画像情報記憶部301に記録する。   In any case, after changing the extraction range information, the comparison target range extraction unit 303 includes the coordinate value of the image information of the entire image in the entire screen image information storage unit 307 and the extraction range information in the extraction range information storage unit 313. The image information to be compared is extracted from the operation screen based on the above, and is recorded in the comparison image information storage unit 301.

シナリオ生成部112は、イベントログ記憶部306内のイベントログ内のイベント情報及び比較対象画像情報記憶部301内の画像情報をもとに操作シナリオを生成してシナリオ記憶部112に記録する。   The scenario generation unit 112 generates an operation scenario based on the event information in the event log in the event log storage unit 306 and the image information in the comparison target image information storage unit 301 and records the operation scenario in the scenario storage unit 112.

上述したように本実施形態によれば、抽出範囲の指示に含まれる位置座標を含む最上位のウィンドウ範囲情報と抽出範囲情報との共通範囲に基づいて、比較対象の画像を抽出する構成により、指示した位置座標を抽出範囲に含まない背景のウィンドウ画面が比較対象の画像の一部として抽出されなくなるので、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。   As described above, according to the present embodiment, the configuration for extracting the comparison target image based on the common range of the uppermost window range information including the position coordinates included in the extraction range instruction and the extraction range information, Since the background window screen that does not include the designated position coordinates in the extraction range is not extracted as part of the comparison target image, it is possible to prevent the designation of an image that causes an error during scenario execution, and to improve the efficiency of scenario correction.

(第5の実施形態)
次に本発明の第5の実施形態を図31乃至図38を参照して説明する。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described with reference to FIGS.

第2、3、4の実施形態においては、生成されたシナリオに誤りが有り、実行時にエラーを発生する場合でも、シナリオ実行時までその誤りが顕在化しない状況にある。   In the second, third, and fourth embodiments, there is an error in the generated scenario, and even when an error occurs during execution, the error does not become apparent until the scenario is executed.

例えば、第2の実施形態で示した手法により、図6に示す画面に対するシナリオを生成する状況を想定する。   For example, a situation is assumed in which a scenario for the screen shown in FIG. 6 is generated by the method shown in the second embodiment.

図6の画面の「経費清算システム」をクリックする操作により、図31の比較対象画像情報が得られ、それを含んだシナリオが生成されてシナリオ記憶部112に記録されたとする。   It is assumed that the comparison target image information of FIG. 31 is obtained by an operation of clicking “Expense Clearing System” on the screen of FIG. 6, and a scenario including the information is generated and recorded in the scenario storage unit 112.

シナリオ記憶部112内の操作シナリオを実行すると、上記の比較対象画像情報は、操作者が意図している「経費清算システム」のボタン以外にも、「旅費清算システム」のボタンにも一致してしまう。従って、状況によっては、「旅費清算システム」の方をシステムがクリックしてしまうという、誤動作が発生する可能性がある。   When the operation scenario in the scenario storage unit 112 is executed, the above comparison target image information matches not only the “expense clearing system” button intended by the operator but also the “travel expense clearing system” button. End up. Therefore, in some situations, a malfunction may occur in which the system clicks on the “travel expense clearing system”.

これは、シナリオ生成の過程において、比較対象範囲の選び方が不適切であり、比較対象画像情報が、操作画面上で複数一致する箇所がある場合の問題である。この問題は、シナリオを実際に動作させた後、誤動作が発生するまで発見されない。操作者は、誤動作が発生した後に、誤動作の原因を追究し、比較対象範囲の選び方が不適切であったことを理解した上で、再度シナリオの一部を修正する作業を行う必要がある。これにより、シナリオ作成から修正までのターンアラウンドタイムが長くなる。同一シナリオにこのような誤りが複数箇所ある場合、全ての誤りを修正して、完全なシナリオを得るまでには、多大な時間を要する。さらに、上記のような誤動作が、操作者にとって発見しにくい誤動作を生じている可能性がある。例えば、「経費清算システム」の代わりに、「旅費清算システム」をクリックしても、その後の画面遷移が、両者で酷似しており、操作者にはすぐに誤動作として発見されにくい場合がある。そのような場合、操作者が比較対象画像に誤動作の原因があることを認識するまでに、時間と労力がかかってしまう。   This is a problem when the method of selecting a comparison target range is inappropriate in the scenario generation process, and there are a plurality of portions where the comparison target image information matches on the operation screen. This problem is not discovered until a malfunction occurs after the scenario is actually operated. After the malfunction occurs, the operator needs to investigate the cause of the malfunction, understand that the method of selecting the comparison target range is inappropriate, and then perform the work of correcting a part of the scenario again. This increases the turnaround time from scenario creation to modification. When there are a plurality of such errors in the same scenario, it takes a long time to correct all the errors and obtain a complete scenario. Furthermore, there is a possibility that the malfunction as described above may cause a malfunction that is difficult for the operator to find. For example, even if the “travel expense clearing system” is clicked instead of the “expense clearing system”, the subsequent screen transitions are very similar in both cases, and it may be difficult for the operator to immediately find a malfunction. In such a case, it takes time and effort for the operator to recognize that the comparison target image has a cause of malfunction.

第5の実施形態は、シナリオ作成から修正までの時間を短縮するために、シナリオに誤りが有った場合に、シナリオを実行する以前の段階で、誤りを操作者に指摘し、修正の機会を与える「シナリオ事前チェック/修正システム」を実現するものである。   In the fifth embodiment, in order to shorten the time from scenario creation to correction, when there is an error in the scenario, the error is pointed out to the operator before the scenario is executed, and the opportunity for correction The “scenario pre-check / correction system” is realized.

図32は本発明の第5の実施形態に係るシナリオ事前チェック/修正システム及びその周辺構成を示す模式図である。   FIG. 32 is a schematic diagram showing a scenario preliminary check / correction system and its peripheral configuration according to the fifth embodiment of the present invention.

シナリオ事前チェック/修正システム50は、シナリオ生成システム30により生成されたシナリオ記憶部112内の操作シナリオを実行する前に、当該操作シナリオをチェック及び修正するものである。シナリオ事前チェック/修正システム50は、シナリオ中に誤りを発見したならば、誤りの内容を操作者に表示し、修正の機会を与える機能をもつ。なお、シナリオ事前チェック/修正システム50及びシナリオ生成システム30の両者を備えた構成をシナリオ生成装置と呼んでもよい。   The scenario preliminary check / correction system 50 checks and corrects the operation scenario before executing the operation scenario in the scenario storage unit 112 generated by the scenario generation system 30. The scenario pre-check / correction system 50 has a function of displaying an error content to an operator and giving an opportunity for correction if an error is found in the scenario. A configuration including both the scenario pre-check / correction system 50 and the scenario generation system 30 may be referred to as a scenario generation device.

図33は、シナリオ生成システム30とシナリオ事前チェック/修正システム50の関係を示すブロック図である。   FIG. 33 is a block diagram showing the relationship between the scenario generation system 30 and the scenario pre-check / correction system 50.

シナリオ事前チェック/修正システム50は、シナリオ事前チェック部501とシナリオ事前修正部502により構成される。   The scenario preliminary check / correction system 50 includes a scenario preliminary check unit 501 and a scenario preliminary correction unit 502.

シナリオ生成システム30は、図13で示したものとは、以下の点が異なっている。   The scenario generation system 30 differs from that shown in FIG. 13 in the following points.

シナリオ生成部302は、操作シナリオを生成する際に、画面全体画像情報記憶部307内の画面全体画像情報を取り込んで、シナリオに加える。すなわち、シナリオ生成部302は、比較対象画像情報記憶部301内の比較対象画像情報、イベントログ記憶部306内のイベントログ及び画面全体画像情報記憶部307内の画面全体画像情報に基づいて、操作シナリオを生成してシナリオ記憶部112−2に記録する。これに伴い、シナリオ記憶部112−2は、あるステップ番号に対し、操作画面上の操作に伴い発生するイベント情報、操作画面上の全体画像の画像情報、及び前記操作画面から抽出された比較対象の画像情報、を互いに関連付けてなる操作シナリオを記憶する。ここで、シナリオ記憶部112−2内の操作シナリオの内容例を、図34に示す。図7との違いは、画面全体画像の項目が追加されていることである。   When generating an operation scenario, the scenario generation unit 302 takes in the entire screen image information in the entire screen image information storage unit 307 and adds it to the scenario. That is, the scenario generation unit 302 operates based on the comparison target image information in the comparison target image information storage unit 301, the event log in the event log storage unit 306, and the entire screen image information in the entire screen image information storage unit 307. A scenario is generated and recorded in the scenario storage unit 112-2. Accordingly, the scenario storage unit 112-2, for a certain step number, event information generated by an operation on the operation screen, image information of the entire image on the operation screen, and a comparison target extracted from the operation screen The operation scenarios are associated with each other. Here, FIG. 34 shows an example of the contents of the operation scenario in the scenario storage unit 112-2. The difference from FIG. 7 is that an item for the entire screen image is added.

シナリオ事前チェック部501は、図35に示すように、シナリオステップ情報抽出部5011、マッチング判定部5014及び複数画像警告部5015を備えている。   As shown in FIG. 35, the scenario preliminary check unit 501 includes a scenario step information extraction unit 5011, a matching determination unit 5014, and a multiple image warning unit 5015.

ここで、シナリオステップ情報抽出部5011は、シナリオ記憶部112−2内の操作シナリオから、あるステップ番号に対して全体画像の画像情報5012を抽出してマッチング判定部5014に送出する機能と、シナリオ記憶部112−2内の操作シナリオから、あるステップ番号に対して比較対象の画像情報5013を抽出してマッチング判定部5017に送出する機能とをもっている。   Here, the scenario step information extraction unit 5011 extracts the image information 5012 of the entire image for a certain step number from the operation scenario in the scenario storage unit 112-2 and sends it to the matching determination unit 5014, and the scenario. It has a function of extracting image information 5013 to be compared with respect to a certain step number from the operation scenario in the storage unit 112-2 and sending it to the matching determination unit 5017.

マッチング判定部5014は、シナリオステップ情報抽出部5011により抽出された全体画像の画像情報の中で、シナリオステップ情報抽出部5011により抽出された比較対象の画像情報を一意に決定できるか否かを判定する機能と、判定の結果、否の場合、当該否であることを表示するための複数画像警告部5015を起動する機能をもっている。   The matching determination unit 5014 determines whether or not the comparison target image information extracted by the scenario step information extraction unit 5011 can be uniquely determined from the image information of the entire image extracted by the scenario step information extraction unit 5011. If the result of determination is negative, the multi-image warning unit 5015 for displaying the negative is provided.

複数画像警告部5015は、マッチング判定部5014に起動されると、警告画面を表示する機能をもっている。   The multiple image warning unit 5015 has a function of displaying a warning screen when activated by the matching determination unit 5014.

シナリオ事前修正部502は、図36に示すように、画面全体画像抽出部5021、画面全体画像表示部5022、比較対象画像範囲指示部5023、比較対象画像範囲抽出部5024及び比較対象画像記憶部5025を備えている。   As shown in FIG. 36, the scenario pre-correction unit 502 includes an entire screen image extraction unit 5021, an entire screen image display unit 5022, a comparison target image range instruction unit 5023, a comparison target image range extraction unit 5024, and a comparison target image storage unit 5025. It has.

ここで、画面全体画像抽出部5021は、警告画面が表示されたステップ番号に対し、操作シナリオから全体画像の画像情報を抽出する機能をもっている。   Here, the entire screen image extraction unit 5021 has a function of extracting image information of the entire image from the operation scenario for the step number on which the warning screen is displayed.

画面全体画像表示部5022は、画面全体画像抽出部5021により抽出された全体画像を表示する機能をもっている。   The entire screen image display unit 5022 has a function of displaying the entire image extracted by the entire screen image extraction unit 5021.

比較対象画像範囲指示部5023は、操作者の操作により、2つの位置座標を対角線の頂点にした再抽出範囲の指示、又は当該再抽出範囲の指示に続く記録指示を比較対象画像範囲抽出部5024に入力する機能をもっている。   The comparison target image range instructing unit 5023 receives a reextraction range instruction in which two position coordinates are set to the vertices of diagonal lines or a recording instruction following the reextraction range instruction by the operation of the operator. It has a function to input to.

比較対象画像範囲抽出部5024は、全体画像抽出表示部5022による全体画像の表示中、イベント情報が2つの位置座標を対角線の頂点にした再抽出範囲の指示のとき、当該イベント情報に基づき、表示中の全体画像から比較対象の画像を抽出する範囲を示す抽出範囲情報を抽出する機能と、イベント情報が再抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、表示中の全体画像の画像情報の座標値と当該抽出した抽出範囲情報とをもとに全体画像の画像情報から比較対象の画像情報を抽出する機能と、当該抽出した比較対象の画像情報を比較対象画像記憶部5025に書き込む機能と、画面全体画像表示部5022により全体画像の画像情報が表示された操作シナリオにおける比較対象の画像情報を、比較対象画像記憶部5025内の比較対象の画像情報により上書き更新する機能とをもっている。   When the whole image is displayed by the whole image extraction display unit 5022, the comparison target image range extraction unit 5024 displays a display based on the event information when the event information indicates a re-extraction range having two position coordinates as diagonal vertices. A function for extracting extraction range information indicating a range for extracting the image to be compared from the entire image in the image, and when the event information is a recording instruction following the instruction of the re-extraction range, the entire displayed image is displayed based on the event information. A function for extracting image information for comparison from image information of the entire image based on the coordinate value of the image information of the image and the extracted extraction range information, and a comparison target image storage unit for storing the extracted image information for comparison The comparison target image information in the operation scenario in which the image information of the entire image is displayed by the function for writing to the image 5025 and the entire screen image display unit 5022 And a function of overwriting the image information to be compared in 憶部 5025.

比較対象画像記憶部5025は、比較対象画像範囲抽出部5024から読出/書込可能な記憶装置であり、比較対象の画像情報が一時的に記憶される。   The comparison target image storage unit 5025 is a storage device that can be read / written from the comparison target image range extraction unit 5024, and temporarily stores image information to be compared.

次に、以上のように構成されたシナリオ生成システム及びシナリオ事前チェック/修正システムの動作を説明する。   Next, operations of the scenario generation system and the scenario pre-check / correction system configured as described above will be described.

図38に示す処理フローにおいて、ステップS31では、シナリオ生成システム50は、操作者の操作により起動され、操作シナリオを生成してシナリオ記憶部112−2に記録する。   In the processing flow shown in FIG. 38, in step S31, the scenario generation system 50 is activated by the operation of the operator, generates an operation scenario, and records it in the scenario storage unit 112-2.

ステップS32では、シナリオ事前チェック/修正システム50は、操作者の操作により、起動される。   In step S32, the scenario preliminary check / correction system 50 is activated by the operation of the operator.

ステップS33では、シナリオ事前チェック部501は、シナリオ内の判定対象のステップを判定する。また、シナリオステップ情報抽出部5011は、シナリオ記憶部112−2内の操作シナリオの各ステップを順次選択して、そのステップに含まれる情報を抽出する。そしてその中から、画面全体画像情報5012及び比較対象画像情報5013を抽出して、マッチング判定部5014に送る。   In step S33, the scenario pre-check unit 501 determines a determination target step in the scenario. Further, the scenario step information extraction unit 5011 sequentially selects each step of the operation scenario in the scenario storage unit 112-2 and extracts information included in the step. Then, the entire screen image information 5012 and the comparison target image information 5013 are extracted from them and sent to the matching determination unit 5014.

ステップS34では、マッチング判定部5014が、画面全体画像情報5012の中で、比較対象画像情報5013を一意に決定できるか否かを判定する。ここで、一意に決定できるというのは、画面全体画像情報5012の中で、比較対象画像情報5013と合致する部分が、唯一であるという意味である。例えば図4に示すスケジュール表示画面21が画面全体画像情報5012となっている状態において、比較対象として抽出した画像が、図31に示す、文字イメージの一部が欠落した「精算システム」である状況では、この比較対象として抽出した画像は、「旅費精算システム」であるか「経費精算システム」であるか一意に決定できない、と判定される。   In step S34, the matching determination unit 5014 determines whether the comparison target image information 5013 can be uniquely determined in the entire screen image information 5012. Here, the fact that it can be determined uniquely means that the portion of the entire screen image information 5012 that matches the comparison target image information 5013 is unique. For example, in the state where the schedule display screen 21 shown in FIG. 4 is the entire screen image information 5012, the image extracted as a comparison target is the “settlement system” shown in FIG. Then, it is determined that the image extracted as the comparison target cannot be uniquely determined as the “travel expense settlement system” or the “expense settlement system”.

マッチング判定部5014は、画面全体画像情報5012の中から、比較対象画像情報と等しいサイズの画像を含むあらゆる部分を取り出して、それらを比較対象画像情報と、全ピクセルの色の情報が合致するかを検査すれば良い。なお、ここで言う「合致」は、第1の実施形態で説明した画像比較部133と同一の基準とする。   The matching determination unit 5014 extracts all portions including an image having the same size as the comparison target image information from the entire screen image information 5012, and determines whether the comparison target image information matches the color information of all pixels. Can be inspected. Note that “match” here refers to the same standard as the image comparison unit 133 described in the first embodiment.

マッチング判定部5014が一意に決定できない、と判定した場合、複数画像警告部5015を起動する。複数画像警告部5015は、操作者に一意に決定できなかった旨を警告画面を用いて指摘するとともに、画面全体画像情報5012を表示し、その中のどの部分に比較対象画像情報5013と合致する画像が有ったかを、比較対象画像情報5012に表示して、その場所を操作者に操作者に知らしめる。例えば、画面全体画像情報5012の中に、比較対象画像情報5013と合致した箇所において、比較対象画像情報5013の輪郭と同一の大きさの枠を表示するといった表示方法が考えられる。   If the matching determination unit 5014 determines that it cannot be uniquely determined, the multi-image warning unit 5015 is activated. The multi-image warning unit 5015 uses the warning screen to point out that the operator has not been able to uniquely determine the image, and displays the entire screen image information 5012, which matches the comparison target image information 5013. Whether there is an image is displayed in the comparison target image information 5012 to let the operator know the location. For example, a display method is conceivable in which a frame having the same size as the outline of the comparison target image information 5013 is displayed in the entire screen image information 5012 where the comparison target image information 5013 matches.

ステップS35では、マッチング判定部5014が一意に決定できない、と判定した場合、シナリオ事前修正部502が自動的に起動され、操作者がシナリオの修正をするためのユーザーインターフェースを提供する。   In step S35, when the matching determination unit 5014 determines that it cannot be uniquely determined, the scenario pre-correction unit 502 is automatically activated to provide a user interface for the operator to correct the scenario.

シナリオ事前修正部502は、起動されると、該当ステップを操作者の操作に応じて修正する。具体的には、画面全体画像抽出部5021は、シナリオ記憶部112−2内の操作シナリオの中から修正すべきステップに含まれる画面全体画像情報5012を抽出し、画面全体画像表示部5022へ送付する。   When activated, the scenario pre-correction unit 502 corrects the corresponding step according to the operation of the operator. Specifically, the entire screen image extraction unit 5021 extracts the entire screen image information 5012 included in the step to be corrected from the operation scenario in the scenario storage unit 112-2 and sends it to the entire screen image display unit 5022. To do.

画面全体画像表示部5022は、操作者が視認できる形で、画面全体画像情報5012を画像として表示する。   The entire screen image display unit 5022 displays the entire screen image information 5012 as an image in a form that can be visually recognized by the operator.

比較対象画像範囲指示部5023は、操作者が、表示された画面全体画像情報501の画像の上で、マウスを用いて比較対象画像範囲を指示できる環境を提供する。即ち、表示された画面全体画像情報501の画像の上で、操作者は、例えば、マウスにてドラッグアンドドロップを行う。マウスのドラッグが開始された座標と、ドロップが行われた座標とを、対角線をなす両方の頂点とするような長方形を比較対象画像範囲の指示とする。   The comparison target image range instruction unit 5023 provides an environment in which the operator can specify the comparison target image range using the mouse on the displayed image of the entire screen image information 501. That is, on the displayed image of the entire screen image information 501, the operator performs drag and drop with the mouse, for example. A rectangle in which the coordinates at which the mouse drag is started and the coordinates at which the drop is performed are used as vertices that form a diagonal line is used as an instruction for the comparison target image range.

比較対象画像範囲指示部5023は、上記のようにして操作者が指示した比較対象画像範囲に関する座標情報を、比較対象画像範囲抽出部5024に送付する。   The comparison target image range instruction unit 5023 sends the coordinate information related to the comparison target image range specified by the operator as described above to the comparison target image range extraction unit 5024.

比較対象画像範囲抽出部5024は、画面全体画像の中から、比較対象画像範囲に含まれる部分の画像情報を抽出し、比較対象画像記憶部5025に書き込む。しかる後、比較対象画像範囲抽出部5024は、比較対象画像記憶部5025内の比較対象の画像情報を、シナリオ記憶部112−2内の操作シナリオの該当ステップの比較対象画像に対応する情報に対して、上書きする。   The comparison target image range extraction unit 5024 extracts image information of a portion included in the comparison target image range from the entire screen image, and writes it in the comparison target image storage unit 5025. Thereafter, the comparison target image range extraction unit 5024 applies the comparison target image information in the comparison target image storage unit 5025 to the information corresponding to the comparison target image of the corresponding step of the operation scenario in the scenario storage unit 112-2. And overwrite.

例えば、図31の画像が、一意に決定しないことが指摘されている状況では、操作者は、比較対象画像範囲指示部502において、もう少し水平方向に広い範囲の比較対象画像範囲をマウスで指定することにより、図37のような比較対象画像を得る。   For example, in a situation where it is pointed out that the image in FIG. 31 is not uniquely determined, the operator designates a comparative image range that is wider in the horizontal direction with the mouse in the comparative image range instruction unit 502. Thus, a comparison target image as shown in FIG. 37 is obtained.

シナリオ事前修正部502での修正作業が完了すると、また自動的に、シナリオ事前チェック部501が起動され、ステップS34に戻り、上記で修正した操作シナリオのステップが、比較対象画像が一意に特定されるかを判定する。   When the correction work in the scenario pre-correction unit 502 is completed, the scenario pre-check unit 501 is automatically activated and the process returns to step S34, and the step of the operation scenario corrected above uniquely identifies the comparison target image. Judge whether or not.

次に、ステップS36では、シナリオ事前チェック部501は、シナリオ記憶部112−2内の操作シナリオの全ステップの判定を完了したか否かを判定し、完了した場合には、処理を終了する。完了していない場合には、シナリオ事前チェック部501は、ステップS37に進む。   Next, in step S36, the scenario preliminary check unit 501 determines whether or not the determination of all steps of the operation scenario in the scenario storage unit 112-2 has been completed, and if completed, ends the processing. If it has not been completed, the scenario pre-check unit 501 proceeds to step S37.

ステップS37では、シナリオ事前チェック部501は、シナリオ記憶部112−2内の操作シナリオの判定対象のステップを+1行更新し、ステップS33に戻る。   In step S37, the scenario preliminary checking unit 501 updates the operation scenario determination target step in the scenario storage unit 112-2 by +1 row, and returns to step S33.

以上の操作によって、操作者は、操作シナリオを実行する以前に、より少ない労力でシナリオの誤りを修正することが可能となる。   With the above operation, the operator can correct the scenario error with less effort before executing the operation scenario.

上述したように本実施形態によれば、抽出された比較対象の画像情報を一意に決定できるか否かを判定し、否の場合、警告画面を表示する構成により、シナリオ実行時にエラーを生じる画像の指定を阻止でき、シナリオ修正の作業効率を向上できる。   As described above, according to the present embodiment, it is determined whether or not the extracted image information to be compared can be uniquely determined. If not, an image that causes an error during scenario execution is configured by displaying a warning screen. Designation can be prevented, and the work efficiency of scenario correction can be improved.

なお、本実施形態は、図38に示す手順に限らず、例えば図39に示すように、全てのステップをチェックした後に、エラーに該当するステップを修正するように変形してもよい。すなわち、ステップS35に代えて、ステップS35aでは、該当ステップを赤く表示してステップS36に進む。なお、ステップS35aは赤く表示する場合に限らず、任意の色や印又は点滅表示等のように、該当ステップを区別可能な表示であれば適用可能である。さらに、ステップS35aは表示を変える代わりに、エラーに該当するステップの番号やそれと特定できる情報(タイトル)などをリストとして表示しても良い。また、ステップS36の判定の結果、全ステップを判定完了した場合、ステップS38に進む。ステップS38では、シナリオ事前修正部502が自動的に起動され、ステップS35aで赤く表示された該当ステップについて、操作者がシナリオの修正をするためのユーザーインターフェースを提供する。ステップS38において、全ての該当ステップの操作シナリオが修正されたとき、シナリオ事前修正部502は処理を終了する。   Note that the present embodiment is not limited to the procedure shown in FIG. 38, and for example, as shown in FIG. 39, after checking all the steps, the steps corresponding to the error may be modified. That is, instead of step S35, in step S35a, the corresponding step is displayed in red, and the process proceeds to step S36. Note that step S35a is not limited to display in red, but can be applied to any display that can distinguish the corresponding step, such as an arbitrary color, mark, or blinking display. Further, in step S35a, instead of changing the display, the number of the step corresponding to the error or information (title) that can be identified with it may be displayed as a list. On the other hand, if it is determined in step S36 that all steps have been completed, the process proceeds to step S38. In step S38, the scenario pre-correction unit 502 is automatically activated to provide a user interface for the operator to correct the scenario for the corresponding step displayed in red in step S35a. In step S38, when the operation scenarios of all corresponding steps are corrected, the scenario pre-correction unit 502 ends the process.

また、本実施形態は、チェックする対象を全てのステップとせず、1個または複数のステップのみを対象としても良い。   Further, in the present embodiment, not all the steps to be checked may be checked, but only one or a plurality of steps may be targeted.

対象とするべきステップの選定方法は、特に限定されるものではない。例えば、操作者が明示的に対象ステップを指定しても良いし、シナリオ事前チェック/修正システム50がシナリオ中のステップを順にチェックしていき、特定の数だけエラーが発見されるまでのステップの集合としても良い。   The method for selecting the steps to be targeted is not particularly limited. For example, the operator may explicitly specify the target step, or the scenario pre-check / correction system 50 sequentially checks the steps in the scenario until a specific number of errors are found. It is good also as a set.

また、上記各実施形態は、負荷試験に適用する場合に限定されず、例えば、機能試験、監視又は情報収集などのように、GUI機能を持つアプリケーションを自動操作する任意の用途に適用でき、同様の作用効果を得ることができる。
例えば機能試験に適用する場合を述べる。ソフトウェア開発の過程において、開発対象のソフトウェアがGUI機能を持つ場合、GUI操作に対するソフトウェアの挙動を検証する、所謂、機能試験が実施される。各実施形態は、この機能試験の際に、操作者に代わってGUIを操作するツールの用途に適用できる。これに加え、機能試験の実施中、ソフトウェアのバグによる動作異常が発生することがある。この動作異常がソフトウェア内部の処理とGUI操作との微妙なタイミングによって生じる場合、所定のGUI操作を繰り返し実行して動作異常を再現させる必要がある。このような機能試験中のGUI操作の繰り返し実行にも、各実施形態を同様に適用できる。
Further, each of the above embodiments is not limited to the case where it is applied to a load test. For example, it can be applied to any application for automatically operating an application having a GUI function, such as a function test, monitoring, or information collection. The effect of this can be obtained.
For example, the case where it applies to a functional test is described. In the process of software development, when the software to be developed has a GUI function, a so-called function test is performed to verify the behavior of the software with respect to the GUI operation. Each embodiment can be applied to the use of a tool for operating a GUI on behalf of an operator during the function test. In addition, abnormal operation may occur due to software bugs during functional testing. When this operation abnormality occurs due to delicate timing between processing in the software and GUI operation, it is necessary to reproduce the operation abnormality by repeatedly executing a predetermined GUI operation. Each embodiment can be similarly applied to the repeated execution of the GUI operation during such a function test.

次に、監視に適用する場合を述べる。遠隔にあるWWW(world wide web)ブラウザのGUIを定期的に操作して監視対象のWWWサーバにアクセスし、このアクセス結果の検証により、当該WWWサーバが正常に運用されているか否かを定期的に監視する場合がある。このような監視の際に、WWWブラウザのGUI機能を操作者に代わって定期的に自動操作する用途にも各実施形態を適用できる。   Next, the case of applying to monitoring will be described. The remote WWW (world wide web) browser GUI is periodically operated to access the WWW server to be monitored, and by checking the access result, it is periodically determined whether the WWW server is operating normally. You may want to monitor. In such monitoring, each embodiment can be applied to a use in which the GUI function of the WWW browser is automatically operated periodically instead of the operator.

同様に、情報収集に適用する場合を述べる。遠隔のWWWサーバからWWWブラウザのGUIに定期的にアクセスし、WWWブラウザから定期的に情報を収集する場合がある。このような情報収集の際に、WWWブラウザのGUIを操作者に代わって定期的に自動操作する用途にも各実施形態を適用できる。   Similarly, a case where it is applied to information collection will be described. In some cases, a remote WWW server periodically accesses the GUI of the WWW browser and periodically collects information from the WWW browser. When collecting such information, each embodiment can be applied to a purpose of automatically operating the GUI of the WWW browser on behalf of the operator on a regular basis.

上述した用途以外にも、GUI機能を持つアプリケーションを、操作者に代わって操作する全ての用途において、上記各実施形態を適用することができる。   In addition to the applications described above, the above embodiments can be applied to all applications in which an application having a GUI function is operated on behalf of the operator.

また、上記実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納して頒布することもできる。   In addition, the method described in the above embodiment includes a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a magneto-optical disk (MO) as programs that can be executed by a computer. ), And can be distributed in a storage medium such as a semiconductor memory.

また、この記憶媒体としては、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であっても良い。   In addition, as long as the storage medium can store a program and can be read by a computer, the storage format may be any form.

また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が上記実施形態を実現するための各処理の一部を実行しても良い。   In addition, an OS (operating system) running on a computer based on an instruction of a program installed in the computer from a storage medium, MW (middleware) such as database management software, network software, and the like realize the above-described embodiment. A part of each process may be executed.

さらに、本発明における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。   Further, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

また、記憶媒体は1つに限らず、複数の媒体から上記実施形態における処理が実行される場合も本発明における記憶媒体に含まれ、媒体構成は何れの構成であっても良い。   Further, the number of storage media is not limited to one, and the case where the processing in the above embodiment is executed from a plurality of media is also included in the storage media in the present invention, and the media configuration may be any configuration.

尚、本発明におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、上記実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。   The computer according to the present invention executes each process in the above-described embodiment based on a program stored in a storage medium, and is a single device such as a personal computer or a system in which a plurality of devices are connected to a network. Any configuration may be used.

また、本発明におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の機能を実現することが可能な機器、装置を総称している。   In addition, the computer in the present invention is not limited to a personal computer, but includes an arithmetic processing device, a microcomputer, and the like included in an information processing device, and is a generic term for devices and devices that can realize the functions of the present invention by a program. .

なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の第1の実施形態に係る、負荷試験を行うシステム全体の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an entire system that performs a load test according to a first embodiment of the present invention. 上記第1の実施形態に係る負荷発生システムの構成を示すブロック図である。It is a block diagram which shows the structure of the load generation system which concerns on the said 1st Embodiment. 上記第1の実施形態に係る比較対象特定部の構成を示すブロック図である。It is a block diagram which shows the structure of the comparison object specific | specification part which concerns on the said 1st Embodiment. 上記第1の実施形態に係る、クライアントアプリケーションが画面に表示している画像情報の具体例を示す図である。It is a figure which shows the specific example of the image information which the client application based on the said 1st Embodiment is displaying on the screen. 上記第1の実施形態に係るスケジュール表示画面の階層例を示す図である。It is a figure which shows the hierarchy example of the schedule display screen which concerns on the said 1st Embodiment. 上記第1の実施形態に係るスケジュール表示画面の座標軸を示す図である。It is a figure which shows the coordinate axis of the schedule display screen which concerns on the said 1st Embodiment. 上記第1の実施形態に係る操作シナリオの一部記述例を示す図である。It is a figure which shows the example of a partial description of the operation scenario which concerns on the said 1st Embodiment. 上記第1の実施形態に係る画面遷移判定画像の具体例を示す図である。It is a figure which shows the specific example of the screen transition determination image which concerns on the said 1st Embodiment. 上記第1の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 1st Embodiment. 上記第1の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 1st Embodiment. 上記第1の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 1st Embodiment. 本発明の第2の実施形態に係る、シナリオを作成するシステム全体の構成を示すブロック図である。It is a block diagram which shows the structure of the whole system which produces the scenario based on the 2nd Embodiment of this invention. 上記第2の実施形態に係るシナリオ生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the scenario generation system which concerns on the said 2nd Embodiment. 上記第2の実施形態に係る処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which concerns on the said 2nd Embodiment. 上記第2の実施形態に係る処理の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the process which concerns on the said 2nd Embodiment. 上記第2の実施形態に係る処理の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the process which concerns on the said 2nd Embodiment. 本発明の第3の実施形態に係る複数のウィンドウ画面の具体例を示す図である。It is a figure which shows the specific example of the several window screen which concerns on the 3rd Embodiment of this invention. 上記第3の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 3rd Embodiment. 上記第3の実施形態に係る複数のウィンドウ画面の具体例を示す図である。It is a figure which shows the specific example of the several window screen which concerns on the said 3rd Embodiment. 上記第3の実施形態に係るスケジュール表示画面の具体例を示す図である。It is a figure which shows the specific example of the schedule display screen which concerns on the said 3rd Embodiment. 上記第3の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 3rd Embodiment. 上記第3の実施形態に係る抽出範囲の具体例を示す図である。It is a figure which shows the specific example of the extraction range which concerns on the said 3rd Embodiment. 上記第3の実施形態に係る抽出範囲の具体例を示す図である。It is a figure which shows the specific example of the extraction range which concerns on the said 3rd Embodiment. 上記第3の実施形態に係るシナリオ生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the scenario generation system which concerns on the said 3rd Embodiment. 上記第3の実施形態に係る抽出範囲の具体例を示す図である。It is a figure which shows the specific example of the extraction range which concerns on the said 3rd Embodiment. 本発明の第4の実施形態に係るシナリオ生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the scenario generation system which concerns on the 4th Embodiment of this invention. 上記第4の実施形態に係る画面全体画像情報、ウィンドウ範囲情報及び重なり範囲情報の具体例を示す図である。It is a figure which shows the specific example of the whole screen image information, window range information, and overlapping range information which concern on the said 4th Embodiment. 上記第4の実施形態に係る画面全体画像情報、ウィンドウ範囲情報及び重なり範囲情報の具体例を示す図である。It is a figure which shows the specific example of the whole screen image information, window range information, and overlapping range information which concern on the said 4th Embodiment. 上記第4の実施形態に係る画面全体画像情報、ウィンドウ範囲情報及び重なり範囲情報の具体例を示す図である。It is a figure which shows the specific example of the whole screen image information, window range information, and overlapping range information which concern on the said 4th Embodiment. 上記第4の実施形態に係る画面全体画像情報、ウィンドウ範囲情報及び重なり範囲情報の具体例を示す図である。It is a figure which shows the specific example of the whole screen image information, window range information, and overlapping range information which concern on the said 4th Embodiment. 本発明の第5の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the 5th Embodiment of this invention. 上記第5の実施形態に係るシナリオ事前チェック/修正システム及びその周辺構成を示す模式図である。It is a schematic diagram which shows the scenario prior check / correction system which concerns on the said 5th Embodiment, and its periphery structure. 上記第5の実施形態に係るシナリオ生成システムとシナリオ事前チェック/修正システムとの関係を示すブロック図である。It is a block diagram which shows the relationship between the scenario production | generation system which concerns on the said 5th Embodiment, and a scenario prior check / correction system. 上記第5の実施形態に係る操作シナリオの一部記述例を示す図である。It is a figure which shows the example of a part description of the operation scenario which concerns on the said 5th Embodiment. 上記第5の実施形態に係るシナリオ事前チェック部の構成を示すブロック図である。It is a block diagram which shows the structure of the scenario prior check part which concerns on the said 5th Embodiment. 上記第5の実施形態に係るシナリオ事前修正部の構成を示すブロック図である。It is a block diagram which shows the structure of the scenario prior correction part which concerns on the said 5th Embodiment. 上記第5の実施形態に係る比較対象画像の具体例を示す図である。It is a figure which shows the specific example of the comparison target image which concerns on the said 5th Embodiment. 上記第5の実施形態に係る処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which concerns on the said 5th Embodiment. 上記第5の実施形態に係る処理の手順の変形例を示すフローチャートである。It is a flowchart which shows the modification of the procedure of the process which concerns on the said 5th Embodiment.

符号の説明Explanation of symbols

1…情報端末(PC)、2…サーバ、3…操作者、10…負荷発生システム、11制御部、12…画面遷移判定部、13…比較対象特定部、14…操作イベント発生部、15…画像情報取得部、20…クライアントアプリケーション実行部、30…シナリオ生成システム、40…オペレーティングシステム(OS)実行部、111…操作実行制御部、112…操作シナリオ、131…比較対象特定制御部、132…比較対象判定部、133…画像比較部、134…相対位置関係分析部、302…シナリオ生成部、303…比較対象範囲抽出部、304…形状・サイズ変化部、305…マッチング判定部、308…イベント検出部、309…イベント記録部、310…画面画像記録部、311…画面画像記録指示部。   DESCRIPTION OF SYMBOLS 1 ... Information terminal (PC), 2 ... Server, 3 ... Operator, 10 ... Load generation system, 11 control part, 12 ... Screen transition determination part, 13 ... Comparison target specific part, 14 ... Operation event generation part, 15 ... Image information acquisition unit, 20 ... client application execution unit, 30 ... scenario generation system, 40 ... operating system (OS) execution unit, 111 ... operation execution control unit, 112 ... operation scenario, 131 ... comparison target specifying control unit, 132 ... Comparison target determination unit, 133 ... Image comparison unit, 134 ... Relative positional relationship analysis unit, 302 ... Scenario generation unit, 303 ... Comparison target range extraction unit, 304 ... Shape / size change unit, 305 ... Matching determination unit, 308 ... Event Detection unit, 309 ... event recording unit, 310 ... screen image recording unit, 311 ... screen image recording instruction unit.

Claims (9)

操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、
前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、
前記操作画面上の操作が前記アプリケーションプログラムに対する操作とは別の前記操作シナリオを生成するための操作であって前記イベント情報が位置座標を含む抽出範囲の決定指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を前記位置座標を中心とした既定の長方形枠の対角線をなす両方の頂点の座標で示す抽出範囲情報を決定する抽出範囲決定手段と、
前記抽出範囲情報に基づき、前記比較対象の画像の抽出範囲を示す前記長方形枠を前記操作画面上に表示する抽出範囲表示手段と、
前記操作画面上の操作が前記操作シナリオを生成するための操作であって前記イベント情報が前記抽出範囲の決定指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値のうち、前記抽出範囲情報で示される前記長方形枠の範囲内にある座標値をもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し記憶する画像取得手段と、
前記記憶したイベント情報のうち、前記操作画面上の操作が前記アプリケーションプログラムに対する操作に伴い発生するイベント情報、及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段と
を備えたことを特徴とするシナリオ生成装置。
The target application program with the display of the operation screen, the operation screen in the operation target image obtained by cutting out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A scenario generation device that generates an operation scenario describing a procedure for generating an operation event,
Event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen;
When the operation on the operation screen is an operation for generating the operation scenario different from the operation for the application program and the event information is an instruction to determine an extraction range including position coordinates, based on the event information, Extraction range determination means for determining extraction range information indicating the range of extracting the image to be compared with the coordinates of both vertices forming a diagonal line of a predetermined rectangular frame centered on the position coordinate ;
Based on the extraction range information, an extraction range display means for displaying the rectangular frame indicating the extraction range of the comparison target image on the operation screen;
When the operation on the operation screen is an operation for generating the operation scenario and the event information is a recording instruction following the instruction to determine the extraction range, an entire image on the operation screen is based on the event information. Image acquisition for extracting and storing the comparison target image information from the image information of the entire image based on the coordinate values within the rectangular frame indicated by the extraction range information among the coordinate values of the image information Means,
A scenario generation unit configured to generate the operation scenario based on event information generated when an operation on the operation screen is performed on the application program among the stored event information and the image information to be compared; A scenario generation device characterized by that.
請求項1に記載のシナリオ生成装置において、
前記表示された抽出範囲に対して入力された拡大又は縮小指示に応じて、当該表示された抽出範囲を拡大又は縮小するように前記抽出範囲情報を変更する抽出範囲変更手段を更に備えたことを特徴とするシナリオ生成装置。
The scenario generation device according to claim 1,
The apparatus further comprises extraction range changing means for changing the extraction range information so as to enlarge or reduce the displayed extraction range in response to an enlargement or reduction instruction input to the displayed extraction range. A feature scenario generator.
操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、
前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段と、
前記操作画面上の操作が前記アプリケーションプログラムに対する操作とは別の前記操作シナリオを生成するための操作であって前記イベント情報が位置座標を含む抽出範囲の決定指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を前記位置座標を中心とした既定の長方形枠の対角線をなす両方の頂点の座標で示す抽出範囲情報を決定する抽出範囲決定手段と、
前記操作画面上の操作が前記操作シナリオを生成するための操作であって前記イベント情報が前記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値のうち、前記抽出範囲情報で示される前記長方形枠の範囲内にある座標値をもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し記憶する画像取得手段と、
前記記憶したイベント情報のうち、前記操作画面上の操作が前記アプリケーションプログラムに対する操作に伴い発生するイベント情報、及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段と
を備えており、
前記画像取得手段は、
前記操作画面上に複数のウィンドウ画面が表示されている場合、前記記録指示に基づき、当該各ウィンドウ画面の範囲及び重なり順序をそれぞれ示すウィンドウ範囲情報及び重なり順序情報を記憶するウィンドウ範囲記憶手段と、
前記抽出範囲の決定指示に含まれる位置座標と、前記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応するウィンドウ範囲情報を選択するウィンドウ選択手段と、
前記ウィンドウ選択手段により選択したウィンドウ範囲情報と、前記抽出範囲情報との共通範囲を示す共通範囲情報を抽出する共通範囲抽出手段と、
前記抽出範囲情報の値を前記共通範囲情報の値に変更する抽出範囲変更手段と、
前記変更された値の抽出範囲情報に基づいて、前記比較対象の画像情報を抽出し記憶する画像抽出記憶手段と、
を備えたことを特徴とするシナリオ生成装置。
The target application program with the display of the operation screen, the operation screen in the operation target image obtained by cutting out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A scenario generation device that generates an operation scenario describing a procedure for generating an operation event,
Event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen;
When the operation on the operation screen is an operation for generating the operation scenario different from the operation for the application program and the event information is an instruction to determine an extraction range including position coordinates, based on the event information, Extraction range determination means for determining extraction range information indicating the range of extracting the image to be compared with the coordinates of both vertices forming a diagonal line of a predetermined rectangular frame centered on the position coordinate ;
When the operation on the operation screen is an operation for generating the operation scenario and the event information is a recording instruction following the instruction of the extraction range, the entire image on the operation screen is based on the event information. Image acquisition means for extracting and storing the comparison target image information from the image information of the whole image based on the coordinate value within the rectangular frame indicated by the extraction range information among the coordinate values of the image information When,
A scenario generation unit configured to generate the operation scenario based on event information generated when an operation on the operation screen is performed on the application program among the stored event information and the image information to be compared; And
The image acquisition means includes
When a plurality of window screens are displayed on the operation screen, based on the recording instruction, window range storage means for storing window range information and overlap order information indicating the range of each window screen and the overlap order, respectively,
Based on the position coordinates included in the extraction range determination instruction, the window range information, and the overlapping order information, the window range information corresponding to the overlapping order information indicating the highest rank among the window range information including the position coordinates. A window selection means for selecting
Common range extraction means for extracting common range information indicating a common range between the window range information selected by the window selection means and the extraction range information;
Extraction range changing means for changing the value of the extraction range information to the value of the common range information;
Image extraction storage means for extracting and storing the image information to be compared based on the extraction range information of the changed value;
A scenario generation device comprising:
請求項3に記載のシナリオ生成装置において、
前記抽出範囲変更手段に代えて、
前記抽出範囲の決定指示に含まれる位置座標と、前記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含まず前記抽出範囲の一部を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応する背景ウィンドウ範囲情報を選択する背景ウィンドウ選択手段と、
前記共通範囲情報が示す共通範囲を含みつつ、前記背景ウィンドウ範囲情報が示すウィンドウ画面の範囲に含まれないように移動させた抽出範囲を示す抽出範囲情報を抽出する抽出範囲移動手段と、
前記決定した抽出範囲情報を前記移動後の抽出範囲情報に変更する変更手段と、
を備えたことを特徴とするシナリオ生成装置。
The scenario generation device according to claim 3,
Instead of the extraction range changing means,
Based on the position coordinates included in the extraction range determination instruction, the window range information, and the overlapping order information, the highest position is indicated among the window range information not including the position coordinates and including a part of the extraction range. Background window selection means for selecting background window range information corresponding to the overlapping order information;
Extraction range moving means for extracting extraction range information indicating an extraction range that is moved so as not to be included in the range of the window screen indicated by the background window range information while including the common range indicated by the common range information;
Changing means for changing the determined extraction range information to the extracted extraction range information;
A scenario generation device comprising:
操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成するシナリオ生成装置であって、
あるステップ番号に対し、前記操作画面上の操作に伴い発生するイベント情報、前記操作画面上の全体画像の画像情報、及び前記操作画面から抽出された前記比較対象の画像情報、を互いに関連付けてなる前記操作シナリオを記憶する記憶手段と、
前記記憶手段内の操作シナリオから、あるステップ番号に対して全体画像の画像情報及び比較対象の画像情報をそれぞれ抽出する画像抽出手段と、
前記画像抽出手段により抽出された全体画像の画像情報の中で、前記画像抽出手段により抽出された比較対象の画像情報と合致する部分が一箇所だけあるか否かを判定する判定手段と、
前記判定の結果、否の場合、当該否であることを表示する結果表示手段と、
を備えたことを特徴とするシナリオ生成装置。
The target application program with the display of the operation screen, the operation screen in the operation target image to cut out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A scenario generation device that generates an operation scenario describing a procedure for generating an operation event,
For a certain step number, event information generated with the operation on the operation screen, comprising in association image information of the entire image on the operation screen, and the image information, the comparison extracted from the operation screen each other Storage means for storing the operation scenario;
Image extraction means for extracting the image information of the entire image and the image information of the comparison object for a certain step number from the operation scenario in the storage means;
In the image information of the entire image extracted by the image extracting means, determining means for determining the image information matching part one place Dakea Luke not to be compared, which is extracted by the image extracting unit,
If the result of the determination is NO, a result display means for displaying that the result is NO,
A scenario generation device comprising:
請求項5に記載のシナリオ生成装置において、
前記否であることが表示されたステップ番号に対し、前記操作シナリオから全体画像の画像情報を抽出して当該全体画像を表示する全体画像抽出表示手段と、
前記全体画像抽出表示手段による全体画像の表示中、当該全体画面上の操作であって前記アプリケーションプログラムに対する操作とは別の前記操作シナリオを生成するための操作に伴い発生するイベント情報が2つの位置座標を対角線の頂点にした再抽出範囲の抽出指示のとき、当該イベント情報に基づき、当該全体画面から比較対象の画像を抽出する範囲を前記2つの位置座標で示す抽出範囲情報を抽出する比較対象画像範囲抽出手段と、
前記操作画面上の操作が前記操作シナリオを生成するための操作であってイベント情報が前記再抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記表示中の全体画像の画像情報の座標値のうち、前記抽出された抽出範囲情報で示される前記2つの位置座標を対角線の頂点にした再抽出範囲に含まれる座標値をもとに当該全体画像の画像情報から比較対象の画像情報を抽出する比較対象画像抽出手段と、
前記全体画像抽出表示手段により全体画像の画像情報が表示された操作シナリオにおける比較対象の画像情報を、前記比較対象画像抽出手段により抽出された比較対象の画像情報により上書き更新する画像更新手段と、
を備えたことを特徴とするシナリオ生成装置。
The scenario generation device according to claim 5,
Whole image extraction and display means for extracting the image information of the whole image from the operation scenario and displaying the whole image for the step number displayed as the negative,
While displaying the whole image by the whole image extraction and display means, event information generated by the operation for generating the operation scenario different from the operation on the application program on the whole screen is at two positions. when extraction instruction of re-extraction range in which the coordinates in the diagonal of the apex, compared for extracting extraction range information shown on the basis of the event information, a range for extracting the image to be compared from the entire screen in the two coordinates Image range extraction means;
When the operation on the operation screen is an operation for generating the operation scenario and the event information is a recording instruction following the instruction of the re-extraction range, an image of the whole image being displayed based on the event information Among the coordinate values of the information , based on the coordinate values included in the re-extraction range in which the two position coordinates indicated by the extracted extraction range information are the vertices of diagonal lines, the image information of the entire image is compared. Comparison target image extraction means for extracting image information;
Image updating means for overwriting and updating the comparison target image information in the operation scenario in which the image information of the whole image is displayed by the whole image extraction display means with the comparison target image information extracted by the comparison target image extraction means;
A scenario generation device comprising:
操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成し且つ記憶手段を備えたシナリオ生成装置に用いられるプログラムであって、
前記シナリオ生成装置を、
前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段、
前記操作画面上の操作が前記アプリケーションプログラムに対する操作とは別の前記操作シナリオを生成するための操作であって前記イベント情報が位置座標を含む抽出範囲の決定指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を前記位置座標を中心とした既定の長方形枠の対角線をなす両方の頂点の座標で示す抽出範囲情報を決定する抽出範囲決定手段、
前記抽出範囲情報に基づき、前記比較対象の画像の抽出範囲を示す前記長方形枠を前記操作画面上に表示する抽出範囲表示手段、
前記操作画面上の操作が前記操作シナリオを生成するための操作であって前記イベント情報が前記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値のうち、前記抽出範囲情報で示される前記長方形枠の範囲内にある座標値をもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し前記記憶手段に書き込む画像取得手段、
前記記憶したイベント情報のうち、前記操作画面上の操作が前記アプリケーションプログラムに対する操作に伴い発生するイベント情報、及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段、
として機能させるためのプログラム。
The target application program with the display of the operation screen, the operation screen in the operation target image obtained by cutting out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A program used for a scenario generation apparatus that generates an operation scenario describing a procedure for generating an operation event and includes a storage means,
The scenario generation device;
Event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen;
When the operation on the operation screen is an operation for generating the operation scenario different from the operation for the application program and the event information is an instruction to determine an extraction range including position coordinates, based on the event information, Extraction range determination means for determining extraction range information indicating the range of extracting the image to be compared with the coordinates of both vertices forming a diagonal line of a predetermined rectangular frame centered on the position coordinate ;
Extraction range display means for displaying the rectangular frame indicating the extraction range of the comparison target image on the operation screen based on the extraction range information;
When the operation on the operation screen is an operation for generating the operation scenario and the event information is a recording instruction following the instruction of the extraction range, the entire image on the operation screen is based on the event information. Of the coordinate values of the image information, the image information to be compared is extracted from the image information of the whole image based on the coordinate values within the range of the rectangular frame indicated by the extraction range information , and is written in the storage means. Image acquisition means,
Of the stored event information, scenario generation means for generating the operation scenario based on event information generated when an operation on the operation screen is performed on the application program, and the image information to be compared,
Program to function as.
操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成し且つ記憶手段を備えたシナリオ生成装置に用いられるプログラムであって、
前記シナリオ生成装置を、
前記操作画面上の操作に伴い発生するイベント情報を採取し記憶するイベント情報取得手段、
前記操作画面上の操作が前記アプリケーションプログラムに対する操作とは別の前記操作シナリオを生成するための操作であって前記イベント情報が位置座標を含む抽出範囲の決定指示のとき、当該イベント情報に基づき、前記比較対象の画像を抽出する範囲を前記位置座標を中心とした既定の長方形枠の対角線をなす両方の頂点の座標で示す抽出範囲情報を決定する抽出範囲決定手段、
前記操作画面上の操作が前記操作シナリオを生成するための操作であって前記イベント情報が前記抽出範囲の指示に続く記録指示のとき、当該イベント情報に基づいて、前記操作画面上の全体画像の画像情報の座標値のうち、前記抽出範囲情報で示される前記長方形枠の範囲内にある座標値をもとに前記全体画像の画像情報から前記比較対象の画像情報を抽出し前記記憶手段に書き込む画像取得手段、
前記記憶したイベント情報のうち、前記操作画面上の操作が前記アプリケーションプログラムに対する操作に伴い発生するイベント情報、及び前記比較対象の画像情報をもとに前記操作シナリオを生成するシナリオ生成手段、
として機能させ、
前記画像取得手段は、
前記操作画面上に複数のウィンドウ画面が表示されている場合、前記記録指示に基づき、当該各ウィンドウ画面の範囲及び重なり順序をそれぞれ示すウィンドウ範囲情報及び重なり順序情報を記憶するウィンドウ範囲記憶手段と、
前記抽出範囲の決定指示に含まれる位置座標と、前記ウィンドウ範囲情報及び重なり順序情報とに基づいて、当該位置座標を含むウィンドウ範囲情報のうち、最上位を示す重なり順序情報に対応するウィンドウ範囲情報を選択するウィンドウ選択手段と、
前記ウィンドウ選択手段により選択したウィンドウ範囲情報と、前記抽出範囲情報との共通範囲を示す共通範囲情報を抽出する共通範囲抽出手段と、
前記抽出範囲情報の値を前記共通範囲情報の値に変更する抽出範囲変更手段と、
前記変更された値の抽出範囲情報に基づいて、前記比較対象の画像情報を抽出し記憶する画像抽出記憶手段と、
を含むプログラム。
The target application program with the display of the operation screen, the operation screen in the operation target image obtained by cutting out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A program used for a scenario generation apparatus that generates an operation scenario describing a procedure for generating an operation event and includes a storage means,
The scenario generation device;
Event information acquisition means for collecting and storing event information generated in response to an operation on the operation screen;
When the operation on the operation screen is an operation for generating the operation scenario different from the operation for the application program and the event information is an instruction to determine an extraction range including position coordinates, based on the event information, Extraction range determination means for determining extraction range information indicating the range of extracting the image to be compared with the coordinates of both vertices forming a diagonal line of a predetermined rectangular frame centered on the position coordinate ;
When the operation on the operation screen is an operation for generating the operation scenario and the event information is a recording instruction following the instruction of the extraction range, the entire image on the operation screen is based on the event information. Of the coordinate values of the image information, the image information to be compared is extracted from the image information of the whole image based on the coordinate values within the range of the rectangular frame indicated by the extraction range information , and is written in the storage means. Image acquisition means,
Of the stored event information, scenario generation means for generating the operation scenario based on event information generated when an operation on the operation screen is performed on the application program, and the image information to be compared,
Function as
The image acquisition means includes
When a plurality of window screens are displayed on the operation screen, based on the recording instruction, window range storage means for storing window range information and overlap order information indicating the range of each window screen and the overlap order, respectively,
Based on the position coordinates included in the extraction range determination instruction, the window range information, and the overlapping order information, the window range information corresponding to the overlapping order information indicating the highest rank among the window range information including the position coordinates. A window selection means for selecting
Common range extraction means for extracting common range information indicating a common range between the window range information selected by the window selection means and the extraction range information;
Extraction range changing means for changing the value of the extraction range information to the value of the common range information;
Image extraction storage means for extracting and storing the image information to be compared based on the extraction range information of the changed value;
Including programs.
操作画面の表示を伴うアプリケーションプログラムを対象に、前記操作画面内の操作対象の画像のうちの一部分を切り出した画像を含んで前記操作画面に比較される比較対象の画像に対応付けて操作イベントを発生する手順を記述した操作シナリオを生成し且つ記憶手段を備えたシナリオ生成装置に用いられるプログラムであって、
前記シナリオ生成装置を、
あるステップ番号に対し、前記操作画面上の操作に伴い発生するイベント情報、前記操作画面上の全体画像の画像情報、及び前記操作画面から抽出された前記比較対象の画像情報、を互いに関連付けてなる前記操作シナリオを前記記憶手段に記録する手段、
前記記憶手段内の操作シナリオから、あるステップ番号に対して全体画像の画像情報及び比較対象の画像情報をそれぞれ抽出する画像抽出手段、
前記画像抽出手段により抽出された全体画像の画像情報の中で、前記画像抽出手段により抽出された比較対象の画像情報と合致する部分が一箇所だけあるか否かを判定する判定手段、
前記判定の結果、否の場合、当該否であることを表示する結果表示手段、
として機能させるためのプログラム。
The target application program with the display of the operation screen, the operation screen in the operation target image to cut out a part component of the image only image pairs 応付 comparison object to be compared to the operation screen Nde free A program used for a scenario generation apparatus that generates an operation scenario describing a procedure for generating an operation event and includes a storage means,
The scenario generation device;
For a certain step number, event information generated with the operation on the operation screen, comprising in association image information of the entire image on the operation screen, and the image information, the comparison extracted from the operation screen each other Means for recording the operation scenario in the storage means;
Image extraction means for extracting the image information of the entire image and the image information of the comparison object for each step number from the operation scenario in the storage means;
The image in the image information of the entire image extracted by the extracting means, determining means whether the image information matching part one place Dakea Luke not to be compared, which is extracted by the image extracting unit,
If the result of the determination is NO, a result display means for displaying that the result is NO,
Program to function as.
JP2008066622A 2008-03-14 2008-03-14 Scenario generation apparatus and program Active JP4896909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008066622A JP4896909B2 (en) 2008-03-14 2008-03-14 Scenario generation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008066622A JP4896909B2 (en) 2008-03-14 2008-03-14 Scenario generation apparatus and program

Publications (2)

Publication Number Publication Date
JP2009223568A JP2009223568A (en) 2009-10-01
JP4896909B2 true JP4896909B2 (en) 2012-03-14

Family

ID=41240282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008066622A Active JP4896909B2 (en) 2008-03-14 2008-03-14 Scenario generation apparatus and program

Country Status (1)

Country Link
JP (1) JP4896909B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5622647B2 (en) * 2011-04-11 2014-11-12 株式会社東芝 Scenario generation device and scenario generation program
JP5931806B2 (en) * 2013-06-24 2016-06-08 日本電信電話株式会社 Automatic operation apparatus by image recognition, method and program thereof
US9811448B2 (en) * 2015-12-18 2017-11-07 Fujitsu Limited Event-driven software testing
WO2020202337A1 (en) * 2019-03-29 2020-10-08 三菱電機株式会社 Image generation device, test system, image generation method, and program
JP6910494B1 (en) * 2020-03-31 2021-07-28 株式会社 ディー・エヌ・エー Information processing program, information processing device and information processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3182111B2 (en) * 1997-03-31 2001-07-03 日立ソフトウエアエンジニアリング株式会社 Program test support device
JP2004287929A (en) * 2003-03-24 2004-10-14 Hitachi Information Systems Ltd Web page operation system, program and web data transmission system
JP2006268666A (en) * 2005-03-25 2006-10-05 Fujitsu Ltd Automatic test system with correction function, automatic test method, and program
JP2007102654A (en) * 2005-10-07 2007-04-19 Hitachi Software Eng Co Ltd Test script processing program
JP4295775B2 (en) * 2006-08-01 2009-07-15 株式会社日立情報システムズ GUI test support system and application program for test support

Also Published As

Publication number Publication date
JP2009223568A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
US10324828B2 (en) Generating annotated screenshots based on automated tests
JP4381436B2 (en) Scenario generation device and scenario generation program
CN110928772B (en) Test method and device
US9448908B2 (en) System and method for model based session management
US8813039B2 (en) Method and system for software defect reporting
US7627821B2 (en) Recording/playback tools for UI-based applications
US8645912B2 (en) System and method for use in replaying software application events
US9213625B1 (en) Method and apparatus for performing automated user-interface layout testing
US20170199809A1 (en) Graphical transaction model
US9135714B1 (en) Method and system for integrating a graphical user interface capture for automated test and retest procedures
US9904517B2 (en) System and method for automatic modeling of an application
US10019346B2 (en) Generating software test script from video
US9037913B2 (en) Dynamic event generation for user interface control
JP2012018583A (en) Software development support device and processing method thereof
JP4896909B2 (en) Scenario generation apparatus and program
WO2021129335A1 (en) Operation monitoring method and apparatus, operation analysis method and apparatus
JP2012103786A (en) Test support device, control method, and program
US7043669B2 (en) Simple scenario builder
KR101460860B1 (en) GUI Test apparatus using test scenario model based on states and the method thereof
US20190212987A1 (en) Content development device
JP2013054693A (en) Regression test support program and regression test support device
KR101166128B1 (en) Software testing device and method thereof
JP2009259275A (en) Scenario generation device, and scenario generation program
CN109684525B (en) Document display method and device, storage medium and test equipment
JP6781688B2 (en) Programs, information processing equipment and screen test systems

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111221

R150 Certificate of patent or registration of utility model

Ref document number: 4896909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350