WO2022070353A1 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
WO2022070353A1
WO2022070353A1 PCT/JP2020/037307 JP2020037307W WO2022070353A1 WO 2022070353 A1 WO2022070353 A1 WO 2022070353A1 JP 2020037307 W JP2020037307 W JP 2020037307W WO 2022070353 A1 WO2022070353 A1 WO 2022070353A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
unit
scenario
test
display
Prior art date
Application number
PCT/JP2020/037307
Other languages
French (fr)
Japanese (ja)
Inventor
良 近澤
颯太 山下
敬太 守屋
Original Assignee
オーティファイ株式会社
オーティファイ, インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーティファイ株式会社, オーティファイ, インコーポレーテッド filed Critical オーティファイ株式会社
Priority to PCT/JP2020/037307 priority Critical patent/WO2022070353A1/en
Publication of WO2022070353A1 publication Critical patent/WO2022070353A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software

Definitions

  • the present invention relates to an information processing system, an information processing method, and a program.
  • a operation verification device that identifies and displays a discrepancy between the previous test result data executed by the test program and the current test result data is disclosed (for example, Patent Document 1).
  • the operation verification device described in Patent Document 1 acquires a log in which the identification information of the object included in the web page to be confirmed to be operated and the combination of the data input by the data input operation for the object are recorded.
  • the operation verification device automatically executes a data input operation based on a log for a web page. As a result of the execution, the operation verification device compares the previous test result data with the current test result data, and outputs a comparison result image in which the inconsistent portion is identified and displayed. This makes it easy to compare and verify the output results in the operation verification test of the web page.
  • the information processing system is displayed on the display unit, which is changed from the first system screen according to the scenario generated based on the first system screen displayed on the display unit.
  • a discriminating unit that discriminates the second element changed from the first element constituting the first system screen on the second system screen and information indicating the discriminating result in the discriminating unit are displayed.
  • a scenario correction unit for modifying the first element in the scenario to the second element is provided based on the information regarding the operation input of the user.
  • the program according to one aspect of the present invention is displayed on the display unit modified from the first system screen according to a scenario generated based on the first system screen displayed on the display unit on the computer. 2
  • the second element changed from the first element constituting the first system screen on the second system screen is discriminated, and the discriminant result in which the second element is discriminated is determined. Displaying the information to be shown on the display unit, acquiring information regarding the user's operation input indicating that the second element is an element corresponding to the first element, and the acquired information regarding the determination result.
  • the modification of the first element in the scenario to the second element is executed.
  • the procedure including the changed system screen element can be reflected in the test scenario by a simple method.
  • FIG. 1 is a diagram showing a configuration of a test automation system 10.
  • the test automation system 10 includes, for example, a test automation server 100 and a user terminal 200.
  • the test automation server 100 and the user terminal 200 are connected via the network N.
  • the test automation system 10 provides a service for providing various information from the test automation server 100 to a plurality of user terminals 200 via the network N.
  • the test automation server 100 executes a system screen test according to a scenario (hereinafter referred to as a test scenario) for testing the function of the screen (hereinafter referred to as a system screen) displayed on the display unit 205a of the user terminal 200, for example. It is a device to do.
  • a test scenario for testing the function of the screen (hereinafter referred to as a system screen) displayed on the display unit 205a of the user terminal 200, for example. It is a device to do.
  • the test determines the changed element among the elements of the system screen to be tested.
  • the test automation server 100 receives a simple operation input by the user via the user terminal 200, and reflects the procedure including the determined element in the test scenario.
  • the system screen includes, for example, a web page displayed on the display unit 205a, a screen by a mobile application, and the like.
  • the test automation server 100 determines that the elements have been changed, for example, with respect to a test scenario for testing the function of a web page and a test scenario for testing the function of a screen by a mobile application operating on a mobile terminal or the like. It may have a function to reflect the included procedure.
  • the test automation server 100 includes, for example, a server computer, a personal computer (eg, desktop, laptop, tablet, etc.), a media computer platform (eg, cable, satellite set-top box, digital video recorder), a handheld computer device (eg, PDA). , E-mail client, etc.), or other types of computers, or communication platforms.
  • a server computer eg, desktop, laptop, tablet, etc.
  • a media computer platform eg, cable, satellite set-top box, digital video recorder
  • a handheld computer device eg, PDA
  • E-mail client etc.
  • the user terminal 200 is, for example, a device for displaying various information transmitted from the test automation server 100 on the display unit 205a.
  • the user terminal 200 receives an operation input from the user and transmits various information to the test automation server 100.
  • the user terminal 200 may be any information processing device (computer) that can realize the functions in each embodiment.
  • the user terminal 200 is, for example, a smartphone, a mobile phone (feature phone), a personal computer (for example, a desktop, a laptop, a tablet, etc.), a media computer platform (for example, a cable, a satellite set top box, a digital video recorder), a handheld computer. Includes devices (eg, PDA (Personal Digital Assistant), e-mail clients, etc.), wearable terminals (glass-type devices, watch-type devices, etc.), other types of computers, or communication platforms.
  • PDA Personal Digital Assistant
  • wearable terminals glasses-type devices, watch-type devices, etc.
  • other types of computers or communication platforms.
  • FIG. 2 is a diagram showing an outline of processing of the test automation system 10 according to the present embodiment.
  • steps S10 to S13 an outline of a process for creating a test scenario for testing the function of the system screen (hereinafter referred to as a scenario creation process) will be described.
  • steps S20 to S24 an outline of a process of executing a system screen test according to the test scenario and modifying the test scenario based on the executed result (hereinafter referred to as a scenario modification process) will be described.
  • the user terminal 200 sets test conditions on, for example, a setting screen (not shown) displayed on the display unit 205a.
  • a test condition for example, a system screen for creating a test scenario (hereinafter referred to as a first system screen) is displayed, for example, a browser type, an OS (Operating System) of a user terminal 200, and a user terminal 200.
  • the device specifications, the size of the display screen of the user terminal 200, and the like may be included.
  • the user terminal 200 may accept a URL (Uniform Resouce Locator) corresponding to the first system screen by inputting a user's operation on the setting screen displayed on the display unit 205a, for example.
  • URL Uniform Resouce Locator
  • step S11 the test automation server 100 generates information about the first system screen, for example, based on the setting information.
  • the test automation server 100 transmits information about the first system screen to the user terminal 200.
  • step S12 the user terminal 200 causes, for example, the display unit 205a to display the first system screen.
  • the user terminal 200 accepts an operation input by the user for the "record" button (see FIG. 7), the information regarding the operation input by the user after that (hereinafter referred to as operation information) is test-automated. Send to server 100.
  • step S13 the test automation server 100 creates a test scenario based on, for example, operation information.
  • the test automation server 100 stores the created test scenario in the storage unit 110.
  • the test automation system 10 creates a test scenario by inputting an operation to the first system screen by the user. Therefore, even a user who does not know how to create a test scenario by code can easily create a test scenario. In addition, since the time and effort of the user who creates the test code can be reduced, the man-hours required for creating the test scenario can be reduced.
  • step S20 the user terminal 200 opens, for example, the system screen provided by the test automation server 100, and specifies a test scenario.
  • the user terminal 200 transmits, for example, information indicating a designated test scenario (hereinafter referred to as scenario information) to the test automation server 100.
  • step S22 in the test automation server 100, for example, among the elements of the second system screen, the element of the first system screen (hereinafter referred to as the first element) is changed (hereinafter referred to as the second element). ) Is determined.
  • the test automation server 100 generates, for example, a screen that identifiable the second element.
  • the test automation server 100 transmits, for example, information about the generated screen to the user terminal 200.
  • the "information about the screen" is, for example, a code for displaying an image on a browser.
  • the user terminal 200 displays, for example, a screen that identifiable the second element on the display unit 205a based on the information about the screen. For example, when the user determines that the second element is an element corresponding to the first element, the user terminal 200 includes a procedure including the first element in the test scenario and a procedure including the second element by the operation input of the user.
  • a request for correction (hereinafter referred to as a correction request) is sent to the test automation server 100.
  • step S24 the test automation server 100 modifies the procedure including the first element in the test scenario to the procedure including the second element, for example, based on the modification request.
  • the test automation server 100 executes the process as, for example, the second system screen when the test scenario is modified based on the modification request as the first system screen when the next test scenario is executed.
  • the test automation server 100 is, for example, a storage unit 110, an acquisition unit 120, a scenario creation unit 130, a test execution unit 140, a discrimination unit 150, a scenario correction unit 160, a display processing unit 170, and a transmission unit 180. Including the functional part of.
  • the storage unit 110 includes, for example, scenario information D111, feature information D112, and test result information D113.
  • [Scenario content] is, for example, an item associated with the item of [Scenario ID] and including the content of the scenario registered by the user.
  • the test scenario is stored in the scenario information D111, for example, when the scenario creation process is executed by the test automation server 100.
  • FIG. 5 is a diagram showing an example of the feature information D112.
  • the feature information D112 may include, for example, [scenario ID], [step ID], [element ID], [class name], [position], and [text] items. .. Since the [scenario ID] is the same as the [scenario ID] of the scenario information D111, the description thereof will be omitted.
  • the [step ID] is, for example, an item associated with the item of the [scenario ID] and including the step ID which is an identification code of the operation input by the user.
  • the step ID is assigned to the operation input when the user's operation input is received, for example.
  • [Element ID] is, for example, an item associated with the item of [Scenario ID] and including an element ID which is an identification code of an element constituting the first system screen.
  • the element ID is assigned to each element, for example, when the scenario creation process is executed by the test automation server 100.
  • the [class name] is, for example, an item associated with the item of [element ID] and including the class name of the element constituting the first system screen.
  • the class name is specified, for example, when the scenario creation process is executed on the test automation server 100.
  • [Position] is, for example, an item associated with the item of [Element ID] and including the position of the element constituting the first system screen on the first system screen.
  • the location is specified, for example, when the scenario creation process is executed on the test automation server 100.
  • the [text] is, for example, an item associated with the item of the [element ID] and including the text indicated by the element constituting the first system screen.
  • the text is specified, for example, when the scenario creation process is executed on the test automation server 100.
  • FIG. 6 is a diagram showing an example of test result information D113.
  • the test result information D113 includes, for example, items of [user ID], [scenario ID], [date and time], [scenario content], [test result], and [correction history]. Since the items of [User ID], [Scenario ID], and [Scenario content] are the same as [User ID], [Scenario ID], and [Scenario content] of the scenario information D111, the description thereof will be omitted. However, in the item of [scenario content], for example, the content of the test scenario modified by the scenario modification unit 160 described later is input.
  • [Date and time] is, for example, an item associated with the item of [Scenario ID] and including the date and time when the test scenario is executed. The date and time are entered, for example, when the test scenario is executed.
  • [Test result] is, for example, an item associated with the item of [Scenario ID] and including a test result indicating the result of executing the test scenario. The test result is input, for example, as a result of executing the test scenario.
  • the [correction history] is, for example, an item associated with the item of [scenario ID] and including the content corrected based on the operation input of the user as a result of executing the test scenario.
  • the modification history is input, for example, when the test scenario is modified.
  • the scenario information D111, the feature information D112, and the test result information D113 stored in the storage unit 110 do not have to be stored in the test automation server 100, and are stored in, for example, a device different from the test automation server 100. You may be.
  • the test automation server 100 may acquire the scenario information D111, the feature information D112, and the test result information D113 from the apparatus.
  • the acquisition unit 120 acquires various information from other devices such as the user terminal 200.
  • the scenario creation unit 130 creates a test scenario for testing the function of the system screen, for example, based on the operation information related to the operation input by the user.
  • An example of a test scenario created for the first system screen will be described with reference to FIG. 7.
  • FIG. 7 is a diagram showing an example of the first system screen.
  • the first system screen is, for example, an inquiry form including elements E10 to E17.
  • the elements E10 to E14 are formed by, for example, a text box, and text is input by accepting a user's operation input.
  • the element E15 is, for example, a button for registering the inquiry contents by the information input to the elements E10 to E14.
  • the element E16 is, for example, an element provided in the footer of the first system screen and linked to, for example, a predetermined URL.
  • the element E17 is a button for starting the creation of the test scenario when the operation input by the user is received. That is, for example, when the scenario creation unit 130 receives an operation input by the user for the element E17, the text input to the element and the operation input by the user for the element after that are stored together with the order. Store in unit 110.
  • the operation input by the user is executed in the order of the elements E10 to E16 on the first system screen, and the test scenario is created in that order.
  • the discrimination unit 150 discriminates, for example, the second element in which the first element constituting the first system screen is changed in the second system screen tested according to the test scenario generated based on the first system screen.
  • FIG. 8 is a diagram showing an example of a second system screen including the second element.
  • the second system screen is composed of, for example, elements E20 to E26.
  • the required E20 to E25 are the same as those of E10 to E15 on the first system screen.
  • the element E26 is provided in the footer divided into columns of the second system screen, and is linked to a predetermined URL, for example. That is, in the present embodiment, the second system screen is, for example, a system screen in which the footer of the first system screen is modified.
  • the test is executed on the second system screen in which the position of the footer “career” (E26) is different from that in the first system screen in the discrimination unit 150 will be described.
  • the determination unit 150 identifies, for example, a procedure of a test scenario showing a degree of agreement that does not satisfy a predetermined threshold value.
  • the discriminating unit 150 identifies, for example, the first element of the first system screen included in the identified procedure.
  • the discriminating unit 150 refers to the feature information D112 and extracts a feature related to the first element (hereinafter, referred to as a first element feature).
  • the discriminating unit 150 for example, refers to the feature information D112 and extracts features related to the elements of the second system screen.
  • the "feature” may include, for example, at least one of an identification code, a class name, a position on the system screen, and text in the elements constituting the system screen.
  • the discriminating unit 150 discriminates the second element of the second system screen corresponding to the first element, for example, based on the first element feature.
  • the discriminating unit 150 is, for example, a feature (hereinafter referred to as a second element feature) that satisfies a predetermined condition (hereinafter referred to as a first condition) with respect to the first element feature among the elements of the second system screen. ) Is determined as the second element.
  • the "first condition” is, for example, a condition that the index indicating identity with respect to the first element feature is the highest.
  • the discrimination unit 150 may be configured by, for example, a neural network.
  • the discrimination unit 150 generates information (hereinafter, referred to as discrimination result information) indicating the result of discriminating the second element.
  • the discrimination unit 150 stores, for example, the discrimination result information in the test result information D113.
  • the scenario correction unit 160 is, for example, a first test scenario based on information regarding a user's operation input (hereinafter, referred to as operation input information) indicating that the determined second element is an element corresponding to the first element. Modify the procedure including the element to the procedure including the second element. That is, for example, the scenario correction unit 160 rewrites the procedure including the first element to the procedure including the second element with respect to the content of the item of [scenario content] in the scenario information D111. Further, the scenario correction unit 160 stores, for example, the rewritten test scenario in the test result information D113. This eliminates the need for the user to manually rewrite the test scenario, so that the test automation system 10 can enhance the convenience of the user.
  • the display processing unit 170 generates, for example, various screens.
  • the display processing unit 170 executes, for example, a process for displaying the generated screen on the display unit 205a of the user terminal 200 (hereinafter, referred to as a display process).
  • the display processing unit 170 includes, for example, a scenario screen T1 in which an image including an element of each procedure of a test scenario is arranged according to the procedure, an image including an element showing a test result, and a text indicating an operation input related to the image.
  • a test result screen T2 and an element comparison screen T3 in which the first element and the second element are displayed in a comparable manner are generated.
  • FIG. 9 is a diagram showing an example of the scenario screen T1.
  • the display processing unit 170 generates the scenario screen T1 with reference to, for example, the scenario information D111.
  • the scenario screen T1 includes, for example, a scenario element image T11 corresponding to each procedure and a scenario text data T12 showing test contents corresponding to the scenario element image T11.
  • the test automation system 10 by displaying the scenario screen T1 on the display unit 205a of the user terminal 200, the user can easily visually confirm the test scenario, so that the convenience of the user can be improved.
  • the scenario element image T11 is, for example, an image including the first element for each procedure obtained by extracting a part of the first system screen. Specifically, for example, in the scenario element image T11b, the element E10 (first element) in which "Yamada" is input is included. By displaying the scenario element image T11, the user can visually confirm the procedure of the scenario, so that the convenience of the user can be improved.
  • the scenario text data T12 is, for example, data for displaying the user's operation input for the first element in text. For example, when the user's operation input is an operation input for inputting text in the first element, scenario text data T12 indicating that the text has been input is generated (for example, scenario text data T12b). Further, for example, when the operation input of the user is an operation input for selecting the text displayed in the first element by pull-down or the like, the scenario text data T12 indicating that the text is selected is generated. Further, when the operation input of the user is an operation input for clicking the first element, scenario text data T12 indicating that the first element is clicked is generated (for example, scenario text data T12g).
  • the scenario text data T12 is arranged so as to correspond to, for example, the scenario element image T11.
  • the scenario text data T12b is arranged so that the text "Enter Yamada" is attached to the lower side of the scenario element image T11b on the paper.
  • FIG. 10 is a diagram showing an example of the test result screen T2.
  • the display processing unit 170 generates the test result screen T2 with reference to, for example, the test result information D113.
  • the test result screen T2 is, for example, a test element image T21 corresponding to each procedure of the test scenario of the executed test and a test showing the contents executed in the test corresponding to the test element image T12.
  • the text data T22 and the confirmation request content T23 for identifiablely displaying the test element image T21 including the second element determined by the determination unit 150 to be changed are included.
  • the test automation system 10 by displaying the test result screen T2 on the display unit 205a of the user terminal 200, the user can easily visually confirm the test result for the second system screen, so that the convenience of the user can be improved. ..
  • the test element screen T21 is, for example, a screen including a second element for each procedure obtained by extracting a part of the second system screen. Specifically, for example, in the test element image T21b, the element E20 (second element) in which "Yamada" is input is included. By generating the test element image T21, the user can visually confirm the result of the test, so that the convenience of the user can be improved.
  • FIG. 11 is a diagram showing an example of the element comparison screen T3.
  • the display processing unit 170 generates an element comparison screen T3 with reference to, for example, the test result information D113.
  • the element comparison screen T3 includes, for example, a captured image T31 showing past test results, a captured image T32 showing the current test results, a first button T33, and a second button T34. ..
  • the element comparison screen T3 may include a first system screen instead of the captured image T31 showing the past test results, for example.
  • the captured image T31 is, for example, an image showing a successful system screen as a result of being tested in the past according to a test scenario. Further, the captured image T31 may be, for example, an image showing a successful system screen as a result of retesting after modifying the test scenario in the past.
  • the captured image T31 may be generated, for example, by attaching an object having a predetermined color (for example, the object T31a) to the element corresponding to the second element determined by the determination unit 150 in this test. ..
  • the "past" is, for example, the latest successful test.
  • the captured image T32 is, for example, an image showing a state in which an operation input according to a test scenario is executed for each element of the second system screen in this test.
  • the captured image T32 may be generated, for example, by attaching an object having a predetermined color (for example, the object T32a) to the second element determined by the determination unit 150 in this test.
  • the user visually easily recognizes the second element determined by the discriminating unit 150. Therefore, the convenience of the user can be improved.
  • the second button T34 is, for example, a button for modifying a procedure including the first element in a test scenario to a procedure different from the procedure including the second element.
  • the second button T34 is, for example, a button that does not cause the procedure including the first element in the test scenario to be modified by the procedure including the second element.
  • the second button T34 is displayed with the text "Failure". Specifically, for example, when the user terminal 200 receives an operation input by the user for the second button T34, the user terminal 200 requests a process of replacing the procedure including the first element in the test scenario with another procedure. The request is sent to the test automation server 100.
  • the transmission unit 180 transmits, for example, information about various image screens to the user terminal 200.
  • FIG. 12 is a diagram showing an example of the functional configuration of the user terminal 200 according to the present embodiment.
  • the user terminal 200 causes the display unit 205a to display various screens based on the information acquired from the test automation server 100, for example.
  • the user terminal 200 includes, for example, a storage unit 210, an acquisition unit 220, a display processing unit 230, and a functional unit of a transmission unit 240.
  • the storage unit 210 stores, for example, various types of information.
  • the acquisition unit 220 acquires, for example, information about various screens from the test automation server 100.
  • the display processing unit 230 causes the display unit 205a to display, for example, information on various acquired screens.
  • the transmission unit 240 transmits, for example, various information to the test automation server 100.
  • FIG. 13 is a flowchart showing a procedure of information processing of the test automation system 10 according to the present embodiment.
  • FIG. 13 as an example, not limited to, an information processing procedure for testing the second system screen shown in FIG. 8 according to the test scenario after the test scenario is created by the first system screen shown in FIG. Will be explained.
  • step S101 when the user terminal 200 receives a user's operation input for a button displayed on the display unit 205a for requesting test execution, the test automation server 100 tests the second system screen. Generate an execution request to execute. The user terminal 200 sends, for example, an execution request to the test automation server 100.
  • step S102 the test automation server 100 specifies a test scenario based on, for example, an execution request.
  • step S103 the test automation server 100 executes a test on the second system screen according to a test scenario, for example.
  • step S104 the test automation server 100 executes the above-mentioned determination process.
  • the test automation server 100 discriminates the second element of the second system screen changed from the first element of the first system screen.
  • the test automation server 100 generates information about the test result screen T2 with reference to, for example, the test result information D113.
  • the test automation server 100 may acquire information about the test result screen T2 from a database (not shown) that stores information about the test result screen T2 in advance, for example.
  • the test automation server 100 transmits, for example, information about the test result screen T2 to the user terminal 200.
  • step S106 the user terminal 200 causes the display unit 205a to display the test result screen T2.
  • the user terminal 200 receives an operation input by the user for the test element image T21 to which the confirmation request content T23 is attached, the user terminal 200 requests a confirmation request for an element comparison screen T3 for confirming the second element. Is sent to the test automation server 100.
  • the test automation server 100 generates information about the element comparison screen T3 based on the confirmation request.
  • the test automation server 100 may acquire information about the element comparison screen T3 from a database (not shown) that stores the element comparison screen T3 in advance, for example.
  • the test automation server 100 transmits, for example, information about the element comparison screen T3 to the user terminal 200.
  • step S108 the user terminal 200 causes the display unit 205a to display the element comparison screen T3.
  • the user terminal 200 receives an operation input by the user for the first button T33 of the element comparison screen T3, the user terminal 200 performs a process of modifying the procedure including the first element in the test scenario to the procedure including the second element.
  • the requested modification request is sent to the test automation server 100.
  • step S109 the test automation server 100 corrects the contents of the [scenario content] item in the scenario information D111 based on the correction request.
  • the confirmation request content T23 is not displayed. That is, the test of the second system screen is completed normally.
  • the user identifies the cause of the test error and the user manually tests the test scenario. Since the work of modifying the system screen can be reduced, the test man-hours related to the system screen can be significantly reduced.
  • FIG. 14 is a diagram showing an example of a comparison selection screen T4 that selectively displays a plurality of elements determined by the discrimination unit 150.
  • the test automation server 100 determines, for example, a plurality of elements presumed to have been changed from the first element in the determination unit 150.
  • the test automation server 100 generates, for example, a comparison selection screen T4 including a plurality of determined elements.
  • the discrimination process in the discrimination unit 150 will be described first, and then the comparison selection screen T4 will be described.
  • the discrimination process of the first modification is the same as the process of extracting the "feature" in the discrimination process of the present embodiment, the description thereof will be omitted.
  • the discrimination unit 150 discriminates a plurality of elements of the second system screen presumed to correspond to the first element, for example, based on the first element feature. Specifically, the discriminating unit 150 discriminates, for example, a second element having a second element feature satisfying the first condition with respect to the first element feature among the elements of the second system screen. Further, the discriminating unit 150 discriminates, for example, an element (hereinafter referred to as a third element) having a feature satisfying the second condition (hereinafter referred to as a third element feature) among the elements of the second system screen.
  • the "second condition" is, for example, a condition that the index showing the identity with respect to the first element feature is higher than the index shown by the second element feature.
  • the discrimination unit 150 generates discrimination result information indicating the result of discriminating the second element and the third element.
  • the discrimination unit 150 stores, for example, the discrimination result information in the test result information D113.
  • the discrimination unit 150 has been described so as to discriminate between the two elements of the second element and the third element, but the present invention is not limited to this.
  • the discriminating unit 150 may discriminate three or more elements.
  • the display processing unit 170 generates, for example, the comparison selection screen T4 with reference to the test result information D113.
  • the comparison selection screen T4 will be described with reference to FIG.
  • FIG. 14 is a diagram showing an example of the comparison selection screen T4 capable of comparing the past test result and the current test result.
  • the comparison selection screen T4 has, for example, a captured image T41 showing the past test results, captured images T42 and T43 showing the current test results, a first button T44, and a second button T45. including. Since the captured image T41, the first button T44, and the second button T45 are the same as the captured image T31, the first button T33, and the second button T34 shown in FIG. 11, the description thereof will be omitted.
  • the captured image T42 includes, for example, a highlighting object T42a for highlighting the second element (here, “career”) determined in this test.
  • the emphasis object T42a may be, for example, an object that surrounds the second element with a predetermined color.
  • the captured image T43 includes, for example, a highlighting object T43a for highlighting the third element (here, “about us”) determined in this test.
  • the emphasis object T43a may be, for example, an object that surrounds the third element with a predetermined color.
  • the captured images T42 and T43 are shown to display the entire system screen, but the present invention is not limited to this.
  • a part of the image of the system screen including the second element and a part of the image of the system screen including the third element may be displayed.
  • the captured image T42 including the second element and the image including the element constituting the second system screen are displayed in descending order of the index indicating the identity of the element with respect to the first element feature. You may let me.
  • the captured image T42 in which the second element here, “career”
  • the captured image T42 near the captured image T42 on the left side of the paper.
  • the images T431 and T432 may be displayed in order from the first element, which includes elements having a high index of identity with respect to the feature (here, “about us” and “Company” in order from the left).
  • the captured image T42 includes the emphasis object T42b for emphasizing the second element, and the emphasis object T42c for emphasizing the element having a lower index of identity than the second element. May include.
  • the emphasis object T42c is set to have a lower degree of emphasis than, for example, the emphasis object T42b. Specifically, as shown in FIG.
  • an element in which the second element is highlighted and the index indicating identity is lower than that of the second element is It may be highlighted with a darker highlight than the highlight of the second element.
  • an element having a higher index indicating identity may be highlighted by a highlighted object having a higher degree of highlighting.
  • the index indicating the identity may be highlighted with bright highlights in descending order.
  • the elements constituting the captured image T42 may be assigned a reference numeral (number or the like) indicating the height of the index indicating the identity.
  • step S108A the user terminal 200 causes, for example, the display unit 205a to display the comparison selection screen T4.
  • the comparison selection screen T4 shown in FIG. 15, when the user terminal 200 accepts an operation input by the user for any of the captured image T42, the captured image T431, and the captured image T432, for example, the user terminal 200 receives the operation input. Recognize that the accepted image has been selected. Further, in the comparison selection screen T4 shown in FIG.
  • step S108 for example, when the user terminal 200 receives an operation input by the user for the first button T44, the procedure including the first element in the test scenario is highlighted in the selected image (elements).
  • a modification request for modifying the procedure including the second element or the third element) is sent to the test automation server 100.
  • the test automation server 100 confirms, for example, whether or not the determined element is correct to the user each time the determination unit 150 determines the changed element from the first element. .. Specifically, the discriminating unit 150 determines whether or not the specified degree of agreement satisfies a predetermined threshold value for each procedure of the test scenario, for example. For example, when it is determined that the degree of agreement of a predetermined procedure does not satisfy a predetermined threshold value, the discrimination unit 150 discriminates the second element by a discrimination process.
  • the storage device 102 has a function of storing various programs and various data required for the test automation server 100 to operate.
  • the storage device 102 is realized by various storage media such as HDD, SSD, and flash memory.
  • the storage device 102 is not limited to these. Further, the storage device 102 may or may not be expressed as a memory.
  • the input device 104 is realized by a device that inputs various operations to the test automation server 100.
  • the input device 104 is realized by any one or a combination of all kinds of devices capable of receiving an input from a user and transmitting information related to the received input to the control unit 101.
  • the input device 104 is typically realized by a hardware key typified by a keyboard or the like, or a pointing device such as a mouse.
  • the input device 104 may or may not include, for example, a touch panel, a camera (operation input via a moving image), and a microphone (operation input by voice). However, in the present disclosure, the input device 104 is not limited to these.
  • the test automation server 100 stores the program P1 and various databases in the storage device 102.
  • the control unit 101 executes this program P1 to execute the processing as each unit included in the control unit 101. That is, the program 15a stored in the storage device 102 causes the test automation server 100 to realize each function executed by the control unit 101.
  • This program P1 may or may not be expressed as a program module.
  • the user terminal 200 includes a control unit (CPU: Central Processing Unit) 201, a storage device 202, a communication I / F (interface) 203, an input device 204, and an output device 205. ..
  • the components of the HW of the user terminal 200 are connected to each other via, for example, the bus B2. It is not essential that the HW configuration of the user terminal 200 includes all the components.
  • the user terminal 200 may or may not have a configuration in which individual components such as an input device 204 and an output device 205 can be removed, or a plurality of components can be removed.
  • the control unit 201 has a circuit physically structured to execute a function realized by a code or an instruction contained in the program, and is realized by, for example, a data processing device built in hardware. .. Therefore, the control unit 201 may or may not be expressed as a control circuit.
  • the control unit 201 is, for example, a central processing unit (CPU), a microprocessor (microprocessor), a processor core (processor core), a multiprocessor (multiprocessor), an ASIC (Application-Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array). including.
  • the storage device 202 has a function of storing various programs and various data required for the user terminal 200 to operate.
  • the storage device 202 includes various storage media such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, a RAM (Random Access Memory), and a ROM (Read Only Memory). Further, the storage device 202 may or may not be expressed as a memory.
  • Communication I / F203 sends and receives various data via network N.
  • Communication by communication I / F 203 may be executed by either wired or wireless, and any communication protocol may be used as long as mutual communication can be executed.
  • the communication I / F 203 has a function of executing communication with the test automation server 100 via the network N.
  • the communication I / F 203 transmits various data to the test automation server 100 according to the instruction from the control unit 201. Further, the communication I / F 203 receives various data transmitted from the test automation server 100 and transmits them to the control unit 201.
  • the communication I / F 203 may be simply expressed as a communication unit. Further, when the communication I / F 203 is composed of a physically structured circuit, it may be expressed as a communication circuit.
  • the input device 204 is realized by any one or a combination of all kinds of devices that can receive the input from the user and transmit the information related to the received input to the control unit 201.
  • the input device 204 includes, for example, an operation unit, a microphone, and a camera.
  • the operation unit includes, for example, a hardware key such as a touch panel, a touch display, and a keyboard, and a pointing device such as a mouse.
  • the microphone includes, for example, a device for inputting voice. The microphone is used for inputting voice data.
  • the camera includes, for example, a device for inputting an image. The camera is used to acquire image data.
  • the output device 205 is realized by any one or a combination of all kinds of devices capable of outputting the processing result processed by the control unit 201.
  • the output device 205 includes, for example, a display unit 205a and a speaker (audio output) 205b.
  • the output device 205 further includes, for example, a touch panel, a touch display, a lens (for example, 3D (three dimensions) output, a hologram output), a printer, and the like.
  • the display unit 205a is realized by any or a combination of all kinds of devices capable of displaying a screen according to the display data written in the frame buffer.
  • the display unit 205a may be, for example, a touch panel, a touch display, a monitor (for example, a liquid crystal display or an OLELD (Organic Electroluminescence Display)), a head mounted display (HDM: Head Mounted Display), a projection mapping, a hologram, in the air, or the like (vacuum). It may or may not be) include devices capable of displaying screens, text information, etc. Note that these display units 205a may or may not be capable of displaying display data in 3D. It is not necessary.
  • the speaker 205b is used for output of audio data.
  • the user terminal 200 stores the program P2 and the database in the storage device 202.
  • the control unit 201 executes the program P2 to execute the processing as each unit included in the control unit 201. That is, the program P2 stored in the storage device 202 causes the user terminal 200 to realize each function executed by the control unit 201. Further, this program P2 may or may not be expressed as a program module.
  • the program of each embodiment of the present disclosure may or may not be provided stored in a computer-readable storage medium. ..
  • the storage medium can store the program of each embodiment in a "non-temporary tangible medium".
  • the program of each embodiment may or may not be for realizing a part of the function of each embodiment of the present disclosure.
  • it may or may not be a so-called difference file (difference program) that can realize the functions of each embodiment of the present disclosure in combination with a program already recorded in the storage medium.
  • the program of the present disclosure may or may not be provided to the test automation server 100 and / or the user terminal 200 via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. May be good.
  • the test automation server 100 and / or the user terminal 200 realizes the functions of the plurality of functional units shown in each embodiment by executing the program P downloaded via the Internet or the like, for example.
  • each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • At least a portion of the processing in the test automation server 100 and / or the user terminal 200 may or may not be implemented by one or more computers (eg, cloud computing composed of one or more computers). May be good.
  • the first element in the scenario is the first element based on the acquisition unit 120 that acquires information on the user's operation input indicating that the element corresponds to the first element and the information on the user's operation input acquired by the acquisition unit 120. It includes a scenario correction unit 160 that corrects to two elements. This makes it possible to identify the changed elements among the elements that make up the system screen by a method that can be easily identified by the user, and the procedure including the changed elements can be reflected in the test scenario without entering code. , The man-hours required for testing the system screen can be reduced.
  • the display processing unit 170 of the test automation system 10 compares the captured image T31 (first image) including the first element with the captured image T32 (second image) including the second element. It is possible to display it on the display unit 205a. As a result, the user can visually easily recognize the second element determined by the discrimination unit 150, which can improve the convenience of the user.
  • the display processing unit 170 of the test automation system 10 displays the second element in the captured image T32 (second image) in an identifiable manner.
  • the user can visually easily recognize the second element determined by the discrimination unit 150, which can improve the convenience of the user.
  • the display processing unit 170 of the test automation system 10 does not match the test element image T21 (image) including the second element determined by the discrimination unit 150 with the second element.
  • the user can visually easily recognize the procedure including the second element determined by the determination unit 150, so that the convenience of the user can be improved.
  • the display processing unit 170 of the test automation system 10 causes the display unit 205a to display the first button T33 that accepts the user's operation input, and the acquisition unit 120 displays the user's first button T33 with respect to the first button T33.
  • the scenario correction unit 160 acquires the information indicating that the operation input has been accepted, and corrects the scenario based on the information indicating that the operation input of the user has been accepted. As a result, the user can modify the test scenario simply by inputting an operation to the first button T33, which can improve the convenience of the user.
  • the determination unit 150 of the test automation system 10 is a second element that satisfies the first condition with respect to the feature relating to the first element among the elements constituting the second system screen (second user interface).
  • the element having the characteristic is discriminated as the second element.
  • the determination unit 150 of the test automation system 10 is a second element that satisfies the first condition with respect to the feature relating to the first element among the elements constituting the second system screen (second user interface).
  • the display processing unit 170 discriminates between an element having a feature and an element having a third element feature satisfying the second condition with respect to the first element feature relating to the first element, and the display processing unit 170 determines the second element feature satisfying the first condition.
  • the captured image T42 (third image) including the element having the second element and the captured image T43 (fourth image) including the element having the third element feature satisfying the second condition are displayed on the display unit 205a.
  • the user can easily confirm a plurality of candidate elements corresponding to the first element, so that the convenience of the user can be improved.
  • the acquisition unit 120 of the test automation system 10 has accepted the user's operation input for either the captured image T42 (third image) or the captured image T43 (fourth image).
  • the discriminating unit 150 obtains the information indicating that the user's operation input has been accepted for either the captured image T42 (third image) or the captured image T43 (fourth image), based on the information.
  • the element included in the image that has received the user's operation input is determined as the second element.
  • the acquisition unit 120 of the test automation system 10 acquires information indicating that the user's operation input has been accepted for the captured image T42 (fifth image), and the determination unit 150 captures. Based on the information indicating that the user's operation input has been accepted for the image T42 (fifth image), the element that has received the user's operation input is determined as the second element. By presenting a plurality of elements presumed to correspond to the first element to the user and letting the user select them, the selected result is fed back to the test automation system 10 to improve the estimation accuracy of the test automation system 10. Can be improved.
  • the "feature" in the test automation system 10 includes at least one of the identification code, the class name, the position, and the text in the elements constituting the system screen (user interface). As a result, the elements constituting the system screen can be appropriately determined.
  • the display processing unit 170 of the test automation system 10 causes the display unit 205a to display information indicating the discrimination result each time the second element is discriminated by the discriminating unit 150.
  • the user can confirm the second element in the middle of the test scenario and modify the test scenario, so that the convenience of the user can be improved.
  • the display processing unit 170 of the test automation system 10 causes the display unit 205a to display the second button T34 that accepts the user's operation input, and the acquisition unit 120 displays the user's second button T34 with respect to the second button T34.
  • the scenario correction unit 160 does not modify the test scenario based on the information indicating that the operation input of the user has been accepted for the second button T34 after acquiring the information indicating that the operation input has been accepted. As a result, it is possible to confirm with the user whether or not to modify the test scenario, and it is possible to appropriately modify the test scenario.
  • B1, B2, B3 ... Bus, N ... Network, 10 ... Test automation system, 100 ... Test automation server, 200 ... User terminal, 101, 201 ... Control unit, 102, 202 ... Storage device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

The present invention comprises: a determination unit which, when testing a second system screen displayed on a display unit and changed from a first system screen according to a scenario generated on the basis of the first system screen displayed on the display unit, determines a second element changed from a first element composing the first system screen in the second system screen; a display processing unit which displays, on the display unit, information indicating the determination result from the determination unit; an acquisition unit which acquires, with respect to the determination result, information about an operation input of the user indicating that the second element corresponds to the first element; and a scenario correction unit which corrects the first element in the scenario to the second element on the basis of the information about the operation input of the user acquired by the acquisition unit.

Description

情報処理システム、情報処理方法、およびプログラムInformation processing systems, information processing methods, and programs
 本発明は、情報処理システム、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.
 テストプログラムで実行された前回のテスト結果データと今回のテスト結果データとの不一致部分を識別表示する動作検証装置が開示されている(例えば特許文献1)。 A operation verification device that identifies and displays a discrepancy between the previous test result data executed by the test program and the current test result data is disclosed (for example, Patent Document 1).
特開2011―164786号公報Japanese Unexamined Patent Publication No. 2011-164786
 特許文献1に記載の動作検証装置は、動作確認対象のウェブページに含まれるオブジェクトの識別情報と、そのオブジェクトに対するデータ入力操作で入力されたデータとの組み合わせとが記録されたログを取得する。動作検証装置は、ウェブページに対し、ログに基づくデータ入力操作を自動的に実行する。動作検証装置は、実行した結果、前回のテスト結果データと、今回のテスト結果データとを比較して、不一致部分を識別表示した比較結果画像を出力する。これにより、ウェブページの動作検証テストにおける出力結果の比較検証を容易にすることができる。 The operation verification device described in Patent Document 1 acquires a log in which the identification information of the object included in the web page to be confirmed to be operated and the combination of the data input by the data input operation for the object are recorded. The operation verification device automatically executes a data input operation based on a log for a web page. As a result of the execution, the operation verification device compares the previous test result data with the current test result data, and outputs a comparison result image in which the inconsistent portion is identified and displayed. This makes it easy to compare and verify the output results in the operation verification test of the web page.
 しかしながら、特許文献1に記載の動作検証装置では、前回と今回のテスト結果データにおいて、変更されたオブジェクトがある場合、変更されたオブジェクトについて、ユーザがテストシナリオ(ログ)を修正する手間を生じる。 However, in the operation verification device described in Patent Document 1, if there is a changed object in the previous test result data and the current test result data, the user has to modify the test scenario (log) for the changed object.
 そこで、本発明は、上記の課題を解決するために、変更されたシステム画面の要素(オブジェクト)を含む手順を、簡易な方法でテストシナリオに反映させることを目的とする。 Therefore, it is an object of the present invention to reflect the procedure including the changed element (object) of the system screen in the test scenario by a simple method in order to solve the above-mentioned problem.
 本発明の一態様に係る情報処理システムは、表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別する判別部と、前記判別部における判別結果を示す情報を表示部に表示させる表示処理部と、前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得する取得部と、前記取得部で取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正するシナリオ修正部と、を備える。 The information processing system according to one aspect of the present invention is displayed on the display unit, which is changed from the first system screen according to the scenario generated based on the first system screen displayed on the display unit. When testing the system screen, a discriminating unit that discriminates the second element changed from the first element constituting the first system screen on the second system screen and information indicating the discriminating result in the discriminating unit are displayed. A display processing unit to be displayed on the unit, an acquisition unit for acquiring information on a user's operation input indicating that the second element is an element corresponding to the first element, and an acquisition unit for the determination result. A scenario correction unit for modifying the first element in the scenario to the second element is provided based on the information regarding the operation input of the user.
 本発明の一態様に係る情報処理方法は、コンピュータが、表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別することと、前記第2要素が判別された判別結果を示す情報を表示部に表示させることと、前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得することと、取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正することと、を実行する。 The information processing method according to one aspect of the present invention is displayed on the display unit modified from the first system screen according to the scenario generated by the computer based on the first system screen displayed on the display unit. When testing the second system screen, the second element changed from the first element constituting the first system screen on the second system screen is discriminated, and the second element is discriminated. Information indicating the result is displayed on the display unit, and information regarding the user's operation input indicating that the second element is an element corresponding to the first element is acquired for the determination result. Based on the information regarding the operation input of the user, the first element in the scenario is modified to the second element, and so on.
 本発明の一態様に係るプログラムは、コンピュータに、表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別することと、前記第2要素が判別された判別結果を示す情報を表示部に表示させることと、前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得することと、取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正することと、を実行させる。 The program according to one aspect of the present invention is displayed on the display unit modified from the first system screen according to a scenario generated based on the first system screen displayed on the display unit on the computer. 2 When testing the system screen, the second element changed from the first element constituting the first system screen on the second system screen is discriminated, and the discriminant result in which the second element is discriminated is determined. Displaying the information to be shown on the display unit, acquiring information regarding the user's operation input indicating that the second element is an element corresponding to the first element, and the acquired information regarding the determination result. Based on the information regarding the operation input of the user, the modification of the first element in the scenario to the second element is executed.
 本発明によれば、変更されたシステム画面の要素を含む手順を、簡易な方法でテストシナリオに反映させることができる。 According to the present invention, the procedure including the changed system screen element can be reflected in the test scenario by a simple method.
本実施形態に係るテスト自動化システムの構成を示す図である。It is a figure which shows the structure of the test automation system which concerns on this embodiment. 本実施形態に係るテスト自動化システムの処理の概要を示す図である。It is a figure which shows the outline of the process of the test automation system which concerns on this embodiment. 本実施形態に係るテスト自動化サーバの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the test automation server which concerns on this embodiment. シナリオ情報の一例を示す図である。It is a figure which shows an example of the scenario information. 特徴情報の一例を示す図であるIt is a figure which shows an example of a feature information. テスト結果情報の一例を示す図である。It is a figure which shows an example of the test result information. 第1システム画面の一例を示す図である。It is a figure which shows an example of the 1st system screen. 第2要素を含む第2システム画面の一例を示す図である。It is a figure which shows an example of the 2nd system screen including the 2nd element. シナリオ画面の一例を示す図である。It is a figure which shows an example of a scenario screen. テスト結果画面の一例を示す図である。It is a figure which shows an example of a test result screen. 要素比較画面の一例を示す図である。It is a figure which shows an example of the element comparison screen. 本実施形態に係るユーザ端末の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the user terminal which concerns on this embodiment. 本実施形態に係るテスト自動システムの情報処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the information processing of the test automatic system which concerns on this embodiment. 判別部で判別された複数の要素を選択的に表示する比較選択画面の一例を示す図である。It is a figure which shows an example of the comparison selection screen which selectively displays a plurality of elements discriminated by a discriminating part. 判別部で判別された複数の要素を選択的に表示する比較選択画面の他の例を示す図である。It is a figure which shows the other example of the comparison selection screen which selectively displays a plurality of elements discriminated by the discriminant part. 判別部で判別された複数の要素を選択的に表示する比較選択画面の他の例を示す図である。It is a figure which shows the other example of the comparison selection screen which selectively displays a plurality of elements discriminated by the discriminant part. テスト自動化サーバのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of a test automation server. ユーザ端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of a user terminal.
 以下に、本発明の一実施形態におけるテスト自動化システム10について、図面を参照して詳細に説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。すなわち、本発明は、その趣旨を逸脱しない範囲で種々変形し、または各実施例を組み合わせるなどして実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。
===テスト自動化システム10の構成===
Hereinafter, the test automation system 10 according to the embodiment of the present invention will be described in detail with reference to the drawings. However, the embodiments described below are merely examples, and there is no intention of excluding the application of various modifications and techniques not specified below. That is, the present invention can be variously modified or combined with each embodiment without departing from the spirit of the present invention. Further, in the description of the following drawings, the same or similar parts are represented by the same or similar reference numerals.
=== Configuration of test automation system 10 ===
 まず、図1を参照して、本実施形態におけるテスト自動化システム10の構成の概要を説明する。図1は、テスト自動化システム10の構成を示す図である。図1に示すように、テスト自動化システム10は、例えば、テスト自動化サーバ100と、ユーザ端末200とを含んで構成されている。テスト自動化システム10では、ネットワークNを介して、テスト自動化サーバ100と、ユーザ端末200とが接続される。テスト自動化システム10は、ネットワークNを介して、テスト自動化サーバ100から複数のユーザ端末200に対して各種情報を提供するサービスを提供する。 First, with reference to FIG. 1, an outline of the configuration of the test automation system 10 in the present embodiment will be described. FIG. 1 is a diagram showing a configuration of a test automation system 10. As shown in FIG. 1, the test automation system 10 includes, for example, a test automation server 100 and a user terminal 200. In the test automation system 10, the test automation server 100 and the user terminal 200 are connected via the network N. The test automation system 10 provides a service for providing various information from the test automation server 100 to a plurality of user terminals 200 via the network N.
 テスト自動化サーバ100は、例えば、ユーザ端末200の表示部205aに表示される画面(以下、システム画面という)の機能をテストするためのシナリオ(以下、テストシナリオという)にしたがってシステム画面のテストを実行する装置である。テスト自動化サーバ100は、テストを実行した際に、テスト対象のシステム画面の要素のうち、変更された要素を判別する。テスト自動化サーバ100は、ユーザ端末200を介して、ユーザによる簡易な操作入力を受け付けることによって、判別された要素を含む手順をテストシナリオに反映する。ここで、システム画面には、例えば、表示部205aに表示される、ウェブページ、モバイルアプリケーションによる画面などが含まれる。すなわち、テスト自動化サーバ100は、例えば、ウェブページの機能をテストするテストシナリオや、モバイル端末などで動作するモバイルアプリケーションによる画面の機能をテストするテストシナリオに対して、変更されたと判別された要素を含む手順を反映する機能を有していてもよい。 The test automation server 100 executes a system screen test according to a scenario (hereinafter referred to as a test scenario) for testing the function of the screen (hereinafter referred to as a system screen) displayed on the display unit 205a of the user terminal 200, for example. It is a device to do. When the test is executed, the test automation server 100 determines the changed element among the elements of the system screen to be tested. The test automation server 100 receives a simple operation input by the user via the user terminal 200, and reflects the procedure including the determined element in the test scenario. Here, the system screen includes, for example, a web page displayed on the display unit 205a, a screen by a mobile application, and the like. That is, the test automation server 100 determines that the elements have been changed, for example, with respect to a test scenario for testing the function of a web page and a test scenario for testing the function of a screen by a mobile application operating on a mobile terminal or the like. It may have a function to reflect the included procedure.
 テスト自動化サーバ100は、例えば、サーバコンピュータ、パーソナルコンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA、電子メールクライアントなど)、あるいは他種のコンピュータ、またはコミュニケーションプラットホームを含む。 The test automation server 100 includes, for example, a server computer, a personal computer (eg, desktop, laptop, tablet, etc.), a media computer platform (eg, cable, satellite set-top box, digital video recorder), a handheld computer device (eg, PDA). , E-mail client, etc.), or other types of computers, or communication platforms.
 ユーザ端末200は、例えば、その表示部205aにテスト自動化サーバ100から送信される各種情報を表示させる装置である。ユーザ端末200は、ユーザから操作入力を受け付けて、各種情報をテスト自動化サーバ100に送信する。 The user terminal 200 is, for example, a device for displaying various information transmitted from the test automation server 100 on the display unit 205a. The user terminal 200 receives an operation input from the user and transmits various information to the test automation server 100.
 ユーザ端末200は、各実施形態における機能を実現できる情報処理装置(コンピュータ)であればよい。ユーザ端末200は、例えば、スマートフォン、携帯電話(フィーチャーフォン)、パーソナルコンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアントなど)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、他種のコンピュータ、またはコミュニケーションプラットホームを含む。 The user terminal 200 may be any information processing device (computer) that can realize the functions in each embodiment. The user terminal 200 is, for example, a smartphone, a mobile phone (feature phone), a personal computer (for example, a desktop, a laptop, a tablet, etc.), a media computer platform (for example, a cable, a satellite set top box, a digital video recorder), a handheld computer. Includes devices (eg, PDA (Personal Digital Assistant), e-mail clients, etc.), wearable terminals (glass-type devices, watch-type devices, etc.), other types of computers, or communication platforms.
 次に、図2を参照して、テスト自動化システム10の処理の概要を説明する。図2は、本実施形態に係るテスト自動化システム10の処理の概要を示す図である。まず、ステップS10~S13において、システム画面の機能をテストするためのテストシナリオを作成する処理(以下、シナリオ作成処理という)の概要を説明する。次に、ステップS20~S24において、テストシナリオにしたがってシステム画面のテストを実行して、実行した結果に基づきテストシナリオを修正する処理(以下、シナリオ修正処理という)の概要を説明する。 Next, the outline of the processing of the test automation system 10 will be described with reference to FIG. FIG. 2 is a diagram showing an outline of processing of the test automation system 10 according to the present embodiment. First, in steps S10 to S13, an outline of a process for creating a test scenario for testing the function of the system screen (hereinafter referred to as a scenario creation process) will be described. Next, in steps S20 to S24, an outline of a process of executing a system screen test according to the test scenario and modifying the test scenario based on the executed result (hereinafter referred to as a scenario modification process) will be described.
 まず、ステップS10において、ユーザ端末200は、例えば、表示部205aに表示された設定画面(不図示)においてテスト条件を設定する。「テスト条件」には、例えば、テストシナリオを作成するためのシステム画面(以下、第1システム画面という)を表示させる、例えばブラウザの種別、ユーザ端末200のOS(Operating System)、ユーザ端末200のデバイス仕様、ユーザ端末200の表示画面のサイズなどが含まれていてもよい。次に、ユーザ端末200は、例えば、表示部205aに表示された設定画面において、ユーザの操作入力により、第1システム画面に対応するURL(Uniform Resouce Locator)を受け付けてもよい。以下、便宜上、テスト条件に関する情報を「設定情報」とする。 First, in step S10, the user terminal 200 sets test conditions on, for example, a setting screen (not shown) displayed on the display unit 205a. In the "test condition", for example, a system screen for creating a test scenario (hereinafter referred to as a first system screen) is displayed, for example, a browser type, an OS (Operating System) of a user terminal 200, and a user terminal 200. The device specifications, the size of the display screen of the user terminal 200, and the like may be included. Next, the user terminal 200 may accept a URL (Uniform Resouce Locator) corresponding to the first system screen by inputting a user's operation on the setting screen displayed on the display unit 205a, for example. Hereinafter, for convenience, the information regarding the test conditions will be referred to as "setting information".
 次に、ステップS11において、テスト自動化サーバ100は、例えば、設定情報に基づいて、第1システム画面に関する情報を生成する。テスト自動化サーバ100は、第1システム画面に関する情報をユーザ端末200に送信する。 Next, in step S11, the test automation server 100 generates information about the first system screen, for example, based on the setting information. The test automation server 100 transmits information about the first system screen to the user terminal 200.
 次に、ステップS12において、ユーザ端末200は、例えば、表示部205aに第1システム画面を表示させる。ユーザ端末200は、例えば、「レコード」ボタン(図7を参照)に対して、ユーザによる操作入力を受け付けた場合、それ以降のユーザによる操作入力に関する情報(以下、操作情報という)を、テスト自動化サーバ100に送信する。 Next, in step S12, the user terminal 200 causes, for example, the display unit 205a to display the first system screen. For example, when the user terminal 200 accepts an operation input by the user for the "record" button (see FIG. 7), the information regarding the operation input by the user after that (hereinafter referred to as operation information) is test-automated. Send to server 100.
 次に、ステップS13において、テスト自動化サーバ100は、例えば、操作情報に基づいて、テストシナリオを作成する。テスト自動化サーバ100は、作成したテストシナリオを記憶部110に記憶する。 Next, in step S13, the test automation server 100 creates a test scenario based on, for example, operation information. The test automation server 100 stores the created test scenario in the storage unit 110.
 このように、テスト自動化システム10は、ユーザによる第1システム画面に対する操作入力によりテストシナリオを作成する。このため、コードによるテストシナリオの作成方法を知らないユーザであっても、容易にテストシナリオを作成できる。また、テストコードを作成するユーザの手間を減らすことができるため、テストシナリオの作成にかかる工数を減らすことができる。 In this way, the test automation system 10 creates a test scenario by inputting an operation to the first system screen by the user. Therefore, even a user who does not know how to create a test scenario by code can easily create a test scenario. In addition, since the time and effort of the user who creates the test code can be reduced, the man-hours required for creating the test scenario can be reduced.
 次に、ステップS20において、ユーザ端末200は、例えば、テスト自動化サーバ100が提供するシステム画面を開いて、テストシナリオを指定する。ユーザ端末200は、例えば、指定されたテストシナリオを示す情報(以下、シナリオ情報という)をテスト自動化サーバ100に送信する。 Next, in step S20, the user terminal 200 opens, for example, the system screen provided by the test automation server 100, and specifies a test scenario. The user terminal 200 transmits, for example, information indicating a designated test scenario (hereinafter referred to as scenario information) to the test automation server 100.
 次に、ステップS21において、テスト自動化サーバ100は、例えば、テスト対象のシステム画面(以下、第2システム画面という)をテストシナリオにしたがってテストする。ここで、第2システム画面は、例えば、第1システム画面の特定の要素が変更された同一のウェブサイト上のウェブページなどである。 Next, in step S21, the test automation server 100 tests, for example, the system screen to be tested (hereinafter referred to as a second system screen) according to the test scenario. Here, the second system screen is, for example, a web page on the same website in which a specific element of the first system screen is changed.
 次に、ステップS22において、テスト自動化サーバ100は、例えば、第2システム画面の要素のうち、第1システム画面の要素(以下、第1要素という)が変更された要素(以下、第2要素という)を判別する。テスト自動化サーバ100は、例えば、第2要素を識別可能に示す画面を生成する。テスト自動化サーバ100は、例えば、生成された画面に関する情報をユーザ端末200に送信する。ここで、「画面に関する情報」とは、例えばブラウザに画像を表示させるためのコードなどである。 Next, in step S22, in the test automation server 100, for example, among the elements of the second system screen, the element of the first system screen (hereinafter referred to as the first element) is changed (hereinafter referred to as the second element). ) Is determined. The test automation server 100 generates, for example, a screen that identifiable the second element. The test automation server 100 transmits, for example, information about the generated screen to the user terminal 200. Here, the "information about the screen" is, for example, a code for displaying an image on a browser.
 次に、ステップS23において、ユーザ端末200は、例えば、当該画面に関する情報に基づいて、表示部205aに第2要素を識別可能に示す画面を表示する。ユーザ端末200は、例えば、第2要素が第1要素に対応する要素であるとユーザによって判別された場合、ユーザの操作入力により、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正するための要求(以下、修正要求という)を、テスト自動化サーバ100に送信する。 Next, in step S23, the user terminal 200 displays, for example, a screen that identifiable the second element on the display unit 205a based on the information about the screen. For example, when the user determines that the second element is an element corresponding to the first element, the user terminal 200 includes a procedure including the first element in the test scenario and a procedure including the second element by the operation input of the user. A request for correction (hereinafter referred to as a correction request) is sent to the test automation server 100.
 次に、ステップS24において、テスト自動化サーバ100は、例えば、修正要求に基づいて、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正する。なお、テスト自動化サーバ100は、例えば、修正要求に基づきテストシナリオを修正したときの第2システム画面を、次回のテストシナリオ実行時には、第1システム画面として処理を実行することとする。 Next, in step S24, the test automation server 100 modifies the procedure including the first element in the test scenario to the procedure including the second element, for example, based on the modification request. The test automation server 100 executes the process as, for example, the second system screen when the test scenario is modified based on the modification request as the first system screen when the next test scenario is executed.
 このように、テスト自動化システム10は、ユーザが容易に判別可能な方法によってシステム画面を構成する要素のうち、変更された要素を特定できる。また、テスト自動化システム10は、変更された要素を含む手順について、コードを入力することなくテストシナリオに反映できるため、システム画面のテストにかかる工数を減らすことができる。 In this way, the test automation system 10 can identify the changed element among the elements constituting the system screen by a method that can be easily discriminated by the user. Further, since the test automation system 10 can reflect the procedure including the changed element in the test scenario without inputting the code, the man-hours required for testing the system screen can be reduced.
 以下、テスト自動化システム10を構成する各装置の機能構成について説明する。 Hereinafter, the functional configuration of each device constituting the test automation system 10 will be described.
 まず、図3を参照して、テスト自動化サーバ100の機能構成について説明する。図3は、本実施形態に係るテスト自動化サーバ100の機能構成の一例を示す図である。テスト自動化サーバ100は、例えばテストシナリオにしたがって第2システム画面をテストする。そして、テスト自動化サーバ100は、例えば、テスト結果をユーザに提示して、ユーザの操作入力に基づきテストシナリオを自動的に修正する。「テスト結果」は、例えば、テストシナリオを実行した結果、テストに成功したか否かを示す情報である。 First, the functional configuration of the test automation server 100 will be described with reference to FIG. FIG. 3 is a diagram showing an example of the functional configuration of the test automation server 100 according to the present embodiment. The test automation server 100 tests the second system screen according to, for example, a test scenario. Then, the test automation server 100 presents the test result to the user, for example, and automatically corrects the test scenario based on the user's operation input. The "test result" is, for example, information indicating whether or not the test was successful as a result of executing the test scenario.
 テスト自動化サーバ100は、例えば、記憶部110と、取得部120と、シナリオ作成部130と、テスト実行部140と、判別部150と、シナリオ修正部160と、表示処理部170と、送信部180との機能部を含む。 The test automation server 100 is, for example, a storage unit 110, an acquisition unit 120, a scenario creation unit 130, a test execution unit 140, a discrimination unit 150, a scenario correction unit 160, a display processing unit 170, and a transmission unit 180. Including the functional part of.
 記憶部110は、例えば、シナリオ情報D111と、特徴情報D112と、テスト結果情報D113とを含む。 The storage unit 110 includes, for example, scenario information D111, feature information D112, and test result information D113.
 図4は、シナリオ情報D111の一例を示す図である。図4に示すように、シナリオ情報D111は、例えば、[ユーザID]、[シナリオID]、及び[シナリオ内容]の項目を含んでいてもよい。[ユーザID]は、例えば、ユーザの識別符号であるユーザIDを含む項目である。ユーザIDは、例えば、ユーザごとに付される符号であり、テスト自動化サーバ100に新たに登録されたユーザに対して割り振られる。[シナリオID]は、例えば、[ユーザID]の項目に対応づけられ、ユーザによって登録されたテストシナリオの識別符号であるシナリオIDを含む項目である。シナリオIDは、例えば、テスト自動化サーバ100でシナリオ作成処理が実行されたことを契機に、作成されたテストシナリオに対して割り振られる。[シナリオ内容]は、例えば、[シナリオID]の項目に対応づけられ、ユーザによって登録されたシナリオの内容を含む項目である。テストシナリオは、例えば、テスト自動化サーバ100でシナリオ作成処理が実行されたことを契機に、シナリオ情報D111に記憶される。 FIG. 4 is a diagram showing an example of scenario information D111. As shown in FIG. 4, the scenario information D111 may include, for example, the items of [user ID], [scenario ID], and [scenario content]. [User ID] is, for example, an item including a user ID which is a user identification code. The user ID is, for example, a code assigned to each user and is assigned to a user newly registered in the test automation server 100. The [scenario ID] is, for example, an item associated with the item of the [user ID] and including the scenario ID which is the identification code of the test scenario registered by the user. The scenario ID is assigned to the created test scenario, for example, when the scenario creation process is executed by the test automation server 100. [Scenario content] is, for example, an item associated with the item of [Scenario ID] and including the content of the scenario registered by the user. The test scenario is stored in the scenario information D111, for example, when the scenario creation process is executed by the test automation server 100.
 図5は、特徴情報D112の一例を示す図である。図5に示すように、特徴情報D112は、例えば、[シナリオID]、[ステップID]、[要素ID]、[クラス名]、[位置]、及び[テキスト]の項目を含んでいてもよい。[シナリオID]は、シナリオ情報D111の[シナリオID]と同じであるためその説明を省略する。[ステップID]は、例えば、[シナリオID]の項目に対応づけられ、ユーザによる操作入力の識別符号であるステップIDを含む項目である。ステップIDは、例えば、ユーザの操作入力を受け付けたことを契機に、当該操作入力に対して割り振られる。[要素ID]は、例えば、[シナリオID]の項目に対応づけられ、第1システム画面を構成する要素の識別符号である要素IDを含む項目である。要素IDは、例えばテスト自動化サーバ100でシナリオ作成処理が実行されたことを契機に、各要素に対して割り振られる。[クラス名]は、例えば、[要素ID]の項目に対応づけられ、第1システム画面を構成する要素のクラス名を含む項目である。クラス名は、例えばテスト自動化サーバ100でシナリオ作成処理が実行されたときに特定される。[位置]は、例えば、[要素ID]の項目に対応づけられ、第1システム画面を構成する要素の第1システム画面上の位置を含む項目である。位置は、例えばテスト自動化サーバ100でシナリオ作成処理が実行されたときに特定される。[テキスト]は、例えば、[要素ID]の項目に対応づけられ、第1システム画面を構成する要素が示すテキストを含む項目である。テキストは、例えばテスト自動化サーバ100でシナリオ作成処理が実行されたときに特定される。 FIG. 5 is a diagram showing an example of the feature information D112. As shown in FIG. 5, the feature information D112 may include, for example, [scenario ID], [step ID], [element ID], [class name], [position], and [text] items. .. Since the [scenario ID] is the same as the [scenario ID] of the scenario information D111, the description thereof will be omitted. The [step ID] is, for example, an item associated with the item of the [scenario ID] and including the step ID which is an identification code of the operation input by the user. The step ID is assigned to the operation input when the user's operation input is received, for example. [Element ID] is, for example, an item associated with the item of [Scenario ID] and including an element ID which is an identification code of an element constituting the first system screen. The element ID is assigned to each element, for example, when the scenario creation process is executed by the test automation server 100. The [class name] is, for example, an item associated with the item of [element ID] and including the class name of the element constituting the first system screen. The class name is specified, for example, when the scenario creation process is executed on the test automation server 100. [Position] is, for example, an item associated with the item of [Element ID] and including the position of the element constituting the first system screen on the first system screen. The location is specified, for example, when the scenario creation process is executed on the test automation server 100. The [text] is, for example, an item associated with the item of the [element ID] and including the text indicated by the element constituting the first system screen. The text is specified, for example, when the scenario creation process is executed on the test automation server 100.
 図6は、テスト結果情報D113の一例を示す図である。図6に示すように、テスト結果情報D113は、例えば、[ユーザID]、[シナリオID]、[日時]、[シナリオ内容]、[テスト結果]、及び[修正履歴]の項目を含む。[ユーザID]、[シナリオID]、及び[シナリオ内容]の項目は、シナリオ情報D111の[ユーザID]、[シナリオID]、及び[シナリオ内容]と同じであるため、その説明を省略する。ただし、[シナリオ内容]の項目には、例えば、後述するシナリオ修正部160で修正されたテストシナリオの内容が入力される。[日時]は、例えば、[シナリオID]の項目に対応づけられ、テストシナリオが実行された日時を含む項目である。日時は、例えばテストシナリオが実行されたときに入力される。[テスト結果]は、例えば、[シナリオID]の項目に対応づけられ、テストシナリオを実行した結果を示すテスト結果を含む項目である。テスト結果は、例えば、テストシナリオが実行された結果、入力される。[修正履歴]は、例えば、[シナリオID]の項目に対応づけられ、テストシナリオを実行した結果、ユーザの操作入力に基づき修正された内容を含む項目である。修正履歴は、例えば、テストシナリオが修正されたことを契機に入力される。 FIG. 6 is a diagram showing an example of test result information D113. As shown in FIG. 6, the test result information D113 includes, for example, items of [user ID], [scenario ID], [date and time], [scenario content], [test result], and [correction history]. Since the items of [User ID], [Scenario ID], and [Scenario content] are the same as [User ID], [Scenario ID], and [Scenario content] of the scenario information D111, the description thereof will be omitted. However, in the item of [scenario content], for example, the content of the test scenario modified by the scenario modification unit 160 described later is input. [Date and time] is, for example, an item associated with the item of [Scenario ID] and including the date and time when the test scenario is executed. The date and time are entered, for example, when the test scenario is executed. [Test result] is, for example, an item associated with the item of [Scenario ID] and including a test result indicating the result of executing the test scenario. The test result is input, for example, as a result of executing the test scenario. The [correction history] is, for example, an item associated with the item of [scenario ID] and including the content corrected based on the operation input of the user as a result of executing the test scenario. The modification history is input, for example, when the test scenario is modified.
 なお、記憶部110に記憶されているシナリオ情報D111、特徴情報D112、及びテスト結果情報D113は、テスト自動化サーバ100に格納されていなくてもよく、例えばテスト自動化サーバ100とは異なる装置に格納されていてもよい。この場合、テスト自動化サーバ100は、当該装置からシナリオ情報D111、特徴情報D112、及びテスト結果情報D113を取得すればよい。 The scenario information D111, the feature information D112, and the test result information D113 stored in the storage unit 110 do not have to be stored in the test automation server 100, and are stored in, for example, a device different from the test automation server 100. You may be. In this case, the test automation server 100 may acquire the scenario information D111, the feature information D112, and the test result information D113 from the apparatus.
 取得部120は、例えば、ユーザ端末200などの他の装置から各種情報を取得する。 The acquisition unit 120 acquires various information from other devices such as the user terminal 200.
 シナリオ作成部130は、例えば、ユーザによる操作入力に関する操作情報に基づいて、システム画面の機能をテストするためのテストシナリオを作成する。図7を参照して、第1システム画面に対して作成されるテストシナリオの一例について説明する。図7は、第1システム画面の一例を示す図である。図7に示すように、第1システム画面は、例えば、要素E10~E17を含んで構成されている、例えば問い合わせフォームである。要素E10~E14は、例えば、テキストボックスで形成され、ユーザの操作入力を受け付けることでテキストが入力される。要素E15は、例えば、要素E10~E14に入力された情報によって問い合わせ内容を登録するためのボタンである。要素E16は、例えば、第1システム画面のフッターに設けられ、例えば所定のURLにリンクしている要素である。要素E17は、それに対して、ユーザによる操作入力を受け付けた場合、テストシナリオの作成を開始させるボタンである。すなわち、シナリオ作成部130は、例えば、要素E17に対して、ユーザによる操作入力があった場合、それ以降における、要素に入力されたテキスト、及び要素に対するユーザによる操作入力を、その順序とともに、記憶部110に記憶させる。以下、第1システム画面の要素E10~E16の順序でユーザによる操作入力が実行され、その順序によるテストシナリオが作成されたこととする。 The scenario creation unit 130 creates a test scenario for testing the function of the system screen, for example, based on the operation information related to the operation input by the user. An example of a test scenario created for the first system screen will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of the first system screen. As shown in FIG. 7, the first system screen is, for example, an inquiry form including elements E10 to E17. The elements E10 to E14 are formed by, for example, a text box, and text is input by accepting a user's operation input. The element E15 is, for example, a button for registering the inquiry contents by the information input to the elements E10 to E14. The element E16 is, for example, an element provided in the footer of the first system screen and linked to, for example, a predetermined URL. The element E17 is a button for starting the creation of the test scenario when the operation input by the user is received. That is, for example, when the scenario creation unit 130 receives an operation input by the user for the element E17, the text input to the element and the operation input by the user for the element after that are stored together with the order. Store in unit 110. Hereinafter, it is assumed that the operation input by the user is executed in the order of the elements E10 to E16 on the first system screen, and the test scenario is created in that order.
 テスト実行部140は、例えば、第1システム画面に基づいて生成されたテストシナリオにしたがって第2システム画面をテストする。テスト実行部140は、例えば、第2システム画面に対してテストした結果、第2システム画面を構成する要素に対する操作入力に関する一致度を特定する。換言すると、テスト実行部140は、例えば、第2システム画面を構成する要素を含むテストスケジュールの手順に関する一致度を算出する。ここで、一致度とは、例えば、テストシナリオにしたがって第2システム画面を構成する要素に対して操作入力があった場合、その要素(又は手順)に関する挙動の正当性を示す指標である。具体的には、テスト実行部140は、例えば、第1システム画面において所定の位置に配置された要素が、第2システム画面において所定の位置とは異なる位置に配置されていた場合、その位置のズレの程度に応じた一致度を算出する。また、テスト実行部140は、例えば、第1システム画面において所定の位置に配置された要素に替えて、異なる要素が配置された場合、第1システム画面の要素に対する操作入力による挙動と、異なる要素に対する操作入力による挙動との差異の程度に応じた一致度を算出してもよい。 The test execution unit 140 tests the second system screen according to the test scenario generated based on the first system screen, for example. As a result of testing the second system screen, for example, the test execution unit 140 specifies the degree of agreement regarding the operation input for the elements constituting the second system screen. In other words, the test execution unit 140 calculates, for example, the degree of agreement regarding the procedure of the test schedule including the elements constituting the second system screen. Here, the degree of coincidence is, for example, an index indicating the validity of the behavior regarding the element (or procedure) when there is an operation input for the element constituting the second system screen according to the test scenario. Specifically, the test execution unit 140 is, for example, when an element arranged at a predetermined position on the first system screen is arranged at a position different from the predetermined position on the second system screen, at that position. Calculate the degree of matching according to the degree of deviation. Further, for example, when a different element is arranged in place of the element arranged at a predetermined position on the first system screen, the test execution unit 140 has a behavior different from the behavior due to the operation input to the element on the first system screen. The degree of agreement may be calculated according to the degree of difference from the behavior due to the operation input to.
 判別部150は、例えば、第1システム画面に基づき生成されたテストシナリオにしたがってテストされる第2システム画面において、第1システム画面を構成する第1要素が変更された第2要素を判別する。 The discrimination unit 150 discriminates, for example, the second element in which the first element constituting the first system screen is changed in the second system screen tested according to the test scenario generated based on the first system screen.
 まず、図8を参照して、第2システム画面および第2要素の概要を説明する。図8は、第2要素を含む第2システム画面の一例を示す図である。図8に示すように、第2システム画面は、例えば、要素E20~E26で構成されている。要E20~E25は、第1システム画面のE10~E15と同じものである。要素E26は、例えば、第2システム画面のカラムに分けられたフッターに設けられ、所定のURLにリンクしている。すなわち、本実施形態において、第2システム画面は、例えば、第1システム画面のフッターが修正されたシステム画面である。以下では、判別部150において、第1システム画面と比較して、フッターの「career」(E26)の位置が異なる第2システム画面に対してテストが実行される場合につき、説明することとする。 First, the outline of the second system screen and the second element will be described with reference to FIG. FIG. 8 is a diagram showing an example of a second system screen including the second element. As shown in FIG. 8, the second system screen is composed of, for example, elements E20 to E26. The required E20 to E25 are the same as those of E10 to E15 on the first system screen. The element E26 is provided in the footer divided into columns of the second system screen, and is linked to a predetermined URL, for example. That is, in the present embodiment, the second system screen is, for example, a system screen in which the footer of the first system screen is modified. In the following, a case where the test is executed on the second system screen in which the position of the footer “career” (E26) is different from that in the first system screen in the discrimination unit 150 will be described.
 次に、判別部150において第2システム画面の第2要素が判別される処理(以下、判別処理という)の一例について説明する。判別部150は、例えば、テストシナリオの手順のうち、所定の閾値を満たさない一致度を示す手順を特定する。判別部150は、例えば、特定された手順に含まれる第1システム画面の第1要素を特定する。判別部150は、例えば、特徴情報D112を参照して、第1要素に関する特徴(以下、第1要素特徴という)を抽出する。判別部150は、例えば、特徴情報D112を参照して、第2システム画面の要素に関する特徴を抽出する。「特徴」は、例えば、システム画面を構成する要素における、識別符号、クラス名、システム画面上の位置、テキストのうちの少なくともいずれかを含んでいてもよい。判別部150は、例えば、第1要素特徴に基づいて、第1要素に対応する第2システム画面の第2要素を判別する。具体的には、判別部150は、例えば、第2システム画面の要素のうち、第1要素特徴に対して所定の条件(以下、第1条件という)を満たす特徴(以下、第2要素特徴という)を有する要素を、第2要素として判別する。「第1条件」は、例えば、第1要素特徴に対して同一性を示す指標が最も高いという条件である。なお、判別部150は、例えば、ニューラルネットワークで構成されていてもよい。判別部150は、第2要素を判別した結果を示す情報(以下、判別結果情報という)を生成する。判別部150は、例えば、判別結果情報をテスト結果情報D113に記憶する。 Next, an example of a process (hereinafter referred to as a discrimination process) in which the second element of the second system screen is discriminated by the discrimination unit 150 will be described. The determination unit 150 identifies, for example, a procedure of a test scenario showing a degree of agreement that does not satisfy a predetermined threshold value. The discriminating unit 150 identifies, for example, the first element of the first system screen included in the identified procedure. The discriminating unit 150, for example, refers to the feature information D112 and extracts a feature related to the first element (hereinafter, referred to as a first element feature). The discriminating unit 150, for example, refers to the feature information D112 and extracts features related to the elements of the second system screen. The "feature" may include, for example, at least one of an identification code, a class name, a position on the system screen, and text in the elements constituting the system screen. The discriminating unit 150 discriminates the second element of the second system screen corresponding to the first element, for example, based on the first element feature. Specifically, the discriminating unit 150 is, for example, a feature (hereinafter referred to as a second element feature) that satisfies a predetermined condition (hereinafter referred to as a first condition) with respect to the first element feature among the elements of the second system screen. ) Is determined as the second element. The "first condition" is, for example, a condition that the index indicating identity with respect to the first element feature is the highest. The discrimination unit 150 may be configured by, for example, a neural network. The discrimination unit 150 generates information (hereinafter, referred to as discrimination result information) indicating the result of discriminating the second element. The discrimination unit 150 stores, for example, the discrimination result information in the test result information D113.
 シナリオ修正部160は、例えば、判別された第2要素が第1要素に対応する要素であることを示すユーザの操作入力に関する情報(以下、操作入力情報という)に基づいて、テストシナリオの第1要素を含む手順を第2要素を含む手順に修正する。すなわち、シナリオ修正部160は、例えば、シナリオ情報D111における[シナリオ内容]の項目の内容に対して、第1要素を含む手順を第2要素を含む手順に書き換える。また、シナリオ修正部160は、例えば、書き換えられたテストシナリオをテスト結果情報D113に記憶する。これにより、ユーザはテストシナリオを手動で書き換える必要がなくなるため、テスト自動化システム10はユーザの利便性を高めることができる。 The scenario correction unit 160 is, for example, a first test scenario based on information regarding a user's operation input (hereinafter, referred to as operation input information) indicating that the determined second element is an element corresponding to the first element. Modify the procedure including the element to the procedure including the second element. That is, for example, the scenario correction unit 160 rewrites the procedure including the first element to the procedure including the second element with respect to the content of the item of [scenario content] in the scenario information D111. Further, the scenario correction unit 160 stores, for example, the rewritten test scenario in the test result information D113. This eliminates the need for the user to manually rewrite the test scenario, so that the test automation system 10 can enhance the convenience of the user.
 表示処理部170は、例えば各種画面を生成する。表示処理部170は、例えば、生成した画面をユーザ端末200の表示部205aに表示させるための処理(以下、表示処理という)を実行する。表示処理部170は、例えば、テストシナリオの各手順の要素を含む画像をその手順とおりに並べたシナリオ画面T1と、テスト結果を示す要素を含む画像と当該画像に関する操作入力を示すテキストとを含むテスト結果画面T2と、第1要素と第2要素とが比較可能に表示される要素比較画面T3とを生成する。 The display processing unit 170 generates, for example, various screens. The display processing unit 170 executes, for example, a process for displaying the generated screen on the display unit 205a of the user terminal 200 (hereinafter, referred to as a display process). The display processing unit 170 includes, for example, a scenario screen T1 in which an image including an element of each procedure of a test scenario is arranged according to the procedure, an image including an element showing a test result, and a text indicating an operation input related to the image. A test result screen T2 and an element comparison screen T3 in which the first element and the second element are displayed in a comparable manner are generated.
 図9は、シナリオ画面T1の一例を示す図である。表示処理部170は、例えば、シナリオ情報D111を参照して、シナリオ画面T1を生成する。図9に示すように、シナリオ画面T1は、例えば、各手順に対応するシナリオ要素画像T11と、シナリオ要素画像T11に対応するテスト内容を示すシナリオテキストデータT12とを含む。テスト自動化システム10は、シナリオ画面T1をユーザ端末200の表示部205aに表示させることによって、ユーザはテストシナリオを視覚的に容易に確認できるため、ユーザの利便性を向上できる。 FIG. 9 is a diagram showing an example of the scenario screen T1. The display processing unit 170 generates the scenario screen T1 with reference to, for example, the scenario information D111. As shown in FIG. 9, the scenario screen T1 includes, for example, a scenario element image T11 corresponding to each procedure and a scenario text data T12 showing test contents corresponding to the scenario element image T11. In the test automation system 10, by displaying the scenario screen T1 on the display unit 205a of the user terminal 200, the user can easily visually confirm the test scenario, so that the convenience of the user can be improved.
 シナリオ要素画像T11は、例えば、第1システム画面の一部を抜き出した手順ごとの第1要素を含む画像である。具体的には、例えば、シナリオ要素画像T11bにおいては、「山田」と入力された要素E10(第1要素)が含まれる。シナリオ要素画像T11が表示されることによって、ユーザはシナリオの手順を視覚的に確認できるため、ユーザの利便性を向上できる。 The scenario element image T11 is, for example, an image including the first element for each procedure obtained by extracting a part of the first system screen. Specifically, for example, in the scenario element image T11b, the element E10 (first element) in which "Yamada" is input is included. By displaying the scenario element image T11, the user can visually confirm the procedure of the scenario, so that the convenience of the user can be improved.
 シナリオテキストデータT12は、例えば、第1要素に対するユーザの操作入力をテキストで表示するデータである。例えば、ユーザの操作入力が第1要素にテキストを入力する操作入力である場合、テキストが入力されたことを示すシナリオテキストデータT12が生成される(例えば、シナリオテキストデータT12b)。また、例えば、ユーザの操作入力が第1要素に表示されるテキストをプルダウンなどで選択する操作入力である場合、テキストが選択されたことを示すシナリオテキストデータT12が生成される。また、ユーザの操作入力が第1要素をクリックする操作入力である場合、第1要素がクリックされたことを示すシナリオテキストデータT12が生成される(例えば、シナリオテキストデータT12g)。シナリオテキストデータT12は、例えば、シナリオ要素画像T11に対応するように配置されている。具体的には、例えば、シナリオテキストデータT12bは、「山田と入力する」のテキストが、シナリオ要素画像T11bの紙面上の下側に添えられるように配置される。シナリオテキストデータT12が表示されることにより、ユーザはテストシナリオの手順を視覚的に確認できるため、ユーザの利便性を向上できる。 The scenario text data T12 is, for example, data for displaying the user's operation input for the first element in text. For example, when the user's operation input is an operation input for inputting text in the first element, scenario text data T12 indicating that the text has been input is generated (for example, scenario text data T12b). Further, for example, when the operation input of the user is an operation input for selecting the text displayed in the first element by pull-down or the like, the scenario text data T12 indicating that the text is selected is generated. Further, when the operation input of the user is an operation input for clicking the first element, scenario text data T12 indicating that the first element is clicked is generated (for example, scenario text data T12g). The scenario text data T12 is arranged so as to correspond to, for example, the scenario element image T11. Specifically, for example, the scenario text data T12b is arranged so that the text "Enter Yamada" is attached to the lower side of the scenario element image T11b on the paper. By displaying the scenario text data T12, the user can visually confirm the procedure of the test scenario, so that the convenience of the user can be improved.
 図10は、テスト結果画面T2の一例を示す図である。表示処理部170は、例えば、テスト結果情報D113を参照して、テスト結果画面T2を生成する。図10に示すように、テスト結果画面T2は、例えば、実行されたテストのテストシナリオの各手順に対応するテスト要素画像T21と、テスト要素画像T12に対応するテストで実行された内容を示すテストテキストデータT22と、判別部150で第1要素が変更されたと判別された第2要素を含むテスト要素画像T21を識別可能に表示する確認依頼コンテンツT23とを含む。テスト自動化システム10は、テスト結果画面T2をユーザ端末200の表示部205aに表示させることによって、ユーザは第2システム画面に対するテスト結果を視覚的に容易に確認できるため、ユーザの利便性を向上できる。 FIG. 10 is a diagram showing an example of the test result screen T2. The display processing unit 170 generates the test result screen T2 with reference to, for example, the test result information D113. As shown in FIG. 10, the test result screen T2 is, for example, a test element image T21 corresponding to each procedure of the test scenario of the executed test and a test showing the contents executed in the test corresponding to the test element image T12. The text data T22 and the confirmation request content T23 for identifiablely displaying the test element image T21 including the second element determined by the determination unit 150 to be changed are included. In the test automation system 10, by displaying the test result screen T2 on the display unit 205a of the user terminal 200, the user can easily visually confirm the test result for the second system screen, so that the convenience of the user can be improved. ..
 テスト要素画面T21は、例えば、第2システム画面の一部を抜き出した手順ごとの第2要素を含む画面である。具体的には、例えば、テスト要素画像T21bにおいては、「山田」と入力された要素E20(第2要素)が含まれる。テスト要素画像T21を生成することによって、ユーザはテストの結果を視覚的に確認できるため、ユーザの利便性を向上できる。 The test element screen T21 is, for example, a screen including a second element for each procedure obtained by extracting a part of the second system screen. Specifically, for example, in the test element image T21b, the element E20 (second element) in which "Yamada" is input is included. By generating the test element image T21, the user can visually confirm the result of the test, so that the convenience of the user can be improved.
 テストテキストデータT22は、例えば、第2要素に対するテストプログラムの操作入力をテキストで表示したデータである。例えば、テストプログラムの操作入力が第2要素にテキストを入力する操作入力である場合、テキストが入力されたことを示すテストテキストデータT22が生成される(例えば、テキストデータT22b)。第2要素をクリックする操作入力(例えば、テストテキストデータT22g)、プルダウンによって選択される操作入力などについても、同様に、テストテキストデータT22が生成される。テストテキストデータT22は、例えば、テスト要素画像T21に対応するように配置されている。具体的には、例えば、テキストデータT22bにおいては、「山田と入力する」のテキストが、シナリオ要素画像T11bに添えられるように配置される。テストテキストデータT22が表示されることによって、ユーザはテスト結果をテストシナリオの手順とおりに視覚的に確認できるため、ユーザの利便性を向上できる。 The test text data T22 is, for example, data in which the operation input of the test program for the second element is displayed in text. For example, when the operation input of the test program is an operation input for inputting text in the second element, test text data T22 indicating that the text has been input is generated (for example, text data T22b). Similarly, the test text data T22 is generated for the operation input for clicking the second element (for example, the test text data T22g), the operation input selected by the pull-down, and the like. The test text data T22 is arranged so as to correspond to, for example, the test element image T21. Specifically, for example, in the text data T22b, the text of "input Yamada" is arranged so as to be attached to the scenario element image T11b. By displaying the test text data T22, the user can visually confirm the test result according to the procedure of the test scenario, so that the convenience of the user can be improved.
 確認依頼コンテンツT23は、例えば、判別部150で判別された第2要素が第1要素と一致しないことを示すテキストを含む第1オブジェクトT23aと、判別部150で判別された第2要素を含むテスト要素画像T21を強調表示させる第2オブジェクトT23bとを含む。第1オブジェクトT23aは、例えば、「要確認」などの、ユーザに確認を促すテキストで構成されている。第2オブジェクトT23bは、例えば、判別部150で判別された第2要素を含むテスト要素画像T21を、所定の色彩で取り囲むようなオブジェクトであってもよい。確認依頼コンテンツT23が表示されることによって、ユーザは視覚的に容易に判別部150で判別された第2要素を含む手順を認識することができるため、ユーザの利便性を向上できる。 The confirmation request content T23 is, for example, a test including a first object T23a including a text indicating that the second element determined by the discrimination unit 150 does not match the first element, and a second element determined by the discrimination unit 150. It includes a second object T23b that highlights the element image T21. The first object T23a is composed of a text prompting the user to confirm, for example, "confirmation required". The second object T23b may be, for example, an object that surrounds the test element image T21 including the second element determined by the discrimination unit 150 with a predetermined color. By displaying the confirmation request content T23, the user can visually easily recognize the procedure including the second element determined by the determination unit 150, so that the convenience of the user can be improved.
 図11は、要素比較画面T3の一例を示す図である。表示処理部170は、例えば、テスト結果情報D113を参照して、要素比較画面T3を生成する。図11に示すように、要素比較画面T3は、例えば、過去のテスト結果を示すキャプチャ画像T31と、今回のテスト結果を示すキャプチャ画像T32と、第1ボタンT33と、第2ボタンT34とを含む。なお、要素比較画面T3は、例えば、過去のテスト結果を示すキャプチャ画像T31に替えて、第1システム画面を含んでもよい。 FIG. 11 is a diagram showing an example of the element comparison screen T3. The display processing unit 170 generates an element comparison screen T3 with reference to, for example, the test result information D113. As shown in FIG. 11, the element comparison screen T3 includes, for example, a captured image T31 showing past test results, a captured image T32 showing the current test results, a first button T33, and a second button T34. .. The element comparison screen T3 may include a first system screen instead of the captured image T31 showing the past test results, for example.
 キャプチャ画像T31は、例えば、テストシナリオにしたがって過去にテストされた結果、成功したシステム画面を示す画像である。また、キャプチャ画像T31は、例えば、過去にテストシナリオを修正した後に、再度テストした結果、成功したシステム画面を示す画像であってもよい。キャプチャ画像T31は、例えば、今回のテストにおいて判別部150で判別された第2要素に対応する要素に対して、所定の色彩を有するオブジェクト(例えば、オブジェクトT31a)を付して生成されてもよい。なお、「過去」とは、例えばテストに成功した直近である。 The captured image T31 is, for example, an image showing a successful system screen as a result of being tested in the past according to a test scenario. Further, the captured image T31 may be, for example, an image showing a successful system screen as a result of retesting after modifying the test scenario in the past. The captured image T31 may be generated, for example, by attaching an object having a predetermined color (for example, the object T31a) to the element corresponding to the second element determined by the determination unit 150 in this test. .. The "past" is, for example, the latest successful test.
 キャプチャ画像T32は、例えば、今回のテストにおいて、第2システム画面の各要素に、テストシナリオにしたがった操作入力を実行した状態を示す画像である。キャプチャ画像T32は、例えば、今回のテストにおいて判別部150で判別された第2要素に対して、所定の色彩を有するオブジェクト(例えば、オブジェクトT32a)を付して生成されていてもよい。 The captured image T32 is, for example, an image showing a state in which an operation input according to a test scenario is executed for each element of the second system screen in this test. The captured image T32 may be generated, for example, by attaching an object having a predetermined color (for example, the object T32a) to the second element determined by the determination unit 150 in this test.
 このように、キャプチャ画像T31とキャプチャ画像T32とを比較可能にユーザのユーザ端末200の表示部205aに表示させることによって、ユーザは視覚的に容易に判別部150で判別された第2要素を認識することができるため、ユーザの利便性を向上できる。 In this way, by displaying the captured image T31 and the captured image T32 on the display unit 205a of the user terminal 200 so as to be comparable, the user visually easily recognizes the second element determined by the discriminating unit 150. Therefore, the convenience of the user can be improved.
 第1ボタンT33は、例えば、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正するためのボタンである。図11では、第1ボタンT33が「成功とする」というテキストで表示されている。具体的には、ユーザ端末200は、例えば、第1ボタンT33に対して、ユーザによる操作入力を受け付けた場合、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正する処理を要求する修正要求を、テスト自動化サーバ100に送信する。これにより、ユーザは第1ボタンT33に対して操作入力するだけでテストシナリオを修正することができるため、ユーザの利便性を向上できる。 The first button T33 is, for example, a button for modifying a procedure including the first element in a test scenario to a procedure including the second element. In FIG. 11, the first button T33 is displayed with the text "successful". Specifically, for example, when the user terminal 200 receives an operation input by the user for the first button T33, the user terminal 200 performs a process of modifying the procedure including the first element in the test scenario to the procedure including the second element. The requested modification request is sent to the test automation server 100. As a result, the user can modify the test scenario simply by inputting an operation to the first button T33, which can improve the convenience of the user.
 第2ボタンT34は、例えば、テストシナリオにおける第1要素を含む手順を第2要素を含む手順とは異なる手順に修正するためのボタンである。換言すると、第2ボタンT34は、例えば、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正させないボタンである。図11では、第2ボタンT34が「失敗とする」というテキストで表示されている。具体的には、ユーザ端末200は、例えば、第2ボタンT34に対して、ユーザによる操作入力を受け付けた場合、テストシナリオにおける第1要素を含む手順を他の手順と差し替える処理を要求する差替要求を、テスト自動化サーバ100に送信する。 The second button T34 is, for example, a button for modifying a procedure including the first element in a test scenario to a procedure different from the procedure including the second element. In other words, the second button T34 is, for example, a button that does not cause the procedure including the first element in the test scenario to be modified by the procedure including the second element. In FIG. 11, the second button T34 is displayed with the text "Failure". Specifically, for example, when the user terminal 200 receives an operation input by the user for the second button T34, the user terminal 200 requests a process of replacing the procedure including the first element in the test scenario with another procedure. The request is sent to the test automation server 100.
 送信部180は、例えば各種画画面に関する情報をユーザ端末200に送信する。 The transmission unit 180 transmits, for example, information about various image screens to the user terminal 200.
 次に、図12を参照して、ユーザ端末200の機能構成について説明する。図12は、本実施形態に係るユーザ端末200の機能構成の一例を示す図である。ユーザ端末200は、例えば、テスト自動化サーバ100から取得した情報に基づいて、各種画面を表示部205aに表示させる。ユーザ端末200は、例えば、記憶部210と、取得部220と、表示処理部230と、送信部240との機能部を含む。記憶部210は、例えば各種情報を記憶する。取得部220は、例えば各種画面に関する情報をテスト自動化サーバ100から取得する。表示処理部230は、例えば、取得した各種画面に関する情報を表示部205aに表示させる。送信部240は、例えば各種情報をテスト自動化サーバ100に送信する。 Next, the functional configuration of the user terminal 200 will be described with reference to FIG. FIG. 12 is a diagram showing an example of the functional configuration of the user terminal 200 according to the present embodiment. The user terminal 200 causes the display unit 205a to display various screens based on the information acquired from the test automation server 100, for example. The user terminal 200 includes, for example, a storage unit 210, an acquisition unit 220, a display processing unit 230, and a functional unit of a transmission unit 240. The storage unit 210 stores, for example, various types of information. The acquisition unit 220 acquires, for example, information about various screens from the test automation server 100. The display processing unit 230 causes the display unit 205a to display, for example, information on various acquired screens. The transmission unit 240 transmits, for example, various information to the test automation server 100.
===詳細手順===
 次に、図13を適宜参照して、本実施形態に係る情報処理の手順について説明する。図13は、本実施形態に係るテスト自動化システム10の情報処理の手順を示すフローチャートである。ここで、図13では、限定ではなく例として、図7に示す第1システム画面によってテストシナリオが作成された後において、図8に示す第2システム画面をテストシナリオにしたがってテストする情報処理の手順について説明する。
=== Detailed procedure ===
Next, the procedure of information processing according to the present embodiment will be described with reference to FIG. 13 as appropriate. FIG. 13 is a flowchart showing a procedure of information processing of the test automation system 10 according to the present embodiment. Here, in FIG. 13, as an example, not limited to, an information processing procedure for testing the second system screen shown in FIG. 8 according to the test scenario after the test scenario is created by the first system screen shown in FIG. Will be explained.
 まず、ステップS101において、ユーザ端末200は、例えば、表示部205aに表示されたテスト実行を要求するボタンに対して、ユーザの操作入力を受け付けた場合、第2システム画面のテストをテスト自動化サーバ100に実行させるための実行要求を生成する。ユーザ端末200は、例えば実行要求をテスト自動化サーバ100に送信する。 First, in step S101, when the user terminal 200 receives a user's operation input for a button displayed on the display unit 205a for requesting test execution, the test automation server 100 tests the second system screen. Generate an execution request to execute. The user terminal 200 sends, for example, an execution request to the test automation server 100.
 次に、ステップS102において、テスト自動化サーバ100は、例えば、実行要求に基づいて、テストシナリオを特定する。 Next, in step S102, the test automation server 100 specifies a test scenario based on, for example, an execution request.
 次に、ステップS103において、テスト自動化サーバ100は、例えば、第2システム画面に対してテストシナリオにしたがってテストを実行する。 Next, in step S103, the test automation server 100 executes a test on the second system screen according to a test scenario, for example.
 次に、ステップS104において、テスト自動化サーバ100は、上述した判別処理を実行する。テスト自動化サーバ100は、例えば、判別処理において、第1システム画面の第1要素から変更された第2システム画面の第2要素を判別する。 Next, in step S104, the test automation server 100 executes the above-mentioned determination process. For example, in the discrimination process, the test automation server 100 discriminates the second element of the second system screen changed from the first element of the first system screen.
 次に、ステップS105において、テスト自動化サーバ100は、例えば、テスト結果情報D113を参照して、テスト結果画面T2に関する情報を生成する。なお、テスト自動化サーバ100は、例えば、予めテスト結果画面T2に関する情報を記憶しているデータベース(不図示)からテスト結果画面T2に関する情報を取得してもよい。テスト自動化サーバ100は、例えばテスト結果画面T2に関する情報をユーザ端末200に送信する。 Next, in step S105, the test automation server 100 generates information about the test result screen T2 with reference to, for example, the test result information D113. The test automation server 100 may acquire information about the test result screen T2 from a database (not shown) that stores information about the test result screen T2 in advance, for example. The test automation server 100 transmits, for example, information about the test result screen T2 to the user terminal 200.
 次に、ステップS106において、ユーザ端末200は、表示部205aにテスト結果画面T2を表示させる。ユーザ端末200は、例えば、確認依頼コンテンツT23が付されているテスト要素画像T21に対して、ユーザによる操作入力を受け付けた場合、第2要素を確認するための要素比較画面T3を要求する確認要求を、テスト自動化サーバ100に送信する。 Next, in step S106, the user terminal 200 causes the display unit 205a to display the test result screen T2. For example, when the user terminal 200 receives an operation input by the user for the test element image T21 to which the confirmation request content T23 is attached, the user terminal 200 requests a confirmation request for an element comparison screen T3 for confirming the second element. Is sent to the test automation server 100.
 次に、ステップS107において、テスト自動化サーバ100は、確認要求に基づいて、要素比較画面T3に関する情報を生成する。なお、テスト自動化サーバ100は、例えば、予め要素比較画面T3を記憶しているデータベース(不図示)から要素比較画面T3に関する情報を取得してもよい。テスト自動化サーバ100は、例えば要素比較画面T3に関する情報をユーザ端末200に送信する。 Next, in step S107, the test automation server 100 generates information about the element comparison screen T3 based on the confirmation request. The test automation server 100 may acquire information about the element comparison screen T3 from a database (not shown) that stores the element comparison screen T3 in advance, for example. The test automation server 100 transmits, for example, information about the element comparison screen T3 to the user terminal 200.
 次に、ステップS108において、ユーザ端末200は、表示部205aに要素比較画面T3を表示させる。ユーザ端末200は、例えば、要素比較画面T3の第1ボタンT33に対して、ユーザによる操作入力を受け付けた場合、テストシナリオにおける第1要素を含む手順を第2要素を含む手順に修正する処理を要求する修正要求を、テスト自動化サーバ100に送信する。 Next, in step S108, the user terminal 200 causes the display unit 205a to display the element comparison screen T3. For example, when the user terminal 200 receives an operation input by the user for the first button T33 of the element comparison screen T3, the user terminal 200 performs a process of modifying the procedure including the first element in the test scenario to the procedure including the second element. The requested modification request is sent to the test automation server 100.
 次に、ステップS109において、テスト自動化サーバ100は、修正要求に基づいて、シナリオ情報D111における[シナリオ内容]の項目の内容を修正する。これにより、再度、第2システム画面を同様のテストシナリオでテストした場合、確認依頼コンテンツT23が表示されない。すなわち、第2システム画面のテストが正常に完了する。 Next, in step S109, the test automation server 100 corrects the contents of the [scenario content] item in the scenario information D111 based on the correction request. As a result, when the second system screen is tested again in the same test scenario, the confirmation request content T23 is not displayed. That is, the test of the second system screen is completed normally.
 このように、テストシナリオを作成した時のシステム画面を構成する要素が、テストを実行した時のシステム画面において変更されていた場合、テストのエラー原因をユーザが特定し、ユーザの手動でテストシナリオを修正するという作業を削減できるため、システム画面に関するテスト工数を大幅に減らすことができる。 In this way, if the elements that make up the system screen when the test scenario is created are changed on the system screen when the test is executed, the user identifies the cause of the test error and the user manually tests the test scenario. Since the work of modifying the system screen can be reduced, the test man-hours related to the system screen can be significantly reduced.
<<第1の変形例>>
 図14を参照して、第1の変形例について説明する。図14は、判別部150で判別された複数の要素を選択的に表示する比較選択画面T4の一例を示す図である。
<< First variant >>
A first modification will be described with reference to FIG. FIG. 14 is a diagram showing an example of a comparison selection screen T4 that selectively displays a plurality of elements determined by the discrimination unit 150.
 第1の変形例に係るテスト自動化サーバ100は、例えば、判別部150において、第1要素から変更されたと推定される複数の要素を判別する。テスト自動化サーバ100は、例えば、判別された複数の要素を含む比較選択画面T4を生成する。以下、まず、判別部150における判別処理について説明し、その後、比較選択画面T4について説明する。以下、第1の変形例の判別処理は、本実施形態の判別処理における「特徴」を抽出する処理が同じであるためその説明を省略する。 The test automation server 100 according to the first modification determines, for example, a plurality of elements presumed to have been changed from the first element in the determination unit 150. The test automation server 100 generates, for example, a comparison selection screen T4 including a plurality of determined elements. Hereinafter, the discrimination process in the discrimination unit 150 will be described first, and then the comparison selection screen T4 will be described. Hereinafter, since the discrimination process of the first modification is the same as the process of extracting the "feature" in the discrimination process of the present embodiment, the description thereof will be omitted.
 判別部150は、例えば、第1要素特徴に基づいて、第1要素に対応すると推定される第2システム画面の複数の要素を判別する。具体的には、判別部150は、例えば、第2システム画面の要素のうち、第1要素特徴に対して第1条件を満たす第2要素特徴を有する第2要素を判別する。さらに、判別部150は、例えば、第2システム画面の要素のうち、第2条件を満たす特徴(以下、第3要素特徴という)を有する要素(以下、第3要素という)を判別する。「第2条件」は、例えば、第2要素特徴が示す指標の次に、第1要素特徴に対して同一性を示す指標が高いという条件である。判別部150は、第2要素および第3要素を判別した結果を示す判別結果情報を生成する。判別部150は、例えば判別結果情報をテスト結果情報D113に記憶する。なお、上記において、判別部150は、第2要素、第3要素の2つの要素を判別するように説明したがこれに限定されない。判別部150は、3つ以上の要素を判別してもよい。 The discrimination unit 150 discriminates a plurality of elements of the second system screen presumed to correspond to the first element, for example, based on the first element feature. Specifically, the discriminating unit 150 discriminates, for example, a second element having a second element feature satisfying the first condition with respect to the first element feature among the elements of the second system screen. Further, the discriminating unit 150 discriminates, for example, an element (hereinafter referred to as a third element) having a feature satisfying the second condition (hereinafter referred to as a third element feature) among the elements of the second system screen. The "second condition" is, for example, a condition that the index showing the identity with respect to the first element feature is higher than the index shown by the second element feature. The discrimination unit 150 generates discrimination result information indicating the result of discriminating the second element and the third element. The discrimination unit 150 stores, for example, the discrimination result information in the test result information D113. In the above, the discrimination unit 150 has been described so as to discriminate between the two elements of the second element and the third element, but the present invention is not limited to this. The discriminating unit 150 may discriminate three or more elements.
 表示処理部170は、例えば、テスト結果情報D113を参照して、比較選択画面T4を生成する。以下、図14を参照して、比較選択画面T4について説明する。図14は、過去のテスト結果と今回のテスト結果とを比較可能な比較選択画面T4の一例を示す図である。図14に示すように、比較選択画面T4は、例えば、過去のテスト結果を示すキャプチャ画像T41と、今回のテスト結果を示すキャプチャ画像T42,T43と、第1ボタンT44と、第2ボタンT45とを含む。なお、キャプチャ画像T41、第1ボタンT44、及び第2ボタンT45は、図11に示すキャプチャ画像T31、第1ボタンT33、及び第2ボタンT34と同様であるためその説明を省略する。 The display processing unit 170 generates, for example, the comparison selection screen T4 with reference to the test result information D113. Hereinafter, the comparison selection screen T4 will be described with reference to FIG. FIG. 14 is a diagram showing an example of the comparison selection screen T4 capable of comparing the past test result and the current test result. As shown in FIG. 14, the comparison selection screen T4 has, for example, a captured image T41 showing the past test results, captured images T42 and T43 showing the current test results, a first button T44, and a second button T45. including. Since the captured image T41, the first button T44, and the second button T45 are the same as the captured image T31, the first button T33, and the second button T34 shown in FIG. 11, the description thereof will be omitted.
 キャプチャ画像T42は、例えば、今回のテストにおいて判別された第2要素(ここでは、「career」)を強調表示するための強調オブジェクトT42aを含む。強調オブジェクトT42aは、例えば、第2要素を所定の色彩で取り囲むようなオブジェクトであってもよい。キャプチャ画像T43は、例えば、今回のテストにおいて判別された第3要素(ここでは、「about us」)を強調表示するための強調オブジェクトT43aを含む。強調オブジェクトT43aは、例えば、第3要素を所定の色彩で取り囲むようなオブジェクトであってもよい。これにより、ユーザが第1要素に対応する複数の候補となる要素を確認することができるため、ユーザの利便性を向上できる。なお、図14において、キャプチャ画像T42,T43がそれぞれのシステム画面全体を表示するよう示されているが、これに限定されない。例えば、比較選択画像T4において、第2要素を含むシステム画面の一部の画像と、第3要素を含むシステム画面の一部の画像とが表示されていてもよい。また、例えば、比較選択画像T4において、第2要素を含むキャプチャ画像T42と、第2システム画面を構成する要素を含む画像を、その要素の第1要素特徴に対する同一性を示す指標が高い順に表示させてもよい。具体的には、図15に示すように、比較選択画像T4において、第2要素(ここでは、「career」)が強調表示されているキャプチャ画像T42と、キャプチャ画像T42の近くに、紙面の左から順に、第1要素特徴に対する同一性を示す指標が高い要素(ここでは、左から順に、「about us」、「Company」)を含む画像T431,T432を表示させてもよい。また、例えば、比較選択画像T4において、キャプチャ画像T42が、第2要素を強調するための強調オブジェクトT42bを含み、第2要素よりも同一性を示す指標が低い要素を強調するための強調オブジェクトT42cを含んでいてもよい。強調オブジェクトT42cは、例えば、強調オブジェクトT42bよりも強調の度合いが低く設定されている。具体的には、図16に示すように、比較選択画像T4のキャプチャ画像T42において、例えば、第2要素がハイライトで強調表示され、第2要素よりも同一性を示す指標が低い要素が、第2要素のハイライトよりも暗いハイライトで強調表示されていてもよい。また、例えば、同一性を示す指標が高い要素ほど、強調の度合いが高い強調オブジェクトによって強調表示されてもよい。具体的には、キャプチャ画像T42を構成する要素において、同一性を示す指標が高い順に明るいハイライトで強調表示されていてもよい。また、キャプチャ画像T42を構成する要素に対して、同一性を示す指標の高低を示す符号(番号など)が付されていてもよい。 The captured image T42 includes, for example, a highlighting object T42a for highlighting the second element (here, “career”) determined in this test. The emphasis object T42a may be, for example, an object that surrounds the second element with a predetermined color. The captured image T43 includes, for example, a highlighting object T43a for highlighting the third element (here, “about us”) determined in this test. The emphasis object T43a may be, for example, an object that surrounds the third element with a predetermined color. As a result, the user can confirm a plurality of candidate elements corresponding to the first element, so that the convenience of the user can be improved. Note that, in FIG. 14, the captured images T42 and T43 are shown to display the entire system screen, but the present invention is not limited to this. For example, in the comparison selection image T4, a part of the image of the system screen including the second element and a part of the image of the system screen including the third element may be displayed. Further, for example, in the comparative selection image T4, the captured image T42 including the second element and the image including the element constituting the second system screen are displayed in descending order of the index indicating the identity of the element with respect to the first element feature. You may let me. Specifically, as shown in FIG. 15, in the comparative selection image T4, the captured image T42 in which the second element (here, “career”) is highlighted and the captured image T42 near the captured image T42, on the left side of the paper. The images T431 and T432 may be displayed in order from the first element, which includes elements having a high index of identity with respect to the feature (here, “about us” and “Company” in order from the left). Further, for example, in the comparative selection image T4, the captured image T42 includes the emphasis object T42b for emphasizing the second element, and the emphasis object T42c for emphasizing the element having a lower index of identity than the second element. May include. The emphasis object T42c is set to have a lower degree of emphasis than, for example, the emphasis object T42b. Specifically, as shown in FIG. 16, in the captured image T42 of the comparative selection image T4, for example, an element in which the second element is highlighted and the index indicating identity is lower than that of the second element is It may be highlighted with a darker highlight than the highlight of the second element. Further, for example, an element having a higher index indicating identity may be highlighted by a highlighted object having a higher degree of highlighting. Specifically, in the elements constituting the captured image T42, the index indicating the identity may be highlighted with bright highlights in descending order. Further, the elements constituting the captured image T42 may be assigned a reference numeral (number or the like) indicating the height of the index indicating the identity.
 次に、第1の変形例に係る情報処理の手順について説明する。第1の変形例に係る情報処理のフローチャートは、図13に示すフローチャートに対して、要素比較画面T3を選択比較画面T4に替えて、S107とS108との間に、以下のステップS108Aを追加したものである。 Next, the procedure of information processing according to the first modification will be described. In the information processing flowchart according to the first modification, the element comparison screen T3 is replaced with the selection comparison screen T4, and the following step S108A is added between S107 and S108 with respect to the flowchart shown in FIG. It is a thing.
 ステップS108Aにおいて、ユーザ端末200は、例えば、表示部205aに比較選択画面T4を表示させる。ユーザ端末200は、例えば、図14に示す比較選択画面T4のキャプチャ画像T42または第2キャプチャ画像T43のいずれかに対して、ユーザによる操作入力を受け付けた場合、操作入力を受け付けた画像が選択されたと認識する。なお、図15に示す比較選択画面T4では、ユーザ端末200は、例えば、キャプチャ画像T42、キャプチャ画像T431、またはキャプチャ画像T432のいずれかに対して、ユーザによる操作入力を受け付けた場合、操作入力を受け付けた画像が選択されたと認識する。また、図16に示す比較選択画面T4においては、ユーザ端末200は、例えば、ハイライトで強調表示されている要素に対して、ユーザによる操作入力を受け付けた場合、操作入力を受け付けた要素が選択されたと認識する。ステップS108において、ユーザ端末200は、例えば、第1ボタンT44に対して、ユーザによる操作入力を受け付けた場合、テストシナリオにおける第1要素を含む手順を、選択された画像で強調表示される要素(第2要素または第3要素)を含む手順に修正する修正要求を、テスト自動化サーバ100に送信する。 In step S108A, the user terminal 200 causes, for example, the display unit 205a to display the comparison selection screen T4. For example, when the user terminal 200 receives an operation input by the user for either the captured image T42 or the second captured image T43 of the comparison selection screen T4 shown in FIG. 14, the image that has received the operation input is selected. Recognize that. In the comparison selection screen T4 shown in FIG. 15, when the user terminal 200 accepts an operation input by the user for any of the captured image T42, the captured image T431, and the captured image T432, for example, the user terminal 200 receives the operation input. Recognize that the accepted image has been selected. Further, in the comparison selection screen T4 shown in FIG. 16, when the user terminal 200 accepts an operation input by the user for the element highlighted by highlighting, for example, the element that has received the operation input is selected. Recognize that it was done. In step S108, for example, when the user terminal 200 receives an operation input by the user for the first button T44, the procedure including the first element in the test scenario is highlighted in the selected image (elements). A modification request for modifying the procedure including the second element or the third element) is sent to the test automation server 100.
 このように、ユーザに対して第1要素に対応すると推定される複数の要素を提示して、ユーザに選択させることにより、選択した結果をテスト自動化システム10にフィードバックすることで、テスト自動化システム10の推定精度を向上させることができる。 In this way, by presenting a plurality of elements presumed to correspond to the first element to the user and letting the user select them, the selected result is fed back to the test automation system 10, and the test automation system 10 The estimation accuracy of can be improved.
<<第2の変形例>>
 第2の変形例に係るテスト自動化サーバ100は、例えば、判別部150において第1要素から変更された要素が判別された都度、ユーザに対して、判別された要素が正しいか否かを確認する。具体的には、判別部150は、例えば、テストシナリオの手順ごとに、特定される一致度が所定の閾値を満たすか否かを判別する。判別部150は、例えば、所定の手順の一致度が所定の閾値を満たさないと判別された場合、判別処理によって第2要素を判別する。表示処理部170は、例えば、判別部150で第2要素が判別された都度、表示部205aに、例えば判別部150で判別された手順までの判別結果が示されるテスト結果画面T2を表示させる。これにより、ユーザはテストシナリオの途中で第2要素を確認して、テストシナリオを修正できるため、ユーザの利便性を向上できる。
<< Second variant >>
The test automation server 100 according to the second modification confirms, for example, whether or not the determined element is correct to the user each time the determination unit 150 determines the changed element from the first element. .. Specifically, the discriminating unit 150 determines whether or not the specified degree of agreement satisfies a predetermined threshold value for each procedure of the test scenario, for example. For example, when it is determined that the degree of agreement of a predetermined procedure does not satisfy a predetermined threshold value, the discrimination unit 150 discriminates the second element by a discrimination process. For example, each time the discrimination unit 150 determines the second element, the display processing unit 170 causes the display unit 205a to display a test result screen T2 showing the determination results up to the procedure determined by the discrimination unit 150, for example. As a result, the user can confirm the second element in the middle of the test scenario and modify the test scenario, so that the convenience of the user can be improved.
<<第3の変形例>>
 第3の変形例に係るテスト自動化サーバ100は、例えば、ユーザ端末200において、図11に示す要素比較画面T3の第2ボタンT34に対して、ユーザによる操作入力を受け付けた場合、第1要素を含む手順を、第2要素を含む手順に差し替えない。この場合、テスト自動化サーバ100は、例えば、表示部205aに図8に示す第2システム画面を表示させる。そして、テスト実行部140は、例えば、テストシナリオの手順のうち、第2要素を含む手順までの手順を自動的に実行する。これにより、ユーザのテストに関する操作手順を減らすことができるため、ユーザの利便性を向上できる。
<< Third variant >>
When the test automation server 100 according to the third modification receives an operation input by the user for the second button T34 of the element comparison screen T3 shown in FIG. 11 in the user terminal 200, for example, the first element is used. Do not replace the including procedure with the procedure including the second element. In this case, the test automation server 100 causes, for example, the display unit 205a to display the second system screen shown in FIG. Then, the test execution unit 140 automatically executes, for example, the procedure up to the procedure including the second element among the procedures of the test scenario. As a result, the operation procedure related to the user's test can be reduced, so that the user's convenience can be improved.
===テスト自動化システム10のハードウェア構成===
 図17、図18を参照して、テスト自動化システム10に含まれる各装置のHW構成について説明する。図17は、テスト自動化サーバ100のハードウェア構成の一例を示す図である。図18は、ユーザ端末200のハードウェア構成の一例を示す図である。
=== Hardware configuration of test automation system 10 ===
The HW configuration of each device included in the test automation system 10 will be described with reference to FIGS. 17 and 18. FIG. 17 is a diagram showing an example of the hardware configuration of the test automation server 100. FIG. 18 is a diagram showing an example of the hardware configuration of the user terminal 200.
 図17に示すように、テスト自動化サーバ100は、制御部(CPU)101、記憶装置102、通信I/F(インタフェース)103、入力装置104、出力装置105を備える。テスト自動化サーバ100のHWの各構成要素は、例えば、バスB1を介して相互に接続される。なお、テスト自動化サーバ100のHWは、テスト自動化サーバ100のHWの構成として、全ての構成要素を含むことは必須ではない。例えば、テスト自動化サーバ100のHWは、出力装置105を取り外すことが可能な構成であってもよいし、そうでなくてもよい。 As shown in FIG. 17, the test automation server 100 includes a control unit (CPU) 101, a storage device 102, a communication I / F (interface) 103, an input device 104, and an output device 105. The components of the HW of the test automation server 100 are connected to each other via, for example, the bus B1. It is not essential that the HW of the test automation server 100 includes all the components as the configuration of the HW of the test automation server 100. For example, the HW of the test automation server 100 may or may not have a configuration in which the output device 105 can be removed.
 制御部101は、プログラムP1内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。制御部101は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAであってもよいし、そうでなくてもよい。本開示において、制御部101は、これらに限定されない。 The control unit 101 has a circuit physically structured to execute a function realized by a code or an instruction contained in the program P1, and is realized by, for example, a data processing device built in hardware. To. The control unit 101 is typically a central processing unit (CPU), and may or may not be a microprocessor, a processor core, a multiprocessor, an ASIC, or an FPGA. In the present disclosure, the control unit 101 is not limited to these.
 記憶装置102は、テスト自動化サーバ100が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置102は、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。ただし、本開示において、記憶装置102は、これらに限定されない。また、記憶装置102は、メモリ(memory)と表現されてもよいし、されなくてもよい。 The storage device 102 has a function of storing various programs and various data required for the test automation server 100 to operate. The storage device 102 is realized by various storage media such as HDD, SSD, and flash memory. However, in the present disclosure, the storage device 102 is not limited to these. Further, the storage device 102 may or may not be expressed as a memory.
 通信I/F103は、ネットワークNを介して各種データの送受信を行う。通信I/F103による通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F103は、ネットワークNを介して、ユーザ端末200などの他の装置との通信を実行する機能を有する。通信I/F103は、各種データを制御部101からの指示に従って、他の装置に送信する。また、通信I/F103は、他の装置から送信された各種データを受信し、制御部101に伝達する。また、通信I/F103を単に通信部と表現する場合もある。また、通信I/F103が物理的に構造化された回路で構成される場合には、通信回路と表現する場合もある。 The communication I / F 103 transmits and receives various data via the network N. The communication by the communication I / F 103 may be executed by either wired or wireless, and any communication protocol may be used as long as the mutual communication can be executed. The communication I / F 103 has a function of executing communication with another device such as a user terminal 200 via the network N. The communication I / F 103 transmits various data to other devices according to instructions from the control unit 101. Further, the communication I / F 103 receives various data transmitted from other devices and transmits them to the control unit 101. Further, the communication I / F 103 may be simply expressed as a communication unit. Further, when the communication I / F 103 is composed of a physically structured circuit, it may be expressed as a communication circuit.
 入力装置104は、テスト自動化サーバ100に対する各種操作を入力する装置により実現される。入力装置104は、ユーザからの入力を受け付けて、受け付けた入力に係る情報を制御部101に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力装置104は、代表的にはキーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイスで実現される。なお、入力装置104は、例えば、タッチパネルやカメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含んでいてもよいし、そうでなくてもよい。ただし、本開示において、入力装置104は、これらに限定されない。 The input device 104 is realized by a device that inputs various operations to the test automation server 100. The input device 104 is realized by any one or a combination of all kinds of devices capable of receiving an input from a user and transmitting information related to the received input to the control unit 101. The input device 104 is typically realized by a hardware key typified by a keyboard or the like, or a pointing device such as a mouse. The input device 104 may or may not include, for example, a touch panel, a camera (operation input via a moving image), and a microphone (operation input by voice). However, in the present disclosure, the input device 104 is not limited to these.
 出力装置105は、例えば、表示部を含む。表示部は、代表的にはモニタ(例えば、液晶ディスプレイやOELD)で実現される。なお、表示部は、ヘッドマウントディスプレイ(HDM)などであってもよいし、そうでなくてもよい。なお、これらの表示部13aは、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。ただし、本開示において、表示部は、これらに限定されない。 The output device 105 includes, for example, a display unit. The display unit is typically realized by a monitor (for example, a liquid crystal display or OELD). The display unit may or may not be a head-mounted display (HDM) or the like. It should be noted that these display units 13a may or may not be able to display display data in 3D. However, in the present disclosure, the display unit is not limited to these.
 テスト自動化サーバ100は、プログラムP1と各種データベースとを記憶装置102に記憶する。テスト自動化サーバ100において、制御部101がこのプログラムP1を実行することで、制御部101に含まれる各部としての処理を実行する。つまり、記憶装置102に記憶されるプログラム15aは、テスト自動化サーバ100に、制御部101が実行する各機能を実現させる。このプログラムP1は、プログラムモジュールと表現されてもよいし、されなくてもよい。 The test automation server 100 stores the program P1 and various databases in the storage device 102. In the test automation server 100, the control unit 101 executes this program P1 to execute the processing as each unit included in the control unit 101. That is, the program 15a stored in the storage device 102 causes the test automation server 100 to realize each function executed by the control unit 101. This program P1 may or may not be expressed as a program module.
 図18に示すように、ユーザ端末200は、制御部(CPU:Central Processing Unit(中央処理装置))201、記憶装置202、通信I/F(インタフェース)203、入力装置204、出力装置205を備える。ユーザ端末200のHWの各構成要素は、例えば、バスB2を介して相互に接続される。なお、ユーザ端末200のHW構成として、すべての構成要素を含むことは必須ではない。例えば、ユーザ端末200は、入力装置204、出力装置205等、個々の構成要素、または複数の構成要素を取り外すことが可能な構成であってもよいし、そうでなくてもよい。 As shown in FIG. 18, the user terminal 200 includes a control unit (CPU: Central Processing Unit) 201, a storage device 202, a communication I / F (interface) 203, an input device 204, and an output device 205. .. The components of the HW of the user terminal 200 are connected to each other via, for example, the bus B2. It is not essential that the HW configuration of the user terminal 200 includes all the components. For example, the user terminal 200 may or may not have a configuration in which individual components such as an input device 204 and an output device 205 can be removed, or a plurality of components can be removed.
 制御部201は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。そのため、制御部201は、制御回路と表現されてもよいし、されなくてもよい。制御部201は、例えば、中央処理装置(CPU)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、またはFPGA(Field Programmable Gate Array)を含む。 The control unit 201 has a circuit physically structured to execute a function realized by a code or an instruction contained in the program, and is realized by, for example, a data processing device built in hardware. .. Therefore, the control unit 201 may or may not be expressed as a control circuit. The control unit 201 is, for example, a central processing unit (CPU), a microprocessor (microprocessor), a processor core (processor core), a multiprocessor (multiprocessor), an ASIC (Application-Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array). including.
 記憶装置202は、ユーザ端末200が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置202は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)など各種の記憶媒体を含む。また、記憶装置202は、メモリ(memory)と表現されてもよいし、されなくてもよい。 The storage device 202 has a function of storing various programs and various data required for the user terminal 200 to operate. The storage device 202 includes various storage media such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, a RAM (Random Access Memory), and a ROM (Read Only Memory). Further, the storage device 202 may or may not be expressed as a memory.
 通信I/F203は、ネットワークNを介して各種データの送受信を行う。通信I/F203による通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F203は、ネットワークNを介して、テスト自動化サーバ100との通信を実行する機能を有する。通信I/F203は、各種データを制御部201からの指示に従って、テスト自動化サーバ100に送信する。また、通信I/F203は、テスト自動化サーバ100から送信された各種データを受信し、制御部201に伝達する。また、通信I/F203を単に通信部と表現する場合もある。また、通信I/F203が物理的に構造化された回路で構成される場合には、通信回路と表現する場合もある。 Communication I / F203 sends and receives various data via network N. Communication by communication I / F 203 may be executed by either wired or wireless, and any communication protocol may be used as long as mutual communication can be executed. The communication I / F 203 has a function of executing communication with the test automation server 100 via the network N. The communication I / F 203 transmits various data to the test automation server 100 according to the instruction from the control unit 201. Further, the communication I / F 203 receives various data transmitted from the test automation server 100 and transmits them to the control unit 201. Further, the communication I / F 203 may be simply expressed as a communication unit. Further, when the communication I / F 203 is composed of a physically structured circuit, it may be expressed as a communication circuit.
 入力装置204は、ユーザ端末200に対する各種操作を入力する装置を含む。出力装置205は、ユーザ端末200で処理された処理結果を出力する装置を含む。入力装置204および出力装置205を入出力部として特定してもよいし、特定しなくてもよい。入出力部として特定した場合、入出力部は、入力装置204と出力装置205が一体化していてもよいし、入力装置204と出力装置205に分離されていてもよい。 The input device 204 includes a device for inputting various operations to the user terminal 200. The output device 205 includes a device that outputs a processing result processed by the user terminal 200. The input device 204 and the output device 205 may or may not be specified as input / output units. When specified as an input / output unit, the input / output unit may be integrated with the input device 204 and the output device 205, or may be separated into the input device 204 and the output device 205.
 入力装置204は、ユーザからの入力を受け付けて、受け付けた入力に係る情報を制御部201に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力装置204は、例えば、操作部、マイク、カメラを含む。操作部は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイスを含む。マイクは、例えば、音声を入力するデバイスを含む。マイクは、音声データの入力に利用される。カメラは、例えば、画像を入力するデバイスを含む。カメラは、画像データの取得に利用される。 The input device 204 is realized by any one or a combination of all kinds of devices that can receive the input from the user and transmit the information related to the received input to the control unit 201. The input device 204 includes, for example, an operation unit, a microphone, and a camera. The operation unit includes, for example, a hardware key such as a touch panel, a touch display, and a keyboard, and a pointing device such as a mouse. The microphone includes, for example, a device for inputting voice. The microphone is used for inputting voice data. The camera includes, for example, a device for inputting an image. The camera is used to acquire image data.
 出力装置205は、制御部201で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力装置205は、例えば、表示部205aおよびスピーカ(音声出力)205bを含む。出力装置205は、さらに、例えば、タッチパネル、タッチディスプレイ、レンズ(例えば3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含む。 The output device 205 is realized by any one or a combination of all kinds of devices capable of outputting the processing result processed by the control unit 201. The output device 205 includes, for example, a display unit 205a and a speaker (audio output) 205b. The output device 205 further includes, for example, a touch panel, a touch display, a lens (for example, 3D (three dimensions) output, a hologram output), a printer, and the like.
 表示部205aは、フレームバッファに書き込まれた表示データに従って、画面を表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。表示部205aは、例えば、タッチパネル、タッチディスプレイ、モニタ(例えば、液晶ディスプレイやOELD(Organic Electroluminescence Display)、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよいし、そうでなくてもよい)に画面やテキスト情報等を表示可能な装置を含む。なお、これらの表示部205aは、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。スピーカ205bは、音声データの出力に利用される。 The display unit 205a is realized by any or a combination of all kinds of devices capable of displaying a screen according to the display data written in the frame buffer. The display unit 205a may be, for example, a touch panel, a touch display, a monitor (for example, a liquid crystal display or an OLELD (Organic Electroluminescence Display)), a head mounted display (HDM: Head Mounted Display), a projection mapping, a hologram, in the air, or the like (vacuum). It may or may not be) include devices capable of displaying screens, text information, etc. Note that these display units 205a may or may not be capable of displaying display data in 3D. It is not necessary. The speaker 205b is used for output of audio data.
 ユーザ端末200は、プログラムP2とデータベースとを記憶装置202に記憶する。ユーザ端末200において、制御部201がこのプログラムP2を実行することで、制御部201に含まれる各部としての処理を実行する。つまり、記憶装置202に記憶されるプログラムP2は、ユーザ端末200に、制御部201が実行する各機能を実現させる。また、このプログラムP2は、プログラムモジュールと表現されてもよいし、されなくてもよい。 The user terminal 200 stores the program P2 and the database in the storage device 202. In the user terminal 200, the control unit 201 executes the program P2 to execute the processing as each unit included in the control unit 201. That is, the program P2 stored in the storage device 202 causes the user terminal 200 to realize each function executed by the control unit 201. Further, this program P2 may or may not be expressed as a program module.
 本開示の各実施形態は、ユーザ端末200および/またはテスト自動化サーバ100のCPUがプログラムを実行することにより、実現されるものとして説明する。 Each embodiment of the present disclosure will be described as being realized by the CPU of the user terminal 200 and / or the test automation server 100 executing the program.
 また、本開示の各実施形態のプログラム(例えば、ソフトウェアプログラム、コンピュータプログラム、またはプログラムモジュール)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよいし、されなくてもよい。記憶媒体は、「一時的でない有形の媒体」に、各実施形態のプログラムを記憶可能である。また、各実施形態のプログラムは、本開示の各実施形態の機能の一部を実現するためのものであってもよいし、そうでなくてもよい。さらに、本開示の各実施形態の機能を記憶媒体にすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよいし、そうでなくてもよい。 Further, the program of each embodiment of the present disclosure (for example, a software program, a computer program, or a program module) may or may not be provided stored in a computer-readable storage medium. .. The storage medium can store the program of each embodiment in a "non-temporary tangible medium". Further, the program of each embodiment may or may not be for realizing a part of the function of each embodiment of the present disclosure. Further, it may or may not be a so-called difference file (difference program) that can realize the functions of each embodiment of the present disclosure in combination with a program already recorded in the storage medium.
 テスト自動化サーバ100および/またはユーザ端末200は、記憶媒体に記憶されたプログラムを読み出し、読み出したプログラムを実行することによって、各実施形態に示す複数の機能部の機能を実現することができる。 The test automation server 100 and / or the user terminal 200 can read the program stored in the storage medium and execute the read program to realize the functions of the plurality of functional units shown in each embodiment.
 また、本開示のプログラムは、プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、テスト自動化サーバ100および/またはユーザ端末200に提供されてもよいし、されなくてもよい。テスト自動化サーバ100および/またはユーザ端末200は、例えば、インターネット等を介してダウンロードしたプログラムPを実行することにより、各実施形態に示す複数の機能部の機能を実現する。 Further, the program of the present disclosure may or may not be provided to the test automation server 100 and / or the user terminal 200 via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. May be good. The test automation server 100 and / or the user terminal 200 realizes the functions of the plurality of functional units shown in each embodiment by executing the program P downloaded via the Internet or the like, for example.
 また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。テスト自動化サーバ100および/またはユーザ端末200における処理の少なくとも一部は、1以上のコンピュータ(例えば、1以上のコンピュータにより構成されるクラウドコンピューティング)により実現されていてもよいし、そうでなくてもよい。 In addition, each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission. At least a portion of the processing in the test automation server 100 and / or the user terminal 200 may or may not be implemented by one or more computers (eg, cloud computing composed of one or more computers). May be good.
 ユーザ端末200における処理の少なくとも一部を、テスト自動化サーバ100により行う構成としてもよいし、そうでなくてもよい。この場合、ユーザ端末200の制御部201の各機能部の処理のうち少なくとも一部の処理を、テスト自動化サーバ100で行う構成としてもよいし、そうでなくてもよい。 At least a part of the processing in the user terminal 200 may or may not be performed by the test automation server 100. In this case, at least a part of the processing of each functional unit of the control unit 201 of the user terminal 200 may or may not be performed by the test automation server 100.
 テスト自動化サーバ100における処理の少なくとも一部を、ユーザ端末200により行う構成としてもよいし、そうでなくてもよい。この場合、テスト自動化サーバ100の制御部101の各機能部の処理のうち少なくとも一部の処理を、ユーザ端末200で行う。 At least a part of the processing in the test automation server 100 may or may not be performed by the user terminal 200. In this case, at least a part of the processing of each functional unit of the control unit 101 of the test automation server 100 is performed by the user terminal 200.
===まとめ===
 本実施形態に係るテスト自動化システム10は、第1システム画面(表示部に表示される第1ユーザインターフェース)に基づいて生成されたテストシナリオ(シナリオ)にしたがって、第1システム画面(第1ユーザインターフェース)から変更された、第2システム画面(表示部に表示される第2ユーザインターフェース)をテストする際に、第2システム画面(第2ユーザインターフェース)において第1システム画面(第1ユーザインターフェース)を構成する第1要素から変更された第2要素を判別する判別部150と、判別部150における判別結果を示す情報を表示部205aに表示させる表示処理部170と、判別結果について、第2要素が第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得する取得部120と、取得部120で取得されたユーザの操作入力に関する情報に基づいて、シナリオにおける第1要素を第2要素に修正するシナリオ修正部160と、を備える。これにより、ユーザが容易に判別可能な方法によってシステム画面を構成する要素のうち、変更された要素を特定でき、変更された要素を含む手順について、コードを入力することなくテストシナリオに反映できるため、システム画面のテストにかかる工数を減らすことができる。
=== Summary ===
The test automation system 10 according to the present embodiment has a first system screen (first user interface) according to a test scenario (scenario) generated based on the first system screen (first user interface displayed on the display unit). ), When testing the second system screen (second user interface displayed on the display unit), the first system screen (first user interface) is displayed on the second system screen (second user interface). The discriminant unit 150 that discriminates the second element changed from the constituent first element, the display processing unit 170 that displays the information indicating the discriminant result in the discriminant unit 150 on the display unit 205a, and the second element regarding the discriminant result. The first element in the scenario is the first element based on the acquisition unit 120 that acquires information on the user's operation input indicating that the element corresponds to the first element and the information on the user's operation input acquired by the acquisition unit 120. It includes a scenario correction unit 160 that corrects to two elements. This makes it possible to identify the changed elements among the elements that make up the system screen by a method that can be easily identified by the user, and the procedure including the changed elements can be reflected in the test scenario without entering code. , The man-hours required for testing the system screen can be reduced.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、第1要素を含むキャプチャ画像T31(第1画像)と、第2要素を含むキャプチャ画像T32(第2画像)と、を比較可能に表示部205aに表示させる。これにより、ユーザは視覚的に容易に判別部150で判別された第2要素を認識することができるため、ユーザの利便性を向上できる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment compares the captured image T31 (first image) including the first element with the captured image T32 (second image) including the second element. It is possible to display it on the display unit 205a. As a result, the user can visually easily recognize the second element determined by the discrimination unit 150, which can improve the convenience of the user.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、キャプチャ画像T32(第2画像)において、第2要素を識別可能に表示させる。これにより、ユーザは視覚的に容易に判別部150で判別された第2要素を認識することができるため、ユーザの利便性を向上できる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment displays the second element in the captured image T32 (second image) in an identifiable manner. As a result, the user can visually easily recognize the second element determined by the discrimination unit 150, which can improve the convenience of the user.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、判別部150で判別された第2要素を含むテスト要素画像T21(画像)と、第2要素が第1要素と一致しないことを示す確認依頼コンテンツT23(テキスト)と、を表示させる。これにより、ユーザは視覚的に容易に判別部150で判別された第2要素を含む手順を認識することができるため、ユーザの利便性を向上できる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment does not match the test element image T21 (image) including the second element determined by the discrimination unit 150 with the second element. Confirmation request content T23 (text) indicating that is displayed. As a result, the user can visually easily recognize the procedure including the second element determined by the determination unit 150, so that the convenience of the user can be improved.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、表示部205aにユーザの操作入力を受け付ける第1ボタンT33を表示させ、取得部120は、第1ボタンT33に対してユーザの操作入力を受け付けたことを示す情報を取得し、シナリオ修正部160は、ユーザの操作入力を受け付けたことを示す情報に基づいて、シナリオを修正する。これにより、ユーザは第1ボタンT33に対して操作入力するだけでテストシナリオを修正することができるため、ユーザの利便性を向上できる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment causes the display unit 205a to display the first button T33 that accepts the user's operation input, and the acquisition unit 120 displays the user's first button T33 with respect to the first button T33. The scenario correction unit 160 acquires the information indicating that the operation input has been accepted, and corrects the scenario based on the information indicating that the operation input of the user has been accepted. As a result, the user can modify the test scenario simply by inputting an operation to the first button T33, which can improve the convenience of the user.
 また、本実施形態に係るテスト自動化システム10の判別部150は、第2システム画面(第2ユーザインターフェース)を構成する要素のうち、第1要素に関する特徴に対して第1条件を満たす第2要素特徴を有する要素を、第2要素として判別する。各要素の第2要素特徴を判別の根拠とすることにより、変更された要素を適切に判別することができる。 Further, the determination unit 150 of the test automation system 10 according to the present embodiment is a second element that satisfies the first condition with respect to the feature relating to the first element among the elements constituting the second system screen (second user interface). The element having the characteristic is discriminated as the second element. By using the second element feature of each element as the basis for discrimination, the changed element can be appropriately discriminated.
 また、本実施形態に係るテスト自動化システム10の判別部150は、第2システム画面(第2ユーザインターフェース)を構成する要素のうち、第1要素に関する特徴に対して第1条件を満たす第2要素特徴を有する要素と、第1要素に関する第1要素特徴に対して第2条件を満たす第3要素特徴を有する要素と、を判別し、表示処理部170は、第1条件を満たす第2要素特徴を有する要素を含むキャプチャ画像T42(第3画像)と、第2条件を満たす第3要素特徴を有する要素を含むキャプチャ画像T43(第4画像)と、を表示部205aに表示させる。これにより、ユーザが第1要素に対応する複数の候補となる要素を容易に確認することができるため、ユーザの利便性を向上できる。 Further, the determination unit 150 of the test automation system 10 according to the present embodiment is a second element that satisfies the first condition with respect to the feature relating to the first element among the elements constituting the second system screen (second user interface). The display processing unit 170 discriminates between an element having a feature and an element having a third element feature satisfying the second condition with respect to the first element feature relating to the first element, and the display processing unit 170 determines the second element feature satisfying the first condition. The captured image T42 (third image) including the element having the second element and the captured image T43 (fourth image) including the element having the third element feature satisfying the second condition are displayed on the display unit 205a. As a result, the user can easily confirm a plurality of candidate elements corresponding to the first element, so that the convenience of the user can be improved.
 また、本実施形態に係るテスト自動化システム10の取得部120は、キャプチャ画像T42(第3画像)またはキャプチャ画像T43(第4画像)のいずれかに対して、ユーザの操作入力を受け付けたことを示す情報を取得し、判別部150は、キャプチャ画像T42(第3画像)またはキャプチャ画像T43(第4画像)のいずれかに対して、ユーザの操作入力を受け付けたことを示す情報に基づいて、ユーザの操作入力を受け付けた画像に含まれる要素を、第2要素として判別する。ユーザに対して第1要素に対応すると推定される複数の要素を提示して、ユーザに選択させることにより、選択した結果をテスト自動化システム10にフィードバックすることで、テスト自動化システム10の推定精度を向上させることができる。 Further, the acquisition unit 120 of the test automation system 10 according to the present embodiment has accepted the user's operation input for either the captured image T42 (third image) or the captured image T43 (fourth image). After acquiring the information to be shown, the discriminating unit 150 obtains the information indicating that the user's operation input has been accepted for either the captured image T42 (third image) or the captured image T43 (fourth image), based on the information. The element included in the image that has received the user's operation input is determined as the second element. By presenting a plurality of elements presumed to correspond to the first element to the user and letting the user select them, the selected result is fed back to the test automation system 10 to improve the estimation accuracy of the test automation system 10. Can be improved.
 また、本実施形態に係るテスト自動化システム10の判別部150は、第2システム画面(第2ユーザインターフェース)を構成する要素のうち、第1要素に関する特徴に対して第1条件を満たす特徴を有する要素と、第1要素に関する特徴に対して第2条件を満たす特徴を有する要素と、を判別し、表示処理部170は、第1条件を満たす特徴を有する要素と、第2条件を満たす特徴を有する要素と、を識別可能に含むキャプチャ画像T42(第5画像)を表示させる。これにより、ユーザが第1要素に対応する複数の候補となる要素を容易に確認することができるため、ユーザの利便性を向上できる。 Further, the determination unit 150 of the test automation system 10 according to the present embodiment has a feature that satisfies the first condition with respect to the feature relating to the first element among the elements constituting the second system screen (second user interface). The element and the element having the feature satisfying the second condition with respect to the feature relating to the first element are discriminated, and the display processing unit 170 determines the element having the feature satisfying the first condition and the feature satisfying the second condition. The captured image T42 (fifth image) including the element to be identified is displayed. As a result, the user can easily confirm a plurality of candidate elements corresponding to the first element, so that the convenience of the user can be improved.
 また、本実施形態に係るテスト自動化システム10の取得部120は、キャプチャ画像T42(第5画像)に対して、ユーザの操作入力を受け付けたことを示す情報を取得し、判別部150は、キャプチャ画像T42(第5画像)に対して、ユーザの操作入力を受け付けたことを示す情報に基づいて、ユーザの操作入力を受け付けた要素を、第2要素として判別する。ユーザに対して第1要素に対応すると推定される複数の要素を提示して、ユーザに選択させることにより、選択した結果をテスト自動化システム10にフィードバックすることで、テスト自動化システム10の推定精度を向上させることができる。 Further, the acquisition unit 120 of the test automation system 10 according to the present embodiment acquires information indicating that the user's operation input has been accepted for the captured image T42 (fifth image), and the determination unit 150 captures. Based on the information indicating that the user's operation input has been accepted for the image T42 (fifth image), the element that has received the user's operation input is determined as the second element. By presenting a plurality of elements presumed to correspond to the first element to the user and letting the user select them, the selected result is fed back to the test automation system 10 to improve the estimation accuracy of the test automation system 10. Can be improved.
 また、本実施形態に係るテスト自動化システム10における「特徴」は、システム画面(ユーザインターフェース)を構成する要素における、識別符号、クラス名、位置、テキストのうち少なくともいずれかを含む。これにより、システム画面を構成する要素を適切に判別することができる。 Further, the "feature" in the test automation system 10 according to the present embodiment includes at least one of the identification code, the class name, the position, and the text in the elements constituting the system screen (user interface). As a result, the elements constituting the system screen can be appropriately determined.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、判別部150において第2要素が判別された都度、判別結果を示す情報を表示部205aに表示させる。これにより、ユーザはテストシナリオの途中で第2要素を確認して、テストシナリオを修正できるため、ユーザの利便性を向上できる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment causes the display unit 205a to display information indicating the discrimination result each time the second element is discriminated by the discriminating unit 150. As a result, the user can confirm the second element in the middle of the test scenario and modify the test scenario, so that the convenience of the user can be improved.
 また、本実施形態に係るテスト自動化システム10の表示処理部170は、表示部205aにユーザの操作入力を受け付ける第2ボタンT34を表示させ、取得部120は、第2ボタンT34に対してユーザの操作入力を受け付けたことを示す情報を取得し、シナリオ修正部160は、第2ボタンT34に対してユーザの操作入力を受け付けたことを示す情報に基づいて、テストシナリオを修正しない。これにより、テストシナリオを修正するか否かをユーザに確認することができるため、テストシナリオの適切な修正が可能となる。 Further, the display processing unit 170 of the test automation system 10 according to the present embodiment causes the display unit 205a to display the second button T34 that accepts the user's operation input, and the acquisition unit 120 displays the user's second button T34 with respect to the second button T34. The scenario correction unit 160 does not modify the test scenario based on the information indicating that the operation input of the user has been accepted for the second button T34 after acquiring the information indicating that the operation input has been accepted. As a result, it is possible to confirm with the user whether or not to modify the test scenario, and it is possible to appropriately modify the test scenario.
 また、本実施形態に係るテスト自動化システム10は、第2システム画面に対してテストを実行するテスト実行部140をさらに備え、テスト実行部140は、取得部120において第2ボタンT34に対してユーザの操作入力を受け付けたことを示す情報が取得されたことを契機に、テストシナリオの手順のうち、第2要素を含む手順までの手順を実行する。これにより、ユーザのテストに関する操作手順を減らすことができるため、ユーザの利便性を向上できる。 Further, the test automation system 10 according to the present embodiment further includes a test execution unit 140 that executes a test on the second system screen, and the test execution unit 140 is a user in the acquisition unit 120 with respect to the second button T34. When the information indicating that the operation input of is accepted is acquired, the procedure up to the procedure including the second element among the procedures of the test scenario is executed. As a result, the operation procedure related to the user's test can be reduced, so that the user's convenience can be improved.
 B1,B2,B3・・・バス、N・・・ネットワーク、10・・・テスト自動化システム、100・・・テスト自動化サーバ、200・・・ユーザ端末、101,201・・・制御部、102,202・・・記憶装置。 B1, B2, B3 ... Bus, N ... Network, 10 ... Test automation system, 100 ... Test automation server, 200 ... User terminal, 101, 201 ... Control unit, 102, 202 ... Storage device.

Claims (16)

  1.  表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別する判別部と、
     前記判別部における判別結果を示す情報を表示部に表示させる表示処理部と、
     前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得する取得部と、
     前記取得部で取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正するシナリオ修正部と、
     を備える情報処理システム。
    The second system when testing the second system screen displayed on the display, modified from the first system screen, according to a scenario generated based on the first system screen displayed on the display. A discriminating unit that discriminates the second element changed from the first element constituting the first system screen on the screen, and
    A display processing unit that displays information indicating the discrimination result in the discrimination unit on the display unit,
    With respect to the determination result, an acquisition unit for acquiring information regarding a user's operation input indicating that the second element is an element corresponding to the first element, and
    A scenario correction unit that modifies the first element in the scenario to the second element based on the information regarding the operation input of the user acquired by the acquisition unit.
    Information processing system equipped with.
  2.  前記表示処理部は、前記第1要素を含む第1画像と、前記第2要素を含む第2画像と、を比較可能に前記表示部に表示させる、
     請求項1に記載の情報処理システム。
    The display processing unit causes the display unit to display the first image including the first element and the second image including the second element in a comparable manner.
    The information processing system according to claim 1.
  3.  前記表示処理部は、前記第2画像において、前記第2要素を識別可能に表示させる、
     請求項2に記載の情報処理システム。
    The display processing unit displays the second element in the second image so that it can be identified.
    The information processing system according to claim 2.
  4.  前記表示処理部は、前記判別部で判別された前記第2要素を含む画像と、前記第2要素が前記第1要素と一致しないことを示すテキストと、を表示させる、
     請求項2又は請求項3に記載の情報処理システム。
    The display processing unit displays an image including the second element determined by the discrimination unit and a text indicating that the second element does not match the first element.
    The information processing system according to claim 2 or 3.
  5.  前記表示処理部は、前記表示部に前記ユーザの操作入力を受け付ける第1ボタンを表示させ、
     前記取得部は、前記第1ボタンに対して前記ユーザの操作入力を受け付けたことを示す情報を取得し、
     前記シナリオ修正部は、前記ユーザの操作入力を受け付けたことを示す情報に基づいて、前記シナリオを修正する、
     請求項2から請求項4の何れか一項に記載の情報処理システム。
    The display processing unit causes the display unit to display a first button for receiving an operation input of the user.
    The acquisition unit acquires information indicating that the user's operation input has been accepted for the first button, and obtains information.
    The scenario correction unit corrects the scenario based on the information indicating that the operation input of the user has been accepted.
    The information processing system according to any one of claims 2 to 4.
  6.  前記判別部は、前記第2システム画面を構成する要素のうち、前記第1要素に関する特徴に対して第1条件を満たす特徴を有する要素を、前記第2要素として判別する、
     請求項1から請求項5の何れか一項に記載の情報処理システム。
    Among the elements constituting the second system screen, the discriminating unit discriminates an element having a feature satisfying the first condition with respect to the feature related to the first element as the second element.
    The information processing system according to any one of claims 1 to 5.
  7.  前記判別部は、前記第2システム画面を構成する要素のうち、前記第1要素に関する特徴に対して第1条件を満たす特徴を有する要素と、前記第1要素に関する特徴に対して第2条件を満たす特徴を有する要素と、を判別し、
     前記表示処理部は、前記第1条件を満たす特徴を有する要素を含む第3画像と、前記第2条件を満たす特徴を有する要素を含む第4画像と、を表示部に表示させる、
     請求項1から請求項5の何れか一項に記載の情報処理システム。
    Among the elements constituting the second system screen, the discriminating unit sets an element having a feature that satisfies the first condition with respect to the feature relating to the first element and a second condition for the feature relating to the first element. Distinguish between elements that have the characteristics to be satisfied,
    The display processing unit causes the display unit to display a third image including an element having a feature satisfying the first condition and a fourth image including an element having a feature satisfying the second condition.
    The information processing system according to any one of claims 1 to 5.
  8.  前記取得部は、前記第3画像または前記第4画像のいずれかに対して、前記ユーザの操作入力を受け付けたことを示す情報を取得し、
     前記判別部は、前記第3画像または前記第4画像のいずれかに対して、前記ユーザの操作入力を受け付けたことを示す情報に基づいて、前記ユーザの操作入力を受け付けた画像に含まれる要素を、前記第2要素として判別する、
     請求項7に記載の情報処理システム。
    The acquisition unit acquires information indicating that the operation input of the user has been accepted for either the third image or the fourth image.
    The discriminating unit is an element included in an image that has received the user's operation input based on information indicating that the user's operation input has been accepted for either the third image or the fourth image. Is determined as the second element.
    The information processing system according to claim 7.
  9.  前記判別部は、前記第2システム画面を構成する要素のうち、前記第1要素に関する特徴に対して第1条件を満たす特徴を有する要素と、前記第1要素に関する特徴に対して第2条件を満たす特徴を有する要素と、を判別し、
     前記表示処理部は、前記第1条件を満たす特徴を有する要素と、前記第2条件を満たす特徴を有する要素と、を識別可能に含む第5画像を表示させる、
     請求項1から請求項5の何れか一項に記載の情報処理システム。
    Among the elements constituting the second system screen, the discriminating unit sets an element having a feature that satisfies the first condition with respect to the feature relating to the first element and a second condition for the feature relating to the first element. Distinguish between elements that have the characteristics to be satisfied,
    The display processing unit displays a fifth image that identifiablely includes an element having a feature satisfying the first condition and an element having a feature satisfying the second condition.
    The information processing system according to any one of claims 1 to 5.
  10.  前記取得部は、前記第5画像に対して、前記ユーザの操作入力を受け付けたことを示す情報を取得し、
     前記判別部は、前記第5画像に対して、前記ユーザの操作入力を受け付けたことを示す情報に基づいて、前記ユーザの操作入力を受け付けた要素を、前記第2要素として判別する、
     請求項9に記載の情報処理システム。
    The acquisition unit acquires information indicating that the operation input of the user has been received for the fifth image, and obtains information indicating that the operation input of the user has been accepted.
    The discriminating unit discriminates the element that has received the user's operation input as the second element based on the information indicating that the user's operation input has been received for the fifth image.
    The information processing system according to claim 9.
  11.  前記特徴は、システム画面を構成する要素における、識別符号、クラス名、位置、テキストのうち少なくともいずれかを含む、
     請求項6から請求項10の何れか一項に記載の情報処理システム。
    The feature includes at least one of an identification code, a class name, a position, and a text in the elements constituting the system screen.
    The information processing system according to any one of claims 6 to 10.
  12.  前記表示処理部は、前記判別部において前記第2要素が判別された都度、前記判別結果を示す情報を表示部に表示させる、
     請求項1から請求項11の何れか一項に記載の情報処理システム。
    The display processing unit causes the display unit to display information indicating the discrimination result each time the second element is discriminated by the discrimination unit.
    The information processing system according to any one of claims 1 to 11.
  13.  前記表示処理部は、前記表示部に前記ユーザの操作入力を受け付ける第2ボタンを表示させ、
     前記取得部は、前記第2ボタンに対して前記ユーザの操作入力を受け付けたことを示す情報を取得し、
     前記シナリオ修正部は、前記第2ボタンに対して前記ユーザの操作入力を受け付けたことを示す情報に基づいて、前記シナリオを修正しない、
     請求項1から請求項12の何れか一項に記載の情報処理システム。
    The display processing unit causes the display unit to display a second button for receiving an operation input of the user.
    The acquisition unit acquires information indicating that the user's operation input has been accepted for the second button, and obtains information.
    The scenario correction unit does not correct the scenario based on the information indicating that the operation input of the user has been accepted for the second button.
    The information processing system according to any one of claims 1 to 12.
  14.  前記第2システム画面に対して前記テストを実行するテスト実行部をさらに備え、
     前記テスト実行部は、前記取得部において前記第2ボタンに対して前記ユーザの操作入力を受け付けたことを示す情報が取得されたことを契機に、前記シナリオの手順のうち、前記第2要素を含む手順までの手順を実行する、
     請求項13に記載の情報処理システム。
    Further, a test execution unit for executing the test on the second system screen is provided.
    The test execution unit uses the second element of the procedure of the scenario when the acquisition unit acquires information indicating that the user's operation input has been accepted for the second button. Perform the steps up to the including steps,
    The information processing system according to claim 13.
  15.  コンピュータが、
     表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別することと、
     前記第2要素が判別された判別結果を示す情報を表示部に表示させることと、
     前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得することと、
     取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正することと、
     を実行する情報処理方法。
    The computer
    The second system when testing the second system screen displayed on the display, modified from the first system screen, according to a scenario generated based on the first system screen displayed on the display. Distinguishing the second element changed from the first element constituting the first system screen on the screen,
    Information indicating the discrimination result for which the second element is discriminated is displayed on the display unit, and
    Regarding the determination result, acquisition of information regarding a user's operation input indicating that the second element is an element corresponding to the first element, and
    Modifying the first element in the scenario to the second element based on the acquired information regarding the operation input of the user.
    Information processing method to execute.
  16.  コンピュータに、
     表示部に表示される第1システム画面に基づいて生成されたシナリオにしたがって、前記第1システム画面から変更された、表示部に表示される第2システム画面をテストする際に、前記第2システム画面において前記第1システム画面を構成する第1要素から変更された第2要素を判別することと、
     前記第2要素が判別された判別結果を示す情報を表示部に表示させることと、
     前記判別結果について、前記第2要素が前記第1要素に対応する要素であることを示すユーザの操作入力に関する情報を取得することと、
     取得された前記ユーザの操作入力に関する情報に基づいて、前記シナリオにおける前記第1要素を前記第2要素に修正することと、
     を実行させるプログラム。
    On the computer
    The second system when testing the second system screen displayed on the display, modified from the first system screen, according to a scenario generated based on the first system screen displayed on the display. Distinguishing the second element changed from the first element constituting the first system screen on the screen,
    Information indicating the discrimination result for which the second element is discriminated is displayed on the display unit, and
    Regarding the determination result, acquisition of information regarding a user's operation input indicating that the second element is an element corresponding to the first element, and
    Modifying the first element in the scenario to the second element based on the acquired information regarding the operation input of the user.
    A program to execute.
PCT/JP2020/037307 2020-09-30 2020-09-30 Information processing system, information processing method, and program WO2022070353A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/037307 WO2022070353A1 (en) 2020-09-30 2020-09-30 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/037307 WO2022070353A1 (en) 2020-09-30 2020-09-30 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022070353A1 true WO2022070353A1 (en) 2022-04-07

Family

ID=80949912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037307 WO2022070353A1 (en) 2020-09-30 2020-09-30 Information processing system, information processing method, and program

Country Status (1)

Country Link
WO (1) WO2022070353A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116954793A (en) * 2023-06-28 2023-10-27 深圳市晶存科技有限公司 Chip test interface display method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067106A (en) * 2012-09-24 2014-04-17 Canon Marketing Japan Inc Gui test device, gui test method and program
US20180025503A1 (en) * 2016-07-25 2018-01-25 Intuit Inc. Visual regression testing tool
JP2019101538A (en) * 2017-11-29 2019-06-24 日本電信電話株式会社 Test script correction device and program
JP2020013400A (en) * 2018-07-19 2020-01-23 株式会社野村総合研究所 Apparatus and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067106A (en) * 2012-09-24 2014-04-17 Canon Marketing Japan Inc Gui test device, gui test method and program
US20180025503A1 (en) * 2016-07-25 2018-01-25 Intuit Inc. Visual regression testing tool
JP2019101538A (en) * 2017-11-29 2019-06-24 日本電信電話株式会社 Test script correction device and program
JP2020013400A (en) * 2018-07-19 2020-01-23 株式会社野村総合研究所 Apparatus and computer program

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
AUTIFY WHICH IS SITE VERIFICATION AUTOMATION RAISES $260 MILLION, 4 October 2019 (2019-10-04), Retrieved from the Internet <URL:https://www.nikkei.com/article/DGXMZ050616920U9A001C1XY0000> [retrieved on 20201117] *
AUTIFY, INC., 17 February 2020 (2020-02-17), Retrieved from the Internet <URL:https://docs.autify.corn/2020/02/17/release/> [retrieved on 20201117] *
AUTIFY, INC., 20 August 2020 (2020-08-20), Retrieved from the Internet <URL:https://docs.autify.corn/2020/08/20/release/> [retrieved on 20201117] *
AUTIFY, INC., 20 June 2020 (2020-06-20), Retrieved from the Internet <URL:https://docs.autify.corn/2020/06/20/release/> [retrieved on 20201117] *
AUTIFY, INC., 20 May 2020 (2020-05-20), Retrieved from the Internet <URL:https://docs.autify.corn/2020/05/19/release/> [retrieved on 20201117] *
AUTIFY, INC., 28 October 2019 (2019-10-28), Retrieved from the Internet <URL:https://docs.autify.corn/2019/10/28/release/> [retrieved on 20201117] *
AUTIFY, INC., 3 July 2020 (2020-07-03), Retrieved from the Internet <URL:https//docs.autify.com/2020/07/03/release/> [retrieved on 20201117] *
AUTIFY, INC., 4 March 2020 (2020-03-04), Retrieved from the Internet <URL:https://docs.autify.corn/2020/03/04/release/> [retrieved on 20201117] *
AUTIFY, INC., OPERATION MANUAL, 13 July 2020 (2020-07-13), pages 23 - 31, Retrieved from the Internet <URL:https://autify.zendesk.com/hc/ja/articles/900001317243-%E6%93%8D%E4%BD%9C%E3%83%9E%E3%83%8B%E3%83%A5%E3%82%A2%E3%83%ABVIII-5-1> [retrieved on 20201117] *
AUTIFY, INC., WHAT IS CONFIRMATION REQUIRED?, 1 June 2020 (2020-06-01), Retrieved from the Internet <URL:https://autify.zenclesk.com/hc/ja/articles/900000816223-%E8%A6%81%E7%A2%BA%E8%AA%8D%E3%81%A8%E3%81%AF%E3%81%AA%E3%82%93%E3%81%A7%E3%81%99%E3%81%8B> [retrieved on 20201117] *
TECHCRUNCH INC., AUTIFY' WHICH AUTOMATES SOFTWARE TESTING WITH A1 RAISE THE FINANCE ABOUT $ 260 MILLION TO OFFICIAL GLOBAL LAUNCH, 2 October 2019 (2019-10-02), Retrieved from the Internet <URL:https://jp.techcrunch.corn/2019/10/02/autify-funcl-raising/> [retrieved on 20201119] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116954793A (en) * 2023-06-28 2023-10-27 深圳市晶存科技有限公司 Chip test interface display method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US9262396B1 (en) Browser compatibility checker tool
JP2017215996A (en) Change request form annotation
CN110335667B (en) Medical image management method, device, system and storage medium
EP2639713B1 (en) Document management systems and methods
AU2013379776A1 (en) Presentation of image of source of tax data through tax preparation application
US10896083B2 (en) Dynamic cloud deployment and calibration tool
JP2010219789A5 (en) Image processing system, control method thereof, and program
KR20190015177A (en) Information input method, information input apparatus and information input system
JP6087452B1 (en) Paper document management system
CN103970828B (en) Network system and method for reporting information
US20170132462A1 (en) Document checking support apparatus, document checking support system, and non-transitory computer readable medium
WO2022070353A1 (en) Information processing system, information processing method, and program
CN110209557B (en) User operation recording and restoring method, device and equipment and readable storage medium
JP7051243B2 (en) Information processing equipment, information processing methods and programs
US9483660B2 (en) Enterprise content management platform validator
US20230207076A1 (en) Clinical data connector and clinical document collector for individual access
US9729487B2 (en) System, information processing apparatus, method of controlling the same, and non-transitory computer-readable medium, that manage a processing flow including a plurality of tasks
US20140289741A1 (en) Cooperation method, image processing device, and medium
WO2020215542A1 (en) Information notification method and device, computer apparatus, and storage medium
KR101659886B1 (en) business card ordering system and method
US20220327165A1 (en) Information processing system, data management apparatus, and data management method
US20190149614A1 (en) Storage medium, information processing device, and processing method
US20230076217A1 (en) Form creating system and non-transitory computer readable medium
JP2021068306A (en) Information processing device and program
JP7362011B1 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20956281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 27/06/2023)

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 20956281

Country of ref document: EP

Kind code of ref document: A1