JP6410749B2 - Information processing apparatus, information processing method, and information processing program - Google Patents

Information processing apparatus, information processing method, and information processing program Download PDF

Info

Publication number
JP6410749B2
JP6410749B2 JP2016044892A JP2016044892A JP6410749B2 JP 6410749 B2 JP6410749 B2 JP 6410749B2 JP 2016044892 A JP2016044892 A JP 2016044892A JP 2016044892 A JP2016044892 A JP 2016044892A JP 6410749 B2 JP6410749 B2 JP 6410749B2
Authority
JP
Japan
Prior art keywords
test
screen
screen shot
image
shot image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016044892A
Other languages
Japanese (ja)
Other versions
JP2017162120A (en
Inventor
真理子 上野
真理子 上野
博信 阿倍
博信 阿倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016044892A priority Critical patent/JP6410749B2/en
Publication of JP2017162120A publication Critical patent/JP2017162120A/en
Application granted granted Critical
Publication of JP6410749B2 publication Critical patent/JP6410749B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、試験結果の確認作業を効率化する技術に関する。   The present invention relates to a technique for improving the efficiency of test result confirmation work.

特許文献1では、被試験装置にデータを入力するときに、そのデータを操作シナリオとして記憶し、試験時には、操作シナリオを再生して被試験装置に送出し、被試験装置に表示される表示画面をカメラで撮影し、撮影した表示画面の画像を予めカメラで撮影され記憶されている画像遷移シナリオの該当画像と照合する。   In Patent Document 1, when data is input to the device under test, the data is stored as an operation scenario. During the test, the operation scenario is reproduced and sent to the device under test, and a display screen displayed on the device under test. Is captured by the camera, and the captured image on the display screen is collated with the corresponding image of the image transition scenario previously captured and stored by the camera.

特開2013−30969号公報JP2013-30969A

特許文献1の技術では、カメラで撮影された画像と、画像遷移シナリオの画像とを照合する。画像遷移シナリオの画像も事前にカメラで撮影された画像である。このように、特許文献1の技術では、カメラで撮影された画像により表示画面を照合するため、表示画面における差異を高精度に抽出できず、このため、差異が存在する領域を正確に判別することができないという課題がある。   In the technique of Patent Literature 1, an image captured by a camera is collated with an image of an image transition scenario. The image of the image transition scenario is also an image taken with a camera in advance. As described above, in the technique of Patent Document 1, since the display screen is collated with an image captured by the camera, a difference in the display screen cannot be extracted with high accuracy. Therefore, an area where the difference exists is accurately determined. There is a problem that it cannot be done.

本発明は、このような課題を解決することを主な目的としており、2つの試験により得られた2つの表示画面における差異を高精度に抽出し、差異が存在する領域を正確に判別できるようにすることを主な目的する。   The main object of the present invention is to solve such problems, so that the difference between the two display screens obtained by the two tests can be extracted with high accuracy and the region where the difference exists can be accurately determined. The main purpose is to be.

本発明に係る情報処理装置は、
第1の試験対象物に対する試験でのデータ入力手順を前記第1の試験対象物に関連する第2の試験対象物に対して再現して前記第2の試験対象物の試験を行い、前記第2の試験対象物の試験で生成された、複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像を第2のスクリーンショット画像として取得する試験再現部と、
前記第1の試験対象物に対する試験で生成された、前記複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像である第1のスクリーンショット画像と前記第2のスクリーンショット画像とを比較して前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との差異を抽出し、抽出した差異を解析して、抽出した差異が前記複数の表示コンポーネントのうちのいずれの表示コンポーネントに存在するのかを識別する比較識別部とを有する。
An information processing apparatus according to the present invention includes:
The data input procedure in the test for the first test object is reproduced for the second test object related to the first test object, the second test object is tested, and the second test object is tested. A test reproduction unit that obtains a screen shot image of a display screen including a plurality of display components generated in the test of the test object of 2 as a second screen shot image;
The first screen shot image, which is a screen shot image of a display screen including the plurality of display components, generated by the test on the first test object is compared with the second screen shot image, and the second screen shot image is compared. The difference between the first screen shot image and the second screen shot image is extracted, the extracted difference is analyzed, and in which display component of the plurality of display components the extracted difference exists. And a comparison and identification unit for identifying.

本発明によれば、スクリーンショット画像を比較することで、2つの表示画面における差異を高精度に抽出することができ、また、差異が発生する領域を正確に判別することができる。   According to the present invention, by comparing the screenshot images, the difference between the two display screens can be extracted with high accuracy, and the region where the difference occurs can be accurately determined.

実施の形態1に係るGUI試験画面照合装置のハードウェア構成例を示す図。FIG. 3 is a diagram illustrating a hardware configuration example of a GUI test screen collating device according to the first embodiment. 実施の形態1に係るGUI試験画面照合装置の機能構成例を示す図。FIG. 3 is a diagram illustrating a functional configuration example of a GUI test screen collating apparatus according to the first embodiment. 実施の形態1に係るGUI試験画面照合装置の動作例を示すフローチャート図。FIG. 6 is a flowchart showing an operation example of the GUI test screen collating apparatus according to the first embodiment. 実施の形態2に係るGUI試験画面照合装置の動作例を示すフローチャート図。FIG. 9 is a flowchart showing an operation example of a GUI test screen collating apparatus according to the second embodiment. 実施の形態2に係るGUI試験画面照合装置の動作例を示すフローチャート図。FIG. 9 is a flowchart showing an operation example of a GUI test screen collating apparatus according to the second embodiment. 実施の形態2に係る画素比較の対象となる画像の例を示す図。FIG. 10 is a diagram illustrating an example of an image that is a target of pixel comparison according to the second embodiment. 実施の形態2に係る画素比較の例を示す図。FIG. 6 shows an example of pixel comparison according to Embodiment 2. 実施の形態2に係るラベル付けの例を示す図。FIG. 6 shows an example of labeling according to the second embodiment. 実施の形態2に係る差異パターンの例を示す図。FIG. 10 is a diagram illustrating an example of a difference pattern according to the second embodiment.

実施の形態1.
***概要***
本実施の形態では、GUI(Graphical User Interface)画面を有するアプリケーションの試験において、環境アップデート時や回帰試験時の画面確認の自動化及び効率化を図るため、画面のスクリーンショット画像の照合により画面確認を半自動化する方法を説明する。
ソフトウェア開発の現場では、ソフトウェア(S/Wともいう)改修時やOS(Operating System)やライブラリのアップデート時の人手による試験操作や画面確認に工数がかかるという課題がある。さらに、画面確認時にどのような表示異常が生じたか確認し、試験の結果を試験報告書等にまとめる作業に工数がかかるという課題がある。
本実施の形態では、GUI試験画面照合装置が初回試験時の操作を記録しておく。この初回試験とは、あるソフトウェアに対して行った、正しい試験結果が得られた試験である。そして、GUI試験画面照合装置は、2回目以降の試験を行う際に、記録しておいた操作を自動再生する。2回目以降の試験とは、例えば、初回試験を行ったソフトウェアのアップデート後のソフトウェアに対する試験又は初回試験を行ったソフトウェアの初回試験時とは異なる環境での試験である。
また、本実施の形態に係るGUI試験画面照合装置は、初回試験時に生成される表示画面のスクリーンショット画像データ(単にスクリーンショット画像又はスクリーンショットともいう)を取得し、記録する。そして、GUI試験画面照合装置は、2回目以降の試験で生成される表示画面のスクリーンショット画像を取得し、初回試験時の表示画面のスクリーンショット画像と2回目以降の試験のスクリーンショット画像とを照合する。
GUI試験画面照合装置は、画面照合では、画面の合否判定を行い、不合格の画面について画面内の差異の特徴から画面差異のパターンに分類し、その情報を差異パターンごとの強調表示や試験報告書を自動生成するアプリケーションに利用する。
なお、初回試験の対象となるソフトウェアは第1の試験対象物に相当し、2回目以降の試験の対象となるソフトウェアは第2の試験対象物に相当する。前述したように、2回目以降の試験の対象となるソフトウェアは、初回試験の対象のソフトウェアのアップデート後のソフトウェア又は初回試験時とは異なる環境に実装される初回試験の対象のソフトウェアである。このように、第2の試験対象物は第1の試験対象物に関連している。
Embodiment 1 FIG.
***Overview***
In this embodiment, in the test of an application having a GUI (Graphical User Interface) screen, the screen confirmation is performed by collating the screen shot image of the screen in order to automate and improve the efficiency of the screen confirmation at the time of environment update or regression test. A semi-automated method will be described.
In the field of software development, there is a problem that man-hours are required for manual test operation and screen confirmation at the time of software (also referred to as S / W) renovation or OS (Operating System) or library update. Furthermore, there is a problem that it takes time to confirm what kind of display abnormality has occurred at the time of screen confirmation and summarize the test results in a test report or the like.
In this embodiment, the GUI test screen verification device records the operation at the time of the first test. This initial test is a test that was performed on a certain software and obtained a correct test result. Then, the GUI test screen verification device automatically reproduces the recorded operation when performing the second and subsequent tests. The test after the second time is, for example, a test in an environment different from the test for the software after the update of the software for which the initial test was performed or the initial test for the software for which the initial test was performed.
Also, the GUI test screen collation apparatus according to the present embodiment acquires and records screen shot image data (also simply referred to as a screen shot image or a screen shot) of a display screen generated at the time of the first test. Then, the GUI test screen verification device acquires screen shot images of the display screen generated in the second and subsequent tests, and displays the screen shot image of the display screen in the first test and the screen shot images of the second and subsequent tests. Collate.
In the screen verification, the GUI test screen verification device performs pass / fail determination of the screen, classifies the rejected screens from the characteristics of the differences in the screens into screen difference patterns, and displays the information for each pattern for emphasis and test reports. Used for applications that automatically generate documents.
The software that is the target of the first test corresponds to the first test object, and the software that is the target of the second and subsequent tests corresponds to the second test object. As described above, the software that is the target of the second and subsequent tests is the software after the update of the software that is the target of the first test, or the software that is the target of the first test that is implemented in a different environment from the time of the first test. Thus, the second test object is related to the first test object.

***構成の説明***
図1は、本実施の形態に係るGUI試験画面照合装置100のハードウェア構成例を示す。
また、図2は、GUI試験画面照合装置100の機能構成例を示す。
GUI試験画面照合装置100は情報処理装置の例である。また、GUI試験画面照合装置100で行われる動作は、情報処理方法及び情報処理プログラムの例である。
*** Explanation of configuration ***
FIG. 1 shows a hardware configuration example of a GUI test screen collation apparatus 100 according to the present embodiment.
FIG. 2 shows an example of the functional configuration of the GUI test screen verification device 100.
The GUI test screen verification device 100 is an example of an information processing device. The operations performed by the GUI test screen verification device 100 are examples of an information processing method and an information processing program.

図1に示すように、GUI試験画面照合装置100は、プロセッサ101と、メモリ102、二次記憶装置103、表示器104、操作インタフェース105を備える。GUI試験画面照合装置100は、コンピュータである。
プロセッサ101は、プログラムを実行する。
メモリ102は、揮発性の記憶装置である。
二次記憶装置103は、不揮発性の記憶装置である。
二次記憶装置103には、図2に示すGUI操作記録再生処理部201及び画面照合処理部206(自動照合処理部202、特徴量算出処理部203、分類モデル生成処理部204、パターン分類処理部205)の機能を実現するプログラムが記憶されている。
そして、これらのプログラムが二次記憶装置103からメモリ102にロードされ、プロセッサ101がこれらプログラムを実行して、後述する画面照合処理部206(自動照合処理部202、特徴量算出処理部203、分類モデル生成処理部204、パターン分類処理部205)の動作を行う。
また、メモリ102は、図2の画面データ記録部211及び分類モデル記録部212として機能する。つまり、メモリ102は、画面データ記録部211として、初回試験時のデータ入力手順とスクリーンショット画像データを記憶する。また、メモリ102は、分類モデル記録部212として、後述する分類モデルを記憶する。また、操作記録再生時には、プロセッサ101からの指示により、メモリ102は、初回試験時のデータ入力手順をプロセッサ101に出力する。画面照合時には、プロセッサ101からの指示により、メモリ102は、スクリーンショット画像データをプロセッサ101に出力する。
また、表示器104は表示画面を表示するディスプレイ装置である。
操作インタフェース105は、マウスやキーボード等の操作のためのインタフェースである。
As shown in FIG. 1, the GUI test screen verification device 100 includes a processor 101, a memory 102, a secondary storage device 103, a display device 104, and an operation interface 105. The GUI test screen verification device 100 is a computer.
The processor 101 executes a program.
The memory 102 is a volatile storage device.
The secondary storage device 103 is a nonvolatile storage device.
The secondary storage device 103 includes a GUI operation recording / playback processing unit 201 and a screen matching processing unit 206 (automatic matching processing unit 202, feature amount calculation processing unit 203, classification model generation processing unit 204, pattern classification processing unit shown in FIG. 205) is stored.
Then, these programs are loaded from the secondary storage device 103 to the memory 102, and the processor 101 executes these programs, and a screen matching processing unit 206 (automatic matching processing unit 202, feature amount calculation processing unit 203, classification, which will be described later) The model generation processing unit 204 and the pattern classification processing unit 205) are operated.
The memory 102 functions as the screen data recording unit 211 and the classification model recording unit 212 in FIG. That is, the memory 102 stores a data input procedure and screen shot image data at the first test as the screen data recording unit 211. The memory 102 stores a classification model, which will be described later, as the classification model recording unit 212. At the time of operation recording / reproduction, the memory 102 outputs a data input procedure at the first test to the processor 101 in accordance with an instruction from the processor 101. At the time of screen collation, the memory 102 outputs screen shot image data to the processor 101 in accordance with an instruction from the processor 101.
The display device 104 is a display device that displays a display screen.
The operation interface 105 is an interface for operating a mouse or a keyboard.

次に、図2に示す構成要素を説明する。   Next, the components shown in FIG. 2 will be described.

GUI操作記録再生処理部201は、初回試験時のデータ入力手順とスクリーンショット画像データを画面データ記録部211に格納する。つまり、GUI操作記録再生処理部201は、第1の試験対象物に相当するソフトウェにア対する初回試験でのデータ入力手順を画面データ記録部211に格納する。画面データ記録部211は、記憶装置であるメモリ102で構成される。GUI操作記録再生処理部201は、データ入力手順として、GUI試験画面照合装置100のユーザがマウス、キーボードを用いて入力した入力データと、各入力データの入力位置(入力項目)と、入力データの入力順序等を画面データ記録部211に格納する。また、GUI操作記録再生処理部201は、第1の試験対象物に対する初回試験で生成された、スクリーンショット画像を画面データ記録部211に格納する。表示画面には、複数の表示コンポーネントが含まれる。図6は、表示画面の例を示す。表示コンポーネントは、表示画面を形成する要素であり、図6の表示画面では、日付、テキストフォーム、ボタンが含まれる。表示画面には、表示コンポーネントとして、図9に示すタイトルバー、アイコン、リストボックス等が含まれる場合がある。なお、初回試験で取得されるスクリーンショット画像は第1のスクリーンショット画像という。
更に、GUI操作記録再生処理部201は、2回目以降の試験として、データ入力手順を画面データ記録部211から読出し、読み出したデータ入力手順を第2の試験対象物に相当するソフトウェアに対して再現して当該ソフトウェアに対する試験を行う。また、GUI操作記録再生処理部201は、当該試験で生成された、表示画面のスクリーンショット画像を取得する。なお、この試験で取得されるスクリーンショット画像は第2のスクリーンショット画像という。
GUI操作記録再生処理部201は、第2のスクリーンショット画像を画面データ記録部211に格納する。
GUI操作記録再生処理部201は、試験再現部に相当する。また、GUI操作記録再生処理部201で行われる処理は、試験再現ステップに相当する。
The GUI operation recording / playback processing unit 201 stores the data input procedure and screen shot image data in the first test in the screen data recording unit 211. That is, the GUI operation recording / playback processing unit 201 stores the data input procedure in the initial test for the software corresponding to the first test object in the screen data recording unit 211. The screen data recording unit 211 includes a memory 102 that is a storage device. The GUI operation recording / playback processing unit 201 includes, as data input procedures, input data input by the user of the GUI test screen verification device 100 using a mouse and a keyboard, input positions (input items) of each input data, input data The input order and the like are stored in the screen data recording unit 211. In addition, the GUI operation recording / playback processing unit 201 stores the screen shot image generated in the first test for the first test object in the screen data recording unit 211. The display screen includes a plurality of display components. FIG. 6 shows an example of a display screen. The display component is an element that forms a display screen. The display screen in FIG. 6 includes a date, a text form, and a button. The display screen may include a title bar, an icon, a list box, and the like shown in FIG. 9 as display components. Note that the screen shot image acquired in the first test is referred to as a first screen shot image.
Further, the GUI operation recording / playback processing unit 201 reads the data input procedure from the screen data recording unit 211 as the second and subsequent tests, and reproduces the read data input procedure for software corresponding to the second test object. Then test the software. Further, the GUI operation recording / playback processing unit 201 acquires a screen shot image of the display screen generated in the test. Note that the screen shot image acquired in this test is referred to as a second screen shot image.
The GUI operation recording / playback processing unit 201 stores the second screen shot image in the screen data recording unit 211.
The GUI operation recording / playback processing unit 201 corresponds to a test reproduction unit. Further, the processing performed by the GUI operation recording / playback processing unit 201 corresponds to a test reproduction step.

画面照合処理部206は、第1のスクリーンショット画像と第2のスクリーンショット画像を画面データ記録部211から読み出し、第1のスクリーンショット画像と第2のスクリーンショット画像とを画素単位で比較する。そして、画面照合処理部206は、第1のスクリーンショット画像と第2のスクリーンショット画像との差異を抽出し、抽出した差異を解析して、抽出した差異が複数の表示コンポーネントのうちのいずれの表示コンポーネントに存在するのかを識別する。更に、画面照合処理部206は、抽出した差異が存在する表示コンポーネントが第1のスクリーンショット画像と第2のスクリーンショット画像との間でどのように変化しているのかを識別する。より具体的には、画面照合処理部206は、分類モデルを用いて、差異が存在する表示コンポーネントにおける第1のスクリーンショット画像と第2のスクリーンショット画像との間の変化がいずれの類型に合致するかを識別する。分類モデルは、表示コンポーネントごとに、第1のスクリーンショット画像と第2のスクリーンショット画像との間で発生する変化の類型が差異の特徴量と関連付けて複数定義される定義情報である。以下では、変化の類型を差異パターンともいう。
画面照合処理部206は、比較識別部に相当する。また、画面照合処理部206で行われる処理は、比較識別ステップに相当する。
また、画面照合処理部206は、図2に示すように、自動照合処理部202、特徴量算出処理部203、分類モデル生成処理部204、パターン分類処理部205で構成される。
以下にて、自動照合処理部202、特徴量算出処理部203、分類モデル生成処理部204、パターン分類処理部205を説明する。
The screen verification processing unit 206 reads the first screen shot image and the second screen shot image from the screen data recording unit 211, and compares the first screen shot image and the second screen shot image in units of pixels. Then, the screen matching processing unit 206 extracts the difference between the first screen shot image and the second screen shot image, analyzes the extracted difference, and the extracted difference is any one of the plurality of display components. Identifies if present in the display component. Furthermore, the screen matching processing unit 206 identifies how the display component having the extracted difference changes between the first screen shot image and the second screen shot image. More specifically, the screen matching processing unit 206 uses the classification model to match any type of change between the first screenshot image and the second screenshot image in the display component where the difference exists. Identify what to do. The classification model is definition information in which a plurality of types of changes occurring between the first screen shot image and the second screen shot image are defined in association with the feature amount of the difference for each display component. Hereinafter, the type of change is also referred to as a difference pattern.
The screen collation processing unit 206 corresponds to a comparison and identification unit. Further, the processing performed by the screen matching processing unit 206 corresponds to a comparison and identification step.
As shown in FIG. 2, the screen matching processing unit 206 includes an automatic matching processing unit 202, a feature amount calculation processing unit 203, a classification model generation processing unit 204, and a pattern classification processing unit 205.
Hereinafter, the automatic matching processing unit 202, the feature amount calculation processing unit 203, the classification model generation processing unit 204, and the pattern classification processing unit 205 will be described.

自動照合処理部202は、画面データ記録部211から第1のスクリーンショット画像と第2のスクリーンショット画像を読み出し、画素値の比較による画像の完全一致/不一致判定を行う。また、自動照合処理部202は、不一致と判定された画像について、差異がある画素を抽出する。   The automatic matching processing unit 202 reads the first screen shot image and the second screen shot image from the screen data recording unit 211, and performs complete match / mismatch determination by comparing pixel values. Further, the automatic matching processing unit 202 extracts a pixel having a difference from images determined to be inconsistent.

特徴量算出処理部203は、自動照合処理部202で抽出した差異画素について、特徴量算出を行う。   The feature amount calculation processing unit 203 performs feature amount calculation for the difference pixels extracted by the automatic matching processing unit 202.

分類モデル生成処理部204は、特徴量算出処理部203で算出した特徴から分類モデルを生成し、生成した分類モデルを分類モデル記録部212に格納する。   The classification model generation processing unit 204 generates a classification model from the features calculated by the feature amount calculation processing unit 203, and stores the generated classification model in the classification model recording unit 212.

パターン分類処理部205は、分類モデル記録部212から分類モデル、画面データ記録部211からスクリーンショット画像を読み出し、画面内の差異を差異パターンに分類する。   The pattern classification processing unit 205 reads out the classification model from the classification model recording unit 212 and the screen shot image from the screen data recording unit 211, and classifies the differences in the screen into difference patterns.

***動作の説明***
GUI操作記録再生処理部201は、初回試験におけるデータ入力手順及び表示画面のスクリーンショット画像(第1のスクリーンショット画像)を画面データ記録部211に格納する。また、GUI操作記録再生処理部201は、画面データ記録部211からデータ入力手順を読み出し、データ入力手順の再生を行い、そのときに表示される表示画面のスクリーンショット画像(第2のスクリーンショット画像)を取得し、第2のスクリーンショット画像を画面データ記録部211に格納する。
*** Explanation of operation ***
The GUI operation recording / playback processing unit 201 stores the data input procedure in the first test and the screen shot image (first screen shot image) of the display screen in the screen data recording unit 211. Also, the GUI operation recording / playback processing unit 201 reads the data input procedure from the screen data recording unit 211, plays back the data input procedure, and displays a screen shot image (second screen shot image) displayed at that time. ) And the second screen shot image is stored in the screen data recording unit 211.

自動照合処理部202は、画面データ記録部211から第1のスクリーンショット画像と第2のスクリーンショット画像を読み出し、両画像の画素値を比較することによって両画像が完全に一致しているかどうかを判定する。
また、自動照合処理部202は、画素値が異なる画素の座標情報を抽出する。
そして、特徴量算出処理部203が、自動照合処理部202により抽出された差異画素について特徴量算出を行う。このときの特徴量に、差異画素が存在している領域の幅、高さ、面積、画素値の最大、最小、平均、分散、局所特徴量やエッジ特徴等を使用してもよい。
次に、分類モデル生成処理部204が、特徴量算出処理部203により算出された特徴量により、画面差異を差異パターンに分類するための分類モデルを生成する。各差異パターンについて、ユーザが差異パターンをラベル付けし、前述の差異画素の特徴量とラベルによる教師あり学習で分類モデルを生成してもよい。あるいは、ラベル付けせずに教師なし学習でクラスタリングし、分類モデルを生成してもよい。分類モデル生成処理部204は、生成した分類モデルを分類モデル記録部212に格納する。
パターン分類処理部205は、分類モデル記録部212から分類モデルを読み出し、画面データ記録部211から第1のスクリーンショット画像と第2のスクリーンショット画像を読み出し、第1のスクリーンショット画像と第2のスクリーンショット画像を照合し、その差異を、分類モデルにしたがって差異パターンに分類する。
The automatic verification processing unit 202 reads out the first screen shot image and the second screen shot image from the screen data recording unit 211, and compares the pixel values of the two images to determine whether or not the two images are completely matched. judge.
Further, the automatic matching processing unit 202 extracts coordinate information of pixels having different pixel values.
Then, the feature amount calculation processing unit 203 performs feature amount calculation for the difference pixels extracted by the automatic matching processing unit 202. As the feature amount at this time, the width, height, area, maximum, minimum, average, variance, local feature amount, edge feature, or the like of the region where the difference pixel exists may be used.
Next, the classification model generation processing unit 204 generates a classification model for classifying screen differences into difference patterns based on the feature amounts calculated by the feature amount calculation processing unit 203. For each difference pattern, the user may label the difference pattern and generate a classification model by supervised learning based on the above-described feature amount and label of the difference pixel. Alternatively, the classification model may be generated by performing clustering by unsupervised learning without labeling. The classification model generation processing unit 204 stores the generated classification model in the classification model recording unit 212.
The pattern classification processing unit 205 reads out the classification model from the classification model recording unit 212, reads out the first screen shot image and the second screen shot image from the screen data recording unit 211, and outputs the first screen shot image and the second screen shot image. The screen shot images are collated, and the difference is classified into a difference pattern according to the classification model.

次に、図3のフローチャートを参照して、本実施の形態に係るGUI試験画面照合装置100の動作例を説明する。   Next, an operation example of the GUI test screen collating apparatus 100 according to the present embodiment will be described with reference to the flowchart of FIG.

まず、ステップST301で、GUI操作記録再生処理部201が、マウスやキーボードなどの操作内容(データ入力手順)を取得し、取得した操作内容を画面データ記録部211に記憶させる。
また、ステップST302で、GUI操作記録再生処理部201は、表示画面のスクリーンショット画像(第1のスクリーンショット画像)を取得する。図3では、1回の操作記録の際に1枚スクリーンショットを取得するようになっているが、画面が遷移するたびにスクリーンショットを取得するというように、1回の操作記録で複数枚のスクリーンショットを取得してもよい。
次に、ステップST303で、GUI操作記録再生処理部201が、ステップST301で記録した操作内容を再生し、ステップST304で、その際の表示画面のスクリーンショット画像(第2のスクリーンショット画像)を取得する。
次に、ステップST305で、自動照合処理部202が、第1のスクリーンショット画像と第2のスクリーンショット画像が完全に一致するかどうかの判定を行う。第1のスクリーンショット画像と第2のスクリーンショット画像が完全には一致していない場合は、自動照合処理部202は、画面内の差異画素の座標を求める。
次に、特徴量算出処理部203が、ステップST306で差異画素の座標から、差異領域のサイズ、画素値の差分の平均等の画面の差異の特徴量を抽出する。
分類モデルを生成しておらず、分類モデルの学習を行う場合(ステップST307でNO)は、ステップST308で分類モデル生成処理部204が分類モデルを生成する。そして、分類モデル生成処理部204は、生成した分類モデルを分類モデル記録部212に格納する。
すでに分類モデルが生成済みであり、分類モデルにより差異パターンの分類を行う場合(ステップST307でYES)は、パターン分類処理部205が、ステップST309で、分類モデルを分類モデル記録部212から読み出し、差異パターンの分類を行う。
First, in step ST301, the GUI operation recording / playback processing unit 201 acquires operation contents (data input procedure) such as a mouse and a keyboard, and stores the acquired operation contents in the screen data recording unit 211.
In step ST302, the GUI operation recording / playback processing unit 201 acquires a screen shot image (first screen shot image) of the display screen. In FIG. 3, one screen shot is acquired at the time of one operation recording, but a plurality of sheets are acquired by one operation recording, such as acquiring a screen shot every time the screen changes. A screenshot may be taken.
Next, in step ST303, the GUI operation recording / playback processing unit 201 plays back the operation content recorded in step ST301. In step ST304, a screen shot image (second screen shot image) of the display screen at that time is acquired. To do.
Next, in step ST305, the automatic matching processing unit 202 determines whether or not the first screen shot image and the second screen shot image completely match. If the first screen shot image and the second screen shot image do not completely match, the automatic matching processing unit 202 obtains the coordinates of the difference pixel in the screen.
Next, in step ST306, the feature amount calculation processing unit 203 extracts the feature amount of the difference in the screen such as the size of the difference region and the average of the difference between the pixel values from the coordinates of the difference pixel.
When the classification model is not generated and learning of the classification model is performed (NO in step ST307), the classification model generation processing unit 204 generates a classification model in step ST308. Then, the classification model generation processing unit 204 stores the generated classification model in the classification model recording unit 212.
When the classification model has already been generated and the difference pattern is classified by the classification model (YES in step ST307), the pattern classification processing unit 205 reads the classification model from the classification model recording unit 212 in step ST309, and performs the difference. Perform pattern classification.

***実施の形態の効果の説明***
本実施の形態では、初回試験時の操作を記録し、2回目以降の試験については記録しておいた操作を再生する。また、操作記録・再生時の画面スクリーンショット画像を照合し、その画面差異を差異のパターンごとに分類する。このため、本実施の形態によれば、S/W改修時やOSやライブラリのアップデート時の人手による試験操作や画面確認、試験報告書等の試験実施のエビデンス作成作業を効率化できる。
*** Explanation of the effect of the embodiment ***
In this embodiment, the operation at the first test is recorded, and the recorded operation is reproduced for the second and subsequent tests. Further, screen shot images at the time of operation recording / playback are collated, and the screen difference is classified for each difference pattern. For this reason, according to the present embodiment, it is possible to improve the efficiency of the work of creating evidence for test operation such as manual test operation, screen confirmation, test report, etc. at the time of S / W repair or OS / library update.

実施の形態2.
本実施の形態では、実施の形態1で説明した動作手順をより具体的に説明する。本実施の形態では、テキストフォーム、ボタン、タイトルバー、リストボックス等のGUIの基本的なコンポーネントを含む画面を持つ標準的なWebアプリケーションのソフトウェア試験を例とする。
Embodiment 2. FIG.
In this embodiment, the operation procedure described in Embodiment 1 will be described more specifically. In the present embodiment, a software test of a standard Web application having a screen including basic components such as a text form, a button, a title bar, and a list box is taken as an example.

***構成の説明***
本実施の形態におけるハードウェア構成例(図1)及び機能構成例(図2)は実施の形態1と同様である。
*** Explanation of configuration ***
A hardware configuration example (FIG. 1) and a functional configuration example (FIG. 2) in the present embodiment are the same as those in the first embodiment.

***動作の説明***
GUI操作記録再生処理部201は、試験対象アプリケーションの初回試験時の操作内容を記録し、表示画面のスクリーンショット画像(第1のスクリーンショット画像)を記録する。例えば、A画面→B画面→C画面と遷移していく場合、GUI操作記録再生処理部201は、A画面、B画面、C画面それぞれのスクリーンショットを記録する。また、GUI操作記録再生処理部201は記録した操作内容の再生を行い、そのときに表示される表示画面のスクリーンショット画像(第2のスクリーンショット画像)を記録する。このとき、GUI操作記録再生処理部201は、操作記録時にスクリーンショット画像を取得した表示画面に対応する表示画面のスクリーンショット画像を記録するようにする。表示画面のスクリーンショット画像は画面データ記録部211に保存される。
*** Explanation of operation ***
The GUI operation recording / playback processing unit 201 records the operation content at the first test of the application to be tested, and records a screen shot image (first screen shot image) of the display screen. For example, when transitioning from A screen → B screen → C screen, the GUI operation recording / playback processing unit 201 records screen shots of the A screen, the B screen, and the C screen. Also, the GUI operation recording / playback processing unit 201 plays back the recorded operation content and records a screen shot image (second screen shot image) of the display screen displayed at that time. At this time, the GUI operation recording / playback processing unit 201 records the screen shot image of the display screen corresponding to the display screen from which the screen shot image was acquired during operation recording. The screen shot image of the display screen is stored in the screen data recording unit 211.

自動照合処理部202は、画面データ記録部211から第1のスクリーンショット画像と第2のスクリーンショット画像を読み出し、図6に示すように、両画像の同じ座標の画素値を比較することによって両画像が完全に一致しているかどうかを判定する。自動照合処理部202は、画面内の全ての画素値を比較し、全ての画素値が同じである場合は完全一致と判定し、一つでも画素値が異なる場合は不一致と判定するようにしてもよい。あるいは、自動照合処理部202は、第1のスクリーンショット画像と第2のスクリーンショット画像の各々からエッジや局所特徴量等の特徴点を抽出し、対応点を求め、(対応点の数×2)/(2つの画像の特徴点の個数の合計)が閾値以下である場合に不一致と判定してもよい。このときの閾値は過去の事例をベースに決定してもよい。
また、第1のスクリーンショット画像と第2のスクリーンショット画像が不一致の場合に、自動照合処理部202は、画素値が異なる画素の座標情報から差異領域を抽出する。そして、特徴量算出処理部203が各差異領域について特徴量算出を行う。このときの特徴量に、差異画素が存在している領域の幅、高さ、面積、画素値の最大、最小、平均、分散、局所特徴量やエッジ特徴等を使用してもよい。
The automatic matching processing unit 202 reads the first and second screen shot images from the screen data recording unit 211, and compares both pixel values of the same coordinates in both images as shown in FIG. Determine if the images match perfectly. The automatic matching processing unit 202 compares all the pixel values in the screen, determines that the pixel values are all the same, and determines that the pixel values are completely the same. Also good. Alternatively, the automatic matching processing unit 202 extracts feature points such as edges and local feature amounts from each of the first screen shot image and the second screen shot image and obtains corresponding points (number of corresponding points × 2 ) / (Total number of feature points of two images) may be determined to be inconsistent when it is equal to or less than a threshold value. The threshold at this time may be determined based on past cases.
Further, when the first screen shot image and the second screen shot image do not match, the automatic matching processing unit 202 extracts a different area from the coordinate information of the pixels having different pixel values. Then, the feature amount calculation processing unit 203 performs feature amount calculation for each different area. As the feature amount at this time, the width, height, area, maximum, minimum, average, variance, local feature amount, edge feature, or the like of the region where the difference pixel exists may be used.

特徴量の抽出の手順の例を説明する。
まず、特徴量算出処理部203は、第1のスクリーンショット画像と第2のスクリーンショット画像について、同じ座標の画素の輝度値(RGBでそれぞれ0〜255)を比較し、異なる場合、差異画素として座標を保存する。次に、図7のように差異画素を画面内にマッピングして、差異画素が生じているテキストフォーム、タイトルバー、ボタン等のGUI画面内の表示コンポーネントを差異領域として抽出する。そして、特徴量算出処理部203は、各差異領域について、領域の幅、高さ、面積、輝度値の差分の最大値、平均値を特徴量として算出しておく。
An example of the feature quantity extraction procedure will be described.
First, the feature amount calculation processing unit 203 compares the luminance values of pixels with the same coordinates (0 to 255 in RGB) for the first screen shot image and the second screen shot image. Save the coordinates. Next, as shown in FIG. 7, the difference pixels are mapped in the screen, and display components in the GUI screen such as a text form, a title bar, and a button in which the difference pixels are generated are extracted as the difference areas. Then, the feature amount calculation processing unit 203 calculates, for each different region, the maximum value and average value of the region width, height, area, and luminance value difference as the feature amount.

次に、GUI試験画面照合装置100のユーザが、図8で表しているように、テキストフォーム、タイトルバー、ボタン等のGUI画面内の表示コンポーネントを定義し、表示コンポーネントごとにラベル(属性)を付与する。
特徴量算出処理部203は、図8で表しているように、テキストフォーム上の差異領域であれば、“テキストフォーム”、ボタン上の差異領域であれば、“ボタン”というラベル付けを行う。
Next, as shown in FIG. 8, the user of the GUI test screen verification device 100 defines display components in the GUI screen such as a text form, a title bar, and a button, and labels (attributes) for each display component. Give.
As shown in FIG. 8, the feature amount calculation processing unit 203 labels “text form” if the difference area is on the text form, and “button” if the difference area is on the button.

分類モデル生成処理部204は、各差異領域のラベルと算出した特徴量からSVM(Support Vector Machine)等の教師あり学習によるクラスタリング手法により分類モデルを生成する。生成された分類モデルは、特徴量を入力するとラベルが出力されるものであり、これにより、ラベルに対応する差異パターンに分類することができる。
GUI画面の差異パターンの例には、画面全体の位置ずれ、日付や時刻、ユーザID等の表示されている文字の差異、テキストフォーム内の文字の差異、コンボボックスやリストボックスで選択している項目の差異、ボタンフォーカスがあるかないか等がある。図9は、表示コンポーネントごとの差異パターンの例を示す。分類モデルでは、表示コンポーネントごとに、第1のスクリーンショット画像と第2のスクリーンショット画像との間の差異が図9のいずれの差異パターンに該当するかを判別するための基準が特徴量と関連付けて定義されている。各差異領域について、ユーザが差異パターンをラベル付けし、前述の差異画素の特徴量とラベルによる教師あり学習で分類モデルを生成してもよい。生成した分類モデルの情報は分類モデル記録部212に保存される。
The classification model generation processing unit 204 generates a classification model from a label of each different area and the calculated feature amount by a clustering technique based on supervised learning such as SVM (Support Vector Machine). The generated classification model is one in which a label is output when a feature amount is input, and thus, it can be classified into a difference pattern corresponding to the label.
Examples of difference patterns on the GUI screen include a position shift of the entire screen, a difference in displayed characters such as date and time, user ID, a difference in characters in a text form, a combo box and a list box. There are differences in items, whether there is button focus, etc. FIG. 9 shows an example of a difference pattern for each display component. In the classification model, for each display component, a criterion for determining which difference pattern in FIG. 9 corresponds to the difference between the first screenshot image and the second screenshot image is associated with the feature amount. Defined. For each difference area, the user may label the difference pattern and generate a classification model by supervised learning based on the above-described difference pixel feature amount and label. The generated classification model information is stored in the classification model recording unit 212.

パターン分類処理部205は、分類モデル記録部212から、分類モデル生成処理部204で生成された分類モデルを読み出し、画面データ記録部211から第1の画面スクリーンショット画像と第2の画面スクリーンショット画像を読み出す。そして、パターン分類処理部205は、第1の画面スクリーンショット画像と第2の画面スクリーンショット画像を照合し、その差異について、分類モデルにしたがって差異パターンに分類する。つまり、パターン分類処理部205は、差異が存在する表示コンポーネントが第1のスクリーンショット画像と第2のスクリーンショット画像との間でどのように変化しているのかを識別する。   The pattern classification processing unit 205 reads out the classification model generated by the classification model generation processing unit 204 from the classification model recording unit 212, and the first screen screenshot image and the second screen screenshot image from the screen data recording unit 211. Is read. Then, the pattern classification processing unit 205 collates the first screen screenshot image and the second screen screenshot image, and classifies the difference into a difference pattern according to the classification model. That is, the pattern classification processing unit 205 identifies how a display component having a difference changes between the first screenshot image and the second screenshot image.

次に、図4及び図5のフローチャートを参照して、本実施の形態に係るGUI試験画面照合装置100の動作例を説明する。本実施の形態では、画面A、画面B、画面Cの3画面で構成されるアプリケーションについて、画面Aと画面Bについて操作を行う試験ケースを対象としている。
ステップST401〜ステップST405はGUI操作記録、ステップST406〜ステップST410はGUI操作再生、ステップST411〜ステップST417はGUI画面照合の処理を表している。
Next, an operation example of the GUI test screen collating apparatus 100 according to the present embodiment will be described with reference to the flowcharts of FIGS. 4 and 5. In the present embodiment, a test case in which operations on the screen A and the screen B are performed with respect to an application including three screens of the screen A, the screen B, and the screen C is targeted.
Steps ST401 to ST405 represent GUI operation recording, steps ST406 to ST410 represent GUI operation reproduction, and steps ST411 to ST417 represent GUI screen collation processing.

まず、GUI操作記録再生処理部201が、ステップST401で、画面Aのスクリーンショットを取得し、ステップST402で、画面Aについての操作内容を記録する。次に、画面Bに遷移したら、GUI操作記録再生処理部201は、ステップST403で画面Bのスクリーンショットを取得し、ステップST404で画面Bについての操作を記録する。次に、画面Cに遷移したら、GUI操作記録再生処理部201は、ステップST405で画面Cのスクリーンショットを取得し、操作記録を終了する。   First, the GUI operation recording / playback processing unit 201 acquires a screen shot of the screen A in step ST401, and records the operation content for the screen A in step ST402. Next, when transitioning to screen B, GUI operation recording / playback processor 201 acquires a screen shot of screen B in step ST403, and records an operation for screen B in step ST404. Next, when transitioning to the screen C, the GUI operation recording / playback processing unit 201 acquires a screen shot of the screen C in step ST405 and ends the operation recording.

次に、操作再生を開始すると、GUI操作記録再生処理部201は、ステップST406で画面Aのスクリーンショットを取得し、ステップST407で画面Aでの操作が再生される。次に、画面Bに遷移すると、GUI操作記録再生処理部201は、ステップST408で画面Bのスクリーンショットを取得し、ステップST409で画面Bでの操作が再生される。次に、GUI操作記録再生処理部201は、画面Cに遷移するとステップST410で画面Cのスクリーンショットを取得する。   Next, when the operation playback is started, the GUI operation recording / playback processing unit 201 acquires a screen shot of the screen A in step ST406, and the operation on the screen A is played back in step ST407. Next, when transitioning to screen B, GUI operation recording / playback processing section 201 acquires a screen shot of screen B in step ST408, and the operation on screen B is played back in step ST409. Next, when the GUI operation recording / playback processing unit 201 transitions to the screen C, the screen shot of the screen C is acquired in step ST410.

取得した操作記録・再生時のスクリーンショット画像について、自動照合処理部202が、ステップST411で完全一致かどうかの判定を行う。画面A〜画面Cのいずれかにおいてスクリーンショット画像の対が完全に一致していない場場合は、自動照合処理部202が、完全に一致していないスクリーンショット画像の対について、ステップST412で画面内の差異画素の座標を求める。次に、特徴量算出処理部203が、ステップST413で差異画素の座標情報から差異領域を抽出して、ステップST414で各差異領域について、差異領域のサイズ、画素値の差分の平均等の差異画面の特徴量を抽出する。
分類モデルを生成しておらず、分類モデルの学習を行う場合(ステップST415でNO)は、ステップST416で分類モデル生成処理部204が分類モデルを生成する。そして、分類モデル生成処理部204は、生成した分類モデルを分類モデル記録部212に格納する。
すでに分類モデルが生成済みであり、分類モデルにより差異パターンの分類を行う場合(ステップST415でYES)は、パターン分類処理部205が、ステップST417で、分類モデルを分類モデル記録部212から読み出し、差異パターンの分類を行う。
In step ST411, the automatic collation processing unit 202 determines whether or not the acquired operation recording / playback screen shot image is a complete match. When the screen shot image pair does not completely match in any of the screens A to C, the automatic matching processing unit 202 determines that the screen shot image pair that does not completely match is displayed in step ST412. The coordinates of the different pixels are obtained. Next, the feature quantity calculation processing unit 203 extracts a difference area from the coordinate information of the difference pixel in step ST413, and in step ST414, for each difference area, a difference screen such as the size of the difference area, the average of the pixel value differences, and the like. Extract feature values.
When the classification model is not generated and learning of the classification model is performed (NO in step ST415), the classification model generation processing unit 204 generates a classification model in step ST416. Then, the classification model generation processing unit 204 stores the generated classification model in the classification model recording unit 212.
When the classification model has already been generated and the difference pattern is classified by the classification model (YES in step ST415), the pattern classification processing unit 205 reads the classification model from the classification model recording unit 212 in step ST417, and the difference is determined. Perform pattern classification.

***ハードウェア構成の説明***
最後に、GUI試験画面照合装置100のハードウェア構成の補足説明を行う。
図1に示すプロセッサ101は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ101は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
メモリ102は、RAM(Random Access Memory)である。
二次記憶装置103は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
*** Explanation of hardware configuration ***
Finally, a supplementary description of the hardware configuration of the GUI test screen verification device 100 will be given.
A processor 101 shown in FIG. 1 is an IC (Integrated Circuit) that performs processing.
The processor 101 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or the like.
The memory 102 is a RAM (Random Access Memory).
The secondary storage device 103 is a ROM (Read Only Memory), a flash memory, an HDD (Hard Disk Drive), or the like.

二次記憶装置103には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ101により実行される。
プロセッサ101はOSの少なくとも一部を実行しながら、GUI操作記録再生処理部201及び画面照合処理部206(自動照合処理部202、特徴量算出処理部203、分類モデル生成処理部204、パターン分類処理部205)の機能を実現するプログラムを実行する。
図1では、1つのプロセッサが図示されているが、GUI試験画面照合装置100が複数のプロセッサを備えていてもよい。
また、GUI操作記録再生処理部201及び画面照合処理部206の処理の結果を示す情報やデータや信号値や変数値が、メモリ102、二次記憶装置103、プロセッサ101内のレジスタ又はキャッシュメモリに記憶される。
また、GUI操作記録再生処理部201及び画面照合処理部206の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
The secondary storage device 103 also stores an OS (Operating System).
At least a part of the OS is executed by the processor 101.
While executing at least a part of the OS, the processor 101 executes a GUI operation recording / playback processing unit 201 and a screen matching processing unit 206 (automatic matching processing unit 202, feature quantity calculation processing unit 203, classification model generation processing unit 204, pattern classification processing, and the like. A program that realizes the functions of the unit 205).
Although one processor is illustrated in FIG. 1, the GUI test screen verification device 100 may include a plurality of processors.
In addition, information, data, signal values, and variable values indicating the processing results of the GUI operation recording / playback processing unit 201 and the screen matching processing unit 206 are stored in the memory 102, the secondary storage device 103, the register in the processor 101, or the cache memory. Remembered.
A program for realizing the functions of the GUI operation recording / playback processing unit 201 and the screen collation processing unit 206 is stored in a portable storage medium such as a magnetic disk, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, or DVD. May be.

また、GUI操作記録再生処理部201及び画面照合処理部206の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、GUI試験画面照合装置100は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
この場合は、GUI操作記録再生処理部201及び画面照合処理部206は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
Further, “part” of the GUI operation recording / reproducing processing unit 201 and the screen collation processing unit 206 may be read as “circuit”, “process”, “procedure”, or “processing”.
The GUI test screen verification device 100 may be an electronic circuit such as a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
In this case, the GUI operation recording / playback processing unit 201 and the screen matching processing unit 206 are each realized as part of an electronic circuit.
The processor and the electronic circuit are also collectively referred to as a processing circuit.

100 GUI試験画面照合装置、101 プロセッサ、102 メモリ、103 二次記憶装置、104 表示器、105 操作インタフェース、201 GUI操作記録再生処理部、202 自動照合処理部、203 特徴量算出処理部、204 分類モデル生成処理部、205 パターン分類処理部、206 画面照合処理部、211 画面データ記録部、212 分類モデル記録部。   100 GUI test screen verification device, 101 processor, 102 memory, 103 secondary storage device, 104 display, 105 operation interface, 201 GUI operation recording / playback processing unit, 202 automatic verification processing unit, 203 feature quantity calculation processing unit, 204 classification Model generation processing unit, 205 pattern classification processing unit, 206 screen collation processing unit, 211 screen data recording unit, 212 classification model recording unit.

Claims (6)

第1の試験対象物に対する試験でのデータ入力手順を前記第1の試験対象物に関連する第2の試験対象物に対して再現して前記第2の試験対象物の試験を行い、前記第2の試験対象物の試験で生成された、複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像を第2のスクリーンショット画像として取得する試験再現部と、
前記第1の試験対象物に対する試験で生成された、前記複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像である第1のスクリーンショット画像と前記第2のスクリーンショット画像とを比較して前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との差異を抽出し、抽出した差異の特徴量を算出し、
表示コンポーネントごとに、前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間で発生する変化の類型が差異の特徴量と関連付けて複数定義される定義情報を用いて、
抽出した差異が存在する表示コンポーネントにおける前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間の変化がいずれの類型に合致するかを識別する比較識別部とを有する情報処理装置。
The data input procedure in the test for the first test object is reproduced for the second test object related to the first test object, the second test object is tested, and the second test object is tested. A test reproduction unit that obtains a screen shot image of a display screen including a plurality of display components generated in the test of the test object of 2 as a second screen shot image;
The first screen shot image, which is a screen shot image of a display screen including the plurality of display components, generated by the test on the first test object is compared with the second screen shot image, and the second screen shot image is compared. Extracting a difference between the first screenshot image and the second screenshot image , calculating a feature amount of the extracted difference,
For each display component, by using definition information in which a plurality of types of changes that occur between the first screenshot image and the second screenshot image are defined in association with a feature amount of difference,
An information processing apparatus comprising : a comparison and identification unit that identifies a type of change between the first screenshot image and the second screenshot image in a display component having an extracted difference .
前記試験再現部は、
前記第1の試験対象物に対する試験において、前記データ入力手順と前記第1のスクリーンショット画像を記憶装置に格納し、
前記第2の試験対象物に対する試験において、前記データ入力手順を前記記憶装置から読み出し、前記データ入力手順を前記第2の試験対象物に対して再現し、
前記比較識別部は、
前記第1のスクリーンショット画像を前記記憶装置から読み出し、前記第1のスクリーンショット画像と前記第2のスクリーンショット画像とを比較する請求項1に記載の情報処理装置。
The test reproduction unit is
In the test for the first test object, the data input procedure and the first screenshot image are stored in a storage device,
In the test for the second test object, the data input procedure is read from the storage device, and the data input procedure is reproduced for the second test object.
The comparison and identification unit includes:
The information processing apparatus according to claim 1, wherein the first screen shot image is read from the storage device, and the first screen shot image and the second screen shot image are compared.
前記比較識別部は、
前記第1のスクリーンショット画像と前記第2のスクリーンショット画像とを画素単位で比較して前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との差異を抽出する請求項1に記載の情報処理装置。
The comparison and identification unit includes:
The difference between the first screen shot image and the second screen shot image is extracted by comparing the first screen shot image and the second screen shot image in pixel units. Information processing device.
前記試験再現部は、
ソフトウェアである前記第1の試験対象物に対する試験でのデータ入力手順をソフトウェアである前記第2の試験対象物に対して再現する請求項1に記載の情報処理装置。
The test reproduction unit is
The information processing apparatus according to claim 1, wherein a data input procedure in a test for the first test object that is software is reproduced for the second test object that is software.
コンピュータが、第1の試験対象物に対する試験でのデータ入力手順を前記第1の試験対象物に関連する第2の試験対象物に対して再現して前記第2の試験対象物の試験を行い、前記第2の試験対象物の試験で生成された、複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像を第2のスクリーンショット画像として取得する試験再現ステップと、
前記コンピュータが、前記第1の試験対象物に対する試験で生成された、前記複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像である第1のスクリーンショット画像と前記第2のスクリーンショット画像とを比較して前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との差異を抽出し、抽出した差異の特徴量を算出し、
表示コンポーネントごとに、前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間で発生する変化の類型が差異の特徴量と関連付けて複数定義される定義情報を用いて、
抽出した差異が存在する表示コンポーネントにおける前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間の変化がいずれの類型に合致するかを識別する比較識別ステップとを有する情報処理方法。
The computer reproduces the data input procedure in the test for the first test object with respect to the second test object related to the first test object, and tests the second test object. A test reproduction step of acquiring a screen shot image of a display screen including a plurality of display components generated in the test of the second test object as a second screen shot image;
The computer generates a first screen shot image and a second screen shot image, which are screen shot images of a display screen including the plurality of display components, generated by a test on the first test object. Comparing and extracting the difference between the first screenshot image and the second screenshot image , calculating the feature value of the extracted difference,
For each display component, by using definition information in which a plurality of types of changes that occur between the first screenshot image and the second screenshot image are defined in association with a feature amount of difference,
An information processing method comprising : a comparison and identification step for identifying a type of change between the first screenshot image and the second screenshot image in a display component having an extracted difference .
第1の試験対象物に対する試験でのデータ入力手順を前記第1の試験対象物に関連する第2の試験対象物に対して再現して前記第2の試験対象物の試験を行い、前記第2の試験対象物の試験で生成された、複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像を第2のスクリーンショット画像として取得する試験再現ステップと、
前記第1の試験対象物に対する試験で生成された、前記複数の表示コンポーネントが含まれる表示画面のスクリーンショット画像である第1のスクリーンショット画像と前記第2のスクリーンショット画像とを比較して前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との差異を抽出し、抽出した差異の特徴量を算出し、
表示コンポーネントごとに、前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間で発生する変化の類型が差異の特徴量と関連付けて複数定義される定義情報を用いて、
抽出した差異が存在する表示コンポーネントにおける前記第1のスクリーンショット画像と前記第2のスクリーンショット画像との間の変化がいずれの類型に合致するかを識別する比較識別ステップとをコンピュータに実行させる情報処理プログラム。
The data input procedure in the test for the first test object is reproduced for the second test object related to the first test object, the second test object is tested, and the second test object is tested. A test reproduction step of acquiring a screen shot image of a display screen including a plurality of display components generated in the test of the test object of 2 as a second screen shot image;
The first screen shot image, which is a screen shot image of a display screen including the plurality of display components, generated by the test on the first test object is compared with the second screen shot image, and the second screen shot image is compared. Extracting a difference between the first screenshot image and the second screenshot image , calculating a feature amount of the extracted difference,
For each display component, by using definition information in which a plurality of types of changes that occur between the first screenshot image and the second screenshot image are defined in association with a feature amount of difference,
Information that causes the computer to perform a comparison and identification step that identifies which type the change between the first screenshot image and the second screenshot image in the display component in which the extracted difference exists matches. Processing program.
JP2016044892A 2016-03-08 2016-03-08 Information processing apparatus, information processing method, and information processing program Expired - Fee Related JP6410749B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044892A JP6410749B2 (en) 2016-03-08 2016-03-08 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044892A JP6410749B2 (en) 2016-03-08 2016-03-08 Information processing apparatus, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2017162120A JP2017162120A (en) 2017-09-14
JP6410749B2 true JP6410749B2 (en) 2018-10-24

Family

ID=59856949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044892A Expired - Fee Related JP6410749B2 (en) 2016-03-08 2016-03-08 Information processing apparatus, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP6410749B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838699B2 (en) 2017-01-18 2020-11-17 Oracle International Corporation Generating data mappings for user interface screens and screen components for an application
CN107577594A (en) * 2017-07-12 2018-01-12 捷开通讯(深圳)有限公司 The abnormal method of record test, intelligent terminal and the device with store function
US10489126B2 (en) * 2018-02-12 2019-11-26 Oracle International Corporation Automated code generation
CN111949510B (en) * 2019-05-17 2024-05-14 百度在线网络技术(北京)有限公司 Test processing method, device, electronic equipment and readable storage medium
CN112446850B (en) * 2019-08-14 2024-08-16 阿里巴巴集团控股有限公司 Adaptation test method and device and electronic equipment
CN111459381B (en) * 2020-03-30 2021-06-22 维沃移动通信有限公司 Information display method, electronic equipment and storage medium
JP7029557B1 (en) 2021-02-10 2022-03-03 PayPay株式会社 Judgment device, judgment method and judgment program
JP7517590B2 (en) 2021-03-17 2024-07-17 日本電信電話株式会社 Classification device, classification method, and classification program
CN113778279A (en) * 2021-08-31 2021-12-10 维沃移动通信有限公司 Screenshot method and device and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044318A (en) * 2001-08-02 2003-02-14 Fujitsu Ltd Program and method for supporting test
JP4711138B2 (en) * 2006-06-07 2011-06-29 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2012038162A (en) * 2010-08-09 2012-02-23 Ricoh Co Ltd Automatic test tool program and automatic test method

Also Published As

Publication number Publication date
JP2017162120A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6410749B2 (en) Information processing apparatus, information processing method, and information processing program
US10395120B2 (en) Method, apparatus, and system for identifying objects in video images and displaying information of same
US9076070B2 (en) Methods and apparatus to detect differences between images
US9448908B2 (en) System and method for model based session management
US20190188729A1 (en) System and method for detecting counterfeit product based on deep learning
US11521109B2 (en) Information processing apparatus and method of controlling information processing apparatus
CN109871316A (en) A kind of control recognition methods and device
TWI798655B (en) Defect detection system
JP6780769B2 (en) Learning equipment, learning methods and learning programs
Feng et al. Gifdroid: Automated replay of visual bug reports for android apps
CN109858542B (en) Character recognition method and device
KR20080095787A (en) Apparatus and method of determining similar image
Boia et al. Logo localization and recognition in natural images using homographic class graphs
JP4591229B2 (en) Image processing apparatus, image processing method, and computer program
Ma et al. Lecture video segmentation and indexing
Chen et al. Extracting replayable interactions from videos of mobile app usage
WO2019239743A1 (en) Object detection device, method, and program
JP6623851B2 (en) Learning method, information processing device and learning program
Feng et al. GIFdroid: an automated light-weight tool for replaying visual bug reports
US20200012780A1 (en) Composite challenge task generation and deployment
US20210012478A1 (en) System and method for assessing quality of media files
JP4983539B2 (en) Information processing apparatus and method, and program
CN112446850B (en) Adaptation test method and device and electronic equipment
JP6955156B2 (en) Image processing program, image processing device and image processing method
Yan et al. Learning quality assessment of retargeted images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180925

R150 Certificate of patent or registration of utility model

Ref document number: 6410749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees