JP2019102042A - Screen difference extraction device and program - Google Patents
Screen difference extraction device and program Download PDFInfo
- Publication number
- JP2019102042A JP2019102042A JP2018006712A JP2018006712A JP2019102042A JP 2019102042 A JP2019102042 A JP 2019102042A JP 2018006712 A JP2018006712 A JP 2018006712A JP 2018006712 A JP2018006712 A JP 2018006712A JP 2019102042 A JP2019102042 A JP 2019102042A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- pair
- group
- rectangular
- pairs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画面差異抽出装置及びプログラムに関する。 The present invention relates to a screen difference extraction apparatus and program.
多環境においてアプリケーションを動作させたときのUIレイアウト崩れの検出や、回帰テストにおけるデグレード検出などを目的に、アプリケーションの実行結果として表示される画面について、正しく表示された画面(正解画面)の画像とテスト対象画面(比較画面)の画像を比較することで、誤りの箇所を自動検出するツールが存在する。画素単位の差異抽出ツール(例えばDiffImage(https://ja.osdn.net/projects/sfnet_diffimg/))や画素単位の差異抽出技術(非特許文献1)では、正解画面と比較画面の差異を画素単位で比較し、その差分を表示することができる。 For the purpose of detection of UI layout collapse when operating an application in multiple environments, degradation detection in regression test, etc., the screen displayed as the execution result of the application is an image of the correctly displayed screen (correct screen) There is a tool for automatically detecting an error location by comparing the images of the test target screen (comparison screen). Pixel-wise difference extraction tools (eg DiffImage (https://en.osdn.net/projects/sfnet_diffimg/)) and pixel-wise difference extraction techniques (Non-Patent Document 1) The unit can be compared and the difference can be displayed.
多環境においてアプリケーションを動作させたときのUIレイアウト崩れを検出する場合、複数の環境において同じ画面を比較し、結果を確認する必要がある。また、回帰テスト等、特定の環境における画面比較であっても、アプリケーションの画面を構成するメニューやヘッダ等は画面の用途によらず共通的に存在することが多く、アプリケーションを構成する各画面について比較を行う場合、同じ領域を何度も比較し、結果を確認する必要がある。 When detecting a UI layout breakdown when operating an application in multiple environments, it is necessary to compare the same screen in multiple environments and confirm the result. In addition, even for screen comparison in a specific environment, such as regression test, menus and headers that make up the screen of the application often exist in common regardless of the application of the screen, and each screen that makes up the application When performing comparisons, it is necessary to compare the same area many times and check the result.
したがって、非特許文献1、2の技術では、環境数や画面数が多くなると、複数の画面に共通する多数の同じ結果(差異箇所)を何度も確認する必要があり、確認の稼動が非常に大きくなるという問題が有る。
Therefore, in the techniques of
本発明は、上記の点に鑑みてなされたものであって、複数の画面の比較作業の効率化に寄与することを目的とする。 The present invention has been made in view of the above-described points, and an object of the present invention is to contribute to the efficiency of comparison work of a plurality of screens.
そこで上記課題を解決するため、画面差異抽出装置は、第1の画面画像の画面要素と、当該画面要素に対応する第2の画面画像の画面要素とのペアを、前記第1の画面画像と複数の異なる前記第2の画面画像とから抽出する抽出部と、前記ペア間における前記第1の画面画像の画面要素どうしの類似性と、前記第2の画面画像の画面要素どうしの類似性とに基づいて、抽出された複数のペアを複数の第1のグループに分類する分類部と、前記第1のグループごとに、当該第1のグループに属するペアのうちのいずれか一つのペアである第1のペアではない第2のペアに、前記第1のペアに対する参照情報を付与する付与部とを有する。 Then, in order to solve the above-mentioned subject, a screen difference extraction device makes a pair of a screen element of the 1st screen image, and a screen element of the 2nd screen image corresponding to the screen element with the 1st screen image. An extracting unit for extracting from a plurality of different second screen images, similarity between screen elements of the first screen image between the pairs, and similarity between screen elements of the second screen image A classification unit that classifies the plurality of extracted pairs into a plurality of first groups, and any one of the pairs belonging to the first group for each of the first groups The second pair that is not the first pair has an assigning unit that assigns reference information to the first pair.
複数の画面の比較作業の効率化に寄与することができる。 It can contribute to the efficiency improvement of comparison work of a plurality of screens.
以下、図面に基づいて第1の実施の形態を説明する。図1は、第1の実施の形態における画面差異抽出装置10のハードウェア構成例を示す図である。図1の画面差異抽出装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。
Hereinafter, a first embodiment will be described based on the drawings. FIG. 1 is a diagram showing an example of the hardware configuration of the screen
画面差異抽出装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
A program for realizing the processing in the screen
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って画面差異抽出装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等で構成され、様々な操作指示を入力させるために用いられる。
The
図2は、第1の実施の形態における画面差異抽出装置10の機能構成例を示す図である。図2において、画面差異抽出装置10は、画像入力部11、矩形抽出部12、矩形ペア抽出部13、マッチング判定部14、矩形ペアグループ生成部15及びレポート出力部16等を有する。これら各部は、画面差異抽出装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。
FIG. 2 is a diagram showing an example of a functional configuration of the screen
以下、画面差異抽出装置10が実行する処理手順について説明する。図3は、画面差異抽出装置10が実行する処理手順の一例を説明するためのフローチャートである。
The processing procedure executed by the screen
ステップS110において、画像入力部11は、ユーザによって指定されたフォルダ配下において、テスト対象の画面ごとに記憶されている、正解画面及び比較画面群を読み込み、正解画面ごとに、同一画面に係る比較画面とのペア情報のリストを生成する。
In step S110, the
なお、正解画面とは、作成者の意図通りに画面が表示される環境(以下、「正解環境」という。)において当該画面が表示された結果を示す画像データ(以下、「画面画像」という。)をいう。比較画面とは、正解環境とは異なる環境(以下、「比較環境」という。)において表示された結果を示す画面画像をいう。環境は、例えば、画面を表示した端末の機種、OS(Operating System)、及びブラウザ等の組み合わせによって区別される。更に、ブラウザの表示サイズ別に環境が区別されてもよい。環境は、画面の表示条件の一例であるともいえる。なお、正解画面及び比較画面は、例えば、画面キャプチャ等によって取得されてもよい。 The correct answer screen is image data (hereinafter referred to as a “screen image”) indicating the result of displaying the screen in an environment where the screen is displayed according to the intention of the creator (hereinafter referred to as “correct environment”). Say). The comparison screen refers to a screen image showing a result displayed in an environment (hereinafter referred to as “comparison environment”) different from the correct answer environment. The environment is distinguished by, for example, a combination of a model of a terminal displaying a screen, an OS (Operating System), and a browser. Furthermore, environments may be distinguished according to browser display sizes. The environment can be said to be an example of the display condition of the screen. The correct answer screen and the comparison screen may be acquired by, for example, screen capture.
なお、画面とは、プログラムがコンピュータに表示させる画面をいう。画面は、アプリケーションプログラム等の画面であってもよいし、HTML(HyperText Markup Language)等によって記述された画面であってもよい。 Here, the screen refers to a screen that the program causes a computer to display. The screen may be a screen of an application program or the like, or may be a screen described in HTML (Hyper Text Markup Language) or the like.
図4は、フォルダ構成の一例を示す図である。図4には、環境ルートフォルダの下に、1つの正解環境フォルダと、2つの比較環境フォルダ(比較環境フォルダ(a)及び(b))が含まれている例が示されている。正解環境フォルダ及び各比較環境フォルダのそれぞれには、画像ファイルX及び画像ファイルYが格納されている。画像ファイルXは、画面Xの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。画像ファイルYは、画面Yの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。但し、正解環境フォルダの下の画像ファイルX及びYは、画面X又は画面Yに関する正解画面を格納した画像ファイルである。比較環境フォルダ(a)の下の画像ファイルX及びYは、環境(a)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。比較環境フォルダ(b)の下の画像ファイルX及びYは、環境(b)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。なお、図4に示したフォルダ及びファイルは、例えば、補助記憶装置102に記憶されている。
FIG. 4 is a diagram showing an example of the folder configuration. FIG. 4 shows an example in which one solution environment folder and two comparison environment folders (comparison environment folders (a) and (b)) are included under the environment root folder. An image file X and an image file Y are stored in each of the correct answer environment folder and each comparison environment folder. The image file X is a file storing a screen image generated by screen capture or the like of the display result of the screen X. The image file Y is a file in which a screen image generated by screen capture of the display result of the screen Y is stored. However, the image files X and Y under the correct answer environment folder are image files storing the correct answer screen regarding the screen X or the screen Y. Image files X and Y under the comparison environment folder (a) are image files storing a comparison screen indicating the display result of the screen X or the screen Y in the environment (a). The image files X and Y under the comparison environment folder (b) are image files storing a comparison screen indicating the display results of the screen X or the screen Y in the environment (b). The folder and file shown in FIG. 4 are stored in the
図4の例によれば、ステップS110では、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルYに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルYに係る正解画面とのペアとの4つのペアに関してペア情報が生成される。 According to the example of FIG. 4, in step S110, a correct answer screen pertaining to image file X under the correct answer environment folder, a pair of a correct answer screen pertaining to image file X under the comparison environment folder (a), and a correct answer environment A pair of the correct answer screen concerning the image file Y under the folder and the correct answer screen concerning the image file Y under the comparison environment folder (a) and the correct answer screen concerning the image file X under the correct answer environment folder Correct pair screen with image file X under environment folder (b), correct screen with image file Y under correct environment folder, correct answer with image file Y under comparison environment folder (b) Pair information is generated for four pairs with the screen and the pair.
なお、ペア情報は、正解画面情報、比較画面情報、矩形ペア群、及び矩形ペアの比較結果群等を含む。正解画面情報とは、正解画面の画面情報である。比較画面情報とは、比較画面の画面情報である。画面情報は、当該画面の画像ファイルと、当該画像ファイルのパス名とを含む情報である。矩形ペア群以降については、後述される。 The pair information includes correct screen information, comparison screen information, a rectangular pair group, and a comparison result group of rectangular pairs. The correct answer screen information is screen information of the correct answer screen. Comparison screen information is screen information of a comparison screen. The screen information is information including an image file of the screen and a path name of the image file. The rectangular pair group and thereafter will be described later.
続いて、画像入力部11は、結果レポート用の空のデータ領域を生成する(ステップS120)。なお、結果レポートは1以上のペア情報を含むデータである。
Subsequently, the
続くステップS130〜S160は、ステップS110において生成されたペア情報ごとに実行される。以下、処理対象とされているペア情報を、「対象ペア情報」という。 The following steps S130 to S160 are performed for each pair of information generated in step S110. Hereinafter, the pair information to be processed is referred to as “target pair information”.
ステップS130において、矩形抽出部12は、非特許文献2又は特許文献1等の技術を用いて、対象ペア情報に係る正解画面及び対象ペア情報に係る比較画面のそれぞれについて、画面要素等の単位で矩形領域を抽出する(すなわち、各画面要素の領域を抽出する)。
In step S130, the
図5は、矩形領域の抽出結果の一例を示す図である。図5において、1行目には、画面Xに関する正解画面(x)、比較画面(x1)及び比較画面(x2)のそれぞれについて抽出された各画面要素の矩形領域が示されている。2行目には、画面Yに関する正解画面(y)、比較画面(y1)及び比較画面(y2)のそれぞれについて抽出された各画面要素の矩形領域が示されている。 FIG. 5 is a diagram showing an example of the extraction result of the rectangular area. In FIG. 5, in the first line, rectangular regions of screen elements extracted for each of the correct screen (x), the comparison screen (x1) and the comparison screen (x2) related to the screen X are shown. The second line shows rectangular areas of the screen elements extracted for each of the correct answer screen (y), the comparison screen (y1), and the comparison screen (y2) related to the screen Y.
なお、図5では、便宜上、複数のペア情報に係る正解画面及び比較画面についての矩形領域の抽出結果が示されているが、対象ペア情報に係る正解画面及び比較画面が、正解画面(x)及び比較画面(x1)である場合には、ステップS130の1回の実行では、正解画面(x)及び比較画面(x1)のそれぞれについてのみ、矩形領域が抽出される。 In FIG. 5, for convenience, extraction results of rectangular areas of the correct answer screen and the comparison screen related to the plurality of pair information are shown, but the correct answer screen and the comparison screen related to the target pair information are the correct answer screen (x) And in the case of the comparison screen (x1), in one execution of step S130, rectangular regions are extracted only for each of the correct answer screen (x) and the comparison screen (x1).
なお、ここでいう矩形領域とは画面における長方形の領域を指しており、非特許文献2又は特許文献1ならば画面上の画面要素(ボタン、広告画像など)の大きさの領域となるが、別の技術を用いてより画面要素よりも大きめの領域が抽出されてもよい。
In addition, although the rectangular area here refers to the rectangular area in a screen, if it is a
続いて、矩形ペア抽出部13は、正解画面から抽出された矩形領域(以下「正解画面矩形」という。)と、比較画面から抽出された矩形領域(以下「比較画面矩形」という。)とについて、対応関係にある矩形領域のペア(以下、「矩形ペア」という。)を全て抽出する(S140)。すなわち、1つの矩形ペアは、正解画面矩形と比較画面矩形とを一つずつ含む。なお、対応関係とは、例えば、所定のペアリング判定ルールに基づいて、最も類似度が高いと判定される関係をいう。類似度は、例えば、画素の一致率等によって評価されてもよい。なお、抽出された全ての矩形ペアの集合を「矩形ペア群」という。矩形ペア群は、対象ペア情報に付与される。
Subsequently, the rectangular
続いて、マッチング判定部14は、対象ペア情報の矩形ペア群に含まれる矩形ペアごとに、正解画面矩形と比較画面矩形と(すなわち、当該矩形ペアの画面要素間)のマッチング判定を行う(S150)。マッチング判定とは、矩形ペアに含まれる正解画面矩形と比較画面矩形とを、所定のマッチング判定ルールに基づいて比較し、差異の有無を判定することをいう。差異の有無は、マッチング判定ルールに基づく差異の有無をいい、実際に差異が有るか否かとは必ずしも一致しなくてもよい。例えば、マッチング判定ルールが、95%以上の画像が一致すれば差異が無いというルールであれば、完全一致でなくても差異が無いと判定されうる。マッチング判定の判定結果(差異有り/無し)の集合は、比較結果群として対象ペア情報に付与される。なお、ステップS130〜S150は、例えば、非特許文献2又は特許文献1に開示された方法を用いて実行されてもよい。
Subsequently, the matching determination unit 14 performs matching determination on the correct screen rectangle and the comparison screen rectangle (that is, between the screen elements of the corresponding rectangular pair) for each rectangular pair included in the rectangular pair group of the target pair information (S150). ). Matching determination refers to comparing the correct screen rectangle contained in the rectangular pair with the comparison screen rectangle based on a predetermined matching determination rule, and determining the presence or absence of a difference. The presence or absence of the difference means the presence or absence of the difference based on the matching determination rule, and it may not necessarily coincide with whether there is an actual difference. For example, if the matching determination rule is a rule in which there is no difference if the images of 95% or more match, it may be determined that there is no difference even if it is not a perfect match. A set of determination results (with / without difference) of the matching determination is attached to the object pair information as a comparison result group. Steps S130 to S150 may be performed using, for example, the method disclosed in
図6は、矩形ペアの対応関係及びマッチングの判定結果の一例を示す図である。図6において、(1)は、画面Xに関する正解画面(x)と比較画面(x1)とのペア、正解画面(x)と比較画面(x2)とのペアのそれぞれについての矩形領域の対応関係及びマッチングの判定結果を示す。(2)は、画面Yに関する正解画面(y)と比較画面(y1)とのペア、正解画面(y)と比較画面(y2)とのペアのそれぞれについての矩形領域の対応関係及びマッチングの判定結果を示す。 FIG. 6 is a diagram showing an example of the correspondence between rectangular pairs and the determination result of matching. In FIG. 6, (1) indicates the correspondence of the rectangular area for each of the pair of the correct answer screen (x) and the comparison screen (x1) and the pair of the correct answer screen (x) and the comparison screen (x2) regarding the screen X And show the determination result of the matching. (2) is the determination of the correspondence relationship and the matching of the rectangular region for each of the pair of the correct answer screen (y) and the comparison screen (y1) and the pair of the correct answer screen (y) and the comparison screen (y2) Show the results.
図6において、線によって接続されている矩形領域が対応関係を有する。すなわち、線によって接続された矩形領域が矩形ペアを構成する。また、各矩形領域に付与されている符号(アルファベット)は、矩形ペアに係る矩形領域の類似性を示す。同一の符号が付与されている矩形領域(例えば、正解画面(x)の矩形領域Cと比較画面(x1)の矩形領域C等)は、マッチング判定において差異が無いと判定された矩形領域を示す。 In FIG. 6, rectangular regions connected by lines have a correspondence. That is, rectangular regions connected by lines constitute a rectangular pair. Moreover, the code | symbol (alphabet) provided to each rectangular area shows the similarity of the rectangular area which concerns on a rectangular pair. The rectangular areas (for example, the rectangular area C of the correct screen (x) and the rectangular area C of the comparison screen (x1 etc.) to which the same code is added indicate the rectangular areas determined to have no difference in the matching determination. .
続いて、レポート出力部16は、結果レポートへ対象ペア情報を追加する(S160)。
Subsequently, the
ステップS130〜S160が、全てのペア情報について実行されると、矩形ペアグループ生成部15は、各ペア情報に含まれる矩形ペア群を統合した矩形ペア群について、矩形ペアグループ群の生成処理を実行する(S170)。矩形ペアグループについては後述される。
When steps S130 to S160 are executed for all the pair information, the rectangle pair
続いて、レポート出力部16は、生成された矩形ペアグループ群を結果レポートへ追加する(S180)。続いて、レポート出力部16は、結果レポートを出力する(S190)。
Subsequently, the
続いて、ステップS110の詳細について説明する。図7は、画面画像の入力処理の処理手順の一例を説明するためのフローチャートである。 Subsequently, the details of step S110 will be described. FIG. 7 is a flowchart for describing an example of a processing procedure of screen image input processing.
ステップS210において、画像入力部11は、ユーザに指定された環境ルートフォルダを読み込む。続いて、画像入力部11は、環境ルートフォルダの下の正解環境フォルダを取得する(ステップS220)。例えば、正解環境フォルダのフォルダ名が予め決められており、当該フォルダ名に係るフォルダが取得されてもよい。
In step S210, the
続いて、画像入力部11は、これから生成されるペア情報を格納するための空のリスト(以下、「ペアリスト」という。)を生成する(ステップS230)。続いて、画像入力部11は、正解環境フォルダに格納されている正解画面ごとに、ステップS240以降を実行する。ステップS240以降において処理対象とされている正解画面を、「対象正解画面」という。
Subsequently, the
ステップS240において、画像入力部11は、環境ルートフォルダの下に有る全ての比較環境フォルダ(以下、「比較環境フォルダ群」という。)を取得する。
In step S240, the
続いて、画像入力部11は、取得された比較環境フォルダごとに、ステップS250及びS270を実行する。ステップS250及びS270において処理対象とされている比較環境フォルダを、「対象比較環境フォルダ」という。
Subsequently, the
ステップS250において、画像入力部11は、対象比較環境フォルダ内から対象正解画面に対応する比較画面を取得し、対象正解画面と当該比較画面とに対するペア情報を生成する。対象正解画面に対応する比較画面とは、対象正解画面が対応する画面と同じ画面に対応する比較画面をいう。例えば、画面が共通する画面画像は、同じファイル名のファイルに格納されていてもよい。そうすることで、正解画面に対応する比較画面を容易に特定することができる。
In step S250, the
続いて、画像入力部11は、生成されたペア情報をペアリストに追加する(ステップS270)。
Subsequently, the
続いて、図3のステップS170の詳細について説明する。図8は、矩形ペアグループ群の生成処理の処理手順の一例を説明するためのフローチャートである。 Subsequently, details of step S170 in FIG. 3 will be described. FIG. 8 is a flowchart for describing an example of a processing procedure of a process of generating a rectangular pair group group.
ステップS310において、矩形ペアグループ生成部15は、矩形ペア群(各ペア情報に係る矩形ペア群を統合した矩形ペア群)を、矩形ペア間における正解画面矩形どうしの類似性と、比較画面矩形どうしの類似性との組に基づいて、複数のグループ(以下、「矩形ペアグループ」という。)に分類する。すなわち、正解画面矩形同士が類似し、比較画面矩形同士が類似する複数の矩形ペアは、同じグループに分類される。なお、各矩形ペアの矩形ペアグループへの分類は、ペア情報を跨って(換言すれば、図5における画面Xと画面Yとを跨って)、行われる。
In step S310, the rectangle pair
例えば、矩形ペアグループ生成部15は、各矩形ペアについて、正解画面矩形の特徴値と比較画面矩形の特徴値とを算出する。その結果、各矩形ペアは、特徴値のペアに変換される。当該特徴値の算出には、dHash等が用いられてもよい。矩形ペアグループ生成部15は、特徴値のペアが一致する矩形ペアが同じ矩形ペアグループに属するように、矩形ペア群を分類する。
For example, the rectangular pair
図9は、矩形ペアグループへの分類結果の一例を示す図である。図9において、「矩形」の列は、各矩形領域の識別子を示す。当該識別子は、「画面の種別(正解画面又は比較画面の名前)矩形領域」の形式を有する。例えば、「X(x)A」は、画面Xの正解画面(x)の矩形領域Aを示す。また、図9において「特徴値」は、対応する矩形領域の特徴値を便宜上、符号によって示したものであり、同じ符号は同じ特徴値を示す。 FIG. 9 is a diagram showing an example of the classification result into the rectangular pair group. In FIG. 9, the “rectangle” column indicates an identifier of each rectangular area. The identifier has a format of “type of screen (name of correct screen or comparison screen) rectangular area”. For example, “X (x) A” indicates the rectangular area A of the correct screen (x) of the screen X. Further, in FIG. 9, “feature value” indicates the feature value of the corresponding rectangular area for convenience as a symbol, and the same symbol indicates the same feature value.
図9において、グループ1は、特徴値のペアが(d1,d2)のグループである。グループ2は、特徴値のペアが(d3,d4)のグループである。グループ3は、特徴値のペアが(d5,d6)のグループである。
In FIG. 9, a
なお、図9には、マッチング判定において、矩形領域同士が同一であると判定された矩形ペアは含まれていない。このような矩形ペアは、画面の差異の出力対象とする必要性が低いからである。したがって、矩形ペアグループ生成部15は、矩形ペア群の中から、マッチング判定で同一であると判定された矩形領域同士に係る矩形ペアを除去した後で、ステップS310を実行してもよい。
Note that FIG. 9 does not include rectangular pairs determined to be identical in rectangular regions in the matching determination. This is because such rectangular pairs are less likely to be output targets of screen differences. Therefore, the rectangular pair
続いて、矩形ペアグループ生成部15は、矩形ペアグループ群に含まれる矩形グループごとに、ステップS320及びS330を実行する。以下、処理対象とされている矩形ペアグループを「対象矩形ペアグループ」という。
Subsequently, the rectangular pair
ステップS320において、矩形ペアグループ生成部15は、対象矩形ペアグループに含まれる矩形ペアのうちのいずれか一つを代表ペアとして選択する。代表ペアとして選択された矩形ペアに対しては、代表フラグが付与される。なお、代表ペアの選択方法は、所定の方法に限定されない。
In step S320, the rectangular pair
続いて、矩形ペアグループ生成部15は、対象矩形ペアグループに含まれる矩形ペアのうち、代表ペア以外の矩形ペアについて、代表ペアに対する参照リンク(参照情報又はリンク情報)を付与する(S330)。当該参照リンクは、代表ペアを識別及び特定可能な情報であればどのようなものでもよい。
Subsequently, the rectangular pair
ステップS320及びS330が全ての矩形ペアグループについて実行されると、図8の処理は終了する。その結果、各矩形ペアグループについて、いずれかの矩形ペアに代表フラグが付与され、代表ペア以外の矩形ペアに代表ペアに対する参照リンクが付与される。 When steps S320 and S330 are performed for all the rectangular pair groups, the process of FIG. 8 ends. As a result, for each rectangular pair group, a representative flag is given to one of the rectangular pairs, and a reference link for the representative pair is given to the rectangular pair other than the representative pair.
図10は、代表フラグ及び参照リンクの付与結果の一例を示す図である。図10では、図9に対して、「代表」及び「参照リンク」の列が追加されている。「代表」の列では、代表ペアに対して「1」が設定されている。「参照リンク」の列には、代表ペア以外の矩形ペアに対して代表ペアへの参照リンクが設定されている。 FIG. 10 is a diagram showing an example of the assignment result of the representative flag and the reference link. In FIG. 10, columns of “representative” and “reference link” are added to FIG. In the "representative" column, "1" is set for the representative pair. In the column "reference link", reference links to representative pairs are set for rectangular pairs other than representative pairs.
例えば、グループ1では、正解画面(x)の矩形領域Aと比較画面(x1)の矩形領域A'との矩形ペアが代表ペアとして選択され、それ以外の矩形ペアには、当該代表ペアへの参照リンクが付与されている。また、グループ2では、正解画面(x)の矩形領域Bと比較画面(x1)の矩形領域B'との矩形ペアが代表ペアとして選択され、それ以外の矩形ペアには、当該代表ペアへの参照リンクが付与されている。更に、グループ3では、正解画面(x)の矩形領域Cと比較画面(x2)の矩形領域C'との矩形ペアが代表ペアとして選択され、それ以外の矩形ペアには、当該代表ペアへの参照リンクが付与されている。
For example, in
なお、グループ2及びグループ3に示されているように、画面Yに関する矩形ペアに対しても、画面Xに関する代表ペアへの参照リンクが付与されうる。
Note that, as shown in
上述したステップS180では、図10に示すような情報が結果レポートに追加され、ステップS190において、レポート出力部16は、斯かる結果レポートを例えば以下のように出力する。
In step S180 described above, information as shown in FIG. 10 is added to the result report, and in step S190, the
図11は、結果レポートの第1の出力例を示す図である。図11は、グループ2に関する結果レポートの例を示す。図11では、代表ペアについてのみマッチング判定の判定結果が示されており、代表ペア以外のペアについては、代表ペアと当該判定結果が同じであるため、確認対象外であることが示されている。また、代表ペアへの参照リンクも示されている。
FIG. 11 is a diagram illustrating a first output example of the result report. FIG. 11 shows an example of a result report for
また、図12は、結果レポートの第2の出力例を示す図である。図12では、ペア情報ごとに、当該ペア情報に係る各矩形ペアに関するマッチング判定の判定結果が「コメント」として出力される例が示されている。但し、代表ペア以外の矩形ペアについては、代表ペアを参照すべき旨が代表ペアを示す参照リンクと共に「コメント」に示されている。 FIG. 12 is a diagram showing a second output example of the result report. FIG. 12 illustrates an example in which the determination result of the matching determination regarding each rectangular pair related to the pair information is output as “comment” for each pair information. However, for rectangular pairs other than the representative pair, “comment” indicates that the representative pair should be referred to, together with the reference link indicating the representative pair.
なお、結果レポートは、表示装置106に表示されてもよいし、プリンタから出力されてもよいし、ファイルとして補助記憶装置102等に記憶されてもよい。
The result report may be displayed on the
図11又は図12等のような結果レポートによれば、複数の画面における共通的な差異について何度も重複して確認する作業を削減することができる。したがって、本実施の形態によれば、複数の画面の比較作業の効率化に寄与することができる。なお、本実施の形態によれば、環境間や画面間で、差異内容が同一である画面要素を含む画面が多くなるほど、確認作業の削減効果の拡大を期待することができる。 According to the result report as shown in FIG. 11 or FIG. 12 or the like, it is possible to reduce the work of repeatedly checking the common differences in the plurality of screens repeatedly. Therefore, according to the present embodiment, it is possible to contribute to the efficiency of comparison work of a plurality of screens. According to the present embodiment, as the number of screens including screen elements having the same content of difference between environments or screens increases, it is possible to expect an increase in the reduction effect of the confirmation operation.
次に、第2の実施の形態について説明する。第2の実施の形態では第1の実施の形態と異なる点について説明する。第2の実施の形態において特に言及されない点については、第1の実施の形態と同様でもよい。 Next, a second embodiment will be described. In the second embodiment, points different from the first embodiment will be described. The points not specifically mentioned in the second embodiment may be the same as in the first embodiment.
第1の実施の形態では、矩形ペア群を矩形ペアグループへ分類する処理(図8のS310)において、画像同士の類似性を比較する代表的な手法であるdHashを活用すると、画面間の矩形ペア同士を総当りで比較する必要があるため、環境数や画面数が多くなるにつれて、比較回数が多くなってしまう。 In the first embodiment, when utilizing dHash, which is a representative method for comparing the similarity between images, in the process of classifying the rectangular pair group into the rectangular pair group (S310 in FIG. 8), the rectangles between the screens are used. Since it is necessary to compare pairs in a round-robin manner, the number of comparisons increases as the number of environments and the number of screens increase.
そこで、第2の実施の形態では、アプリケーションの画面を構成するヘッダやメニュー等のレイアウト(表示位置)が同じになりやすい傾向に鑑み、正解画面及び比較画面のそれぞれを、複数の領域(以下、「分割領域」という。)に分割し、正解画面又は比較画面から抽出された各矩形領域(正解画面矩形又は比較画面矩形)を、当該矩形領域が属する領域に基づくグループ(以下、「領域グループ」という。)に分類する。矩形ペアグループを生成する際には、各矩形ペアに含まれる矩形領域との比較対象を、同一の領域グループに属する矩形ペアの矩形領域に絞り込むことで、比較回数を削減することができる。なお、複数の分割領域のうちの少なくとも一つは、複数の矩形領域(正解画面矩形又は比較画面矩形)を含む。また、各正解画面及び各比較画面のサイズが同じであれば、各正解画面及び各比較画面の分割の仕方は、全く同じでもよい。この場合、各分割領域の位置及び範囲は、絶対値によって指定されてもよい。一方、各正解画面及び各比較画面の間でサイズが多少異なる場合には、各分割領域の位置及び範囲は、割合によって指定されてもよい
具体的には、第2の実施の形態では、図8のステップS310の処理内容が、図13に示される処理手順に置き換わる。
Therefore, in the second embodiment, in view of the tendency that the layout (display position) of the header, menu, etc. constituting the screen of the application tends to be the same, each of the correct screen and the comparison screen is divided into a plurality of areas (hereinafter Groups (hereinafter referred to as "area group") which are divided into "divided areas" and each rectangular area (correct screen rectangle or comparison screen rectangle) extracted from the correct screen or the comparison screen is based on the area to which the rectangular area belongs To be classified). When generating a rectangular pair group, the number of comparisons can be reduced by narrowing down targets of comparison with rectangular regions included in each rectangular pair to rectangular regions of the rectangular pair belonging to the same region group. Note that at least one of the plurality of divided regions includes a plurality of rectangular regions (correct screen rectangles or comparison screen rectangles). Moreover, as long as the size of each correct answer screen and each comparison screen is the same, the way of dividing each correct answer screen and each comparison screen may be completely the same. In this case, the position and range of each divided area may be designated by an absolute value. On the other hand, when the size of each correct answer screen and each comparison screen is slightly different, the position and range of each divided area may be designated by a ratio. Specifically, in the second embodiment, the figure is a diagram. The processing content of step S310 of 8 is replaced with the processing procedure shown in FIG.
図13は、第2の実施の形態における矩形ペア群の矩形ペアグループへの分類処理の処理手順の一例を説明するためのフローチャートである。 FIG. 13 is a flowchart for describing an example of a processing procedure of classification processing of rectangular pair groups into rectangular pair groups in the second embodiment.
まず、矩形ペアグループ生成部15は、矩形ペア群(各ペア情報に係る矩形ペア群を統合した矩形ペア群)に含まれる矩形ペアごとに、ステップS311及びS312を実行する。以下、処理対象の矩形ペアを「対象矩形ペア」という。
First, the rectangular pair
ステップS311において、矩形ペアグループ生成部15は、対象矩形ペアの正解画面矩形を、当該正解画面矩形が属する正解画面に係る分割領域のうち、当該正解画面矩形を完全に含む分割領域に係る領域グループへ分類する。
In step S311, the rectangular pair
図14は、正解画面矩形の領域グループへの分類例を示す図である。図14では、正解画面V又は正解画面Wが、4つの分割領域に分割される場合の分類例が示されている。図14において「矩形x」(xは、a〜p)は、正解画面Vの正解画面矩形又は正解画面Wの正解画面矩形(すなわち、矩形領域)を示す。また、領域Aは、上側の分割領域、領域Bは、下側の分割領域、領域Cは、左側の分割領域、領域Dは、右側の分割領域に相当する。 FIG. 14 is a view showing an example of classification of correct screen rectangles into area groups. FIG. 14 shows a classification example in which the correct answer screen V or the correct answer screen W is divided into four divided areas. In FIG. 14, “rectangle x” (x indicates a to p) indicates a correct screen rectangle of the correct screen V or a correct screen rectangle (that is, a rectangular area) of the correct screen W. The area A corresponds to the upper divided area, the area B corresponds to the lower divided area, the area C corresponds to the left divided area, and the area D corresponds to the right divided area.
図14の正解画面Vにおいて、領域Aには、矩形a、b及びdのそれぞれが完全に含まれる。したがって、領域Aに係る領域グループには、矩形a、b及びdが分類される。また、領域Bには、矩形g、h及びiのそれぞれが完全に含まれる。したがって、領域Bに係る領域グループには、矩形g、h及びiが分類される。また、領域Cには、矩形e及びcのそれぞれが完全に含まれる。したがって、領域Cに係る領域グループには、矩形e及びcが分類される。なお、矩形bも領域Cに完全に含まれるが、矩形bは、既に領域Aに分類されているため、領域Cに係る領域グループには分類されない。すなわち、1つの矩形領域は、複数の領域グループには属さない。但し、1つの矩形領域は、複数の領域グループに属することが許容されてもよい。斯かる状態が許容されることで、共通であることが期待される矩形領域同士が異なる領域グループに所属することで、当該矩形領域同士が共通でないと判断されることを回避することができる。また、領域Dには、矩形fが完全に含まれる。したがって、領域Dに係る領域グループには、矩形fが分類される。 In the correct answer screen V of FIG. 14, each of the rectangles a, b and d is completely included in the area A. Therefore, rectangles a, b and d are classified into the area group related to the area A. In addition, each of the rectangles g, h and i is completely included in the region B. Therefore, rectangles g, h and i are classified into the area group related to the area B. Also, in the region C, each of the rectangles e and c is completely included. Therefore, rectangles e and c are classified into the area group related to the area C. Although the rectangle b is completely included in the region C, the rectangle b is not classified into the region group related to the region C because the rectangle b is already classified into the region A. That is, one rectangular area does not belong to a plurality of area groups. However, one rectangular area may be permitted to belong to a plurality of area groups. By allowing such a state, it can be avoided that the rectangular areas are determined not to be common by the rectangular areas expected to be common belonging to different area groups. In addition, in the region D, the rectangle f is completely included. Therefore, the rectangle f is classified into the area group related to the area D.
一方、正解画面Wにおいて、領域Aには、矩形j及びkのそれぞれが完全に含まれる。したがって、領域Aに係る領域グループには、矩形j及びkが分類される。また、領域Bには、矩形o及びpのそれぞれが完全に含まれる。したがって、領域Bに係る領域グループには、矩形o及びpが分類される。また、領域Cには、矩形l及びmのそれぞれが完全に含まれる。したがって、領域Cに係る領域グループには、矩形l及びmが分類される。また、領域Dには、矩形nが完全に含まれる。したがって、領域Dに係る領域グループには、矩形nが分類される。 On the other hand, in the correct answer screen W, the area A completely includes each of the rectangles j and k. Therefore, rectangles j and k are classified into the area group related to the area A. Also, in the region B, each of the rectangles o and p is completely included. Therefore, rectangles o and p are classified into the area group related to the area B. In addition, in the region C, each of the rectangles l and m is completely included. Therefore, rectangles l and m are classified into the area group related to the area C. In addition, in the region D, the rectangle n is completely included. Therefore, the rectangle n is classified into the area group related to the area D.
対象矩形ペアの正解画面矩形が、いずれかの領域グループへ分類されると、当該正解画面矩形の分類先の領域グループの識別情報(以下、「領域名」という。)が付与される。 When the correct answer screen rectangle of the target rectangle pair is classified into any area group, identification information (hereinafter referred to as "area name") of the area group to which the correct answer screen rectangle is classified is added.
なお、図14を用いて説明した分類方法によれば、いずれの領域にも完全には含まれず、いずれの領域グループにも分類されない正解画面矩形が発生する可能性が有るが、本実施の形態において斯かる可能性は許容される。但し、斯かる可能性を除去するために、各画面の分割領域の形状の異なりを許容すると共に、各分割領域の形状が長方形に限定されないようにしてもよい。すなわち、矩形領域の境界によって形成される領域が分割領域とされてもよい。 According to the classification method described with reference to FIG. 14, there is a possibility that a correct screen rectangle which is not completely included in any area and is not classified in any area group may occur. Such possibilities are acceptable. However, in order to eliminate such a possibility, the shape of each divided area may not be limited to a rectangle while allowing a difference in the shape of the divided area of each screen. That is, the area formed by the boundary of the rectangular area may be taken as the divided area.
また、各分割領域の位置やサイズは、機械学習を活用することで、テストを重ねる度に変更してもよく、例えば、テスト回数の増加と共に、共通的な矩形領域が表示される領域を学習することで、アプリケーション毎に適した分割領域の数・位置・サイズが定義されてもよい。 Also, the position and size of each divided area may be changed each time a test is repeated by utilizing machine learning, for example, learning an area in which a common rectangular area is displayed as the number of tests increases. By doing this, the number, position, and size of divided areas suitable for each application may be defined.
ステップS312において、矩形ペアグループ生成部15は、対象矩形ペアの比較画面矩形を、当該比較画面矩形が属する比較画面に係る分割領域のうち、当該比較画面矩形を完全に含む分割領域に係る領域グループへ分類する。その結果、対象矩形ペアの比較画面矩形には、当該比較画面矩形の分類先の領域グループの領域名が付与される。
In step S312, the rectangle pair
続いて、矩形ペアグループ生成部15は、領域グループごとに、ステップS313を実行する。以下、処理対象の領域グループを、以下「対象領域グループ」という。ステップS313において、矩形ペアグループ生成部15は、正解画面矩形が対象領域グループに属する(対象領域グループの領域名が付与された)矩形ペア群を、正解画面矩形どうしの類似性に基づいて矩形ペアグループに分類する。例えば、矩形ペアグループ生成部15は、各矩形ペアについて、正解画面矩形の特徴値を算出する。当該特徴値の算出には、dHash等が用いられてもよい。矩形ペアグループ生成部15は、特徴値が一致する正解画面矩形が属する矩形ペアを同じ矩形ペアグループに分類する。なお、この際、分類のための比較対称は、同じ領域グループ(対象領域グループ)に属する正解画面矩形群に限られる。したがって、図14の例によれば、領域Aに関する比較回数は、3×2=6回であり、領域Bに関する比較回数は、3×2=6回であり、領域Cに関する比較回数は、2×2=4回であり、領域Dに関する比較回数は、1×1=1回である。よって、合計の比較回数は、6+6+4+1=17回である。一方、第1の実施の形態であれば、9×7=63回の比較回数が必要とされる。
Subsequently, the rectangular pair
続いて、矩形ペアグループ生成部15は、各領域グループに対するステップS313の実行により生成された矩形ペアグループごとに、ステップS314を実行する。以下、処理対象の矩形ペアグループを「対象ペアグループ」という。ステップS314において、矩形ペアグループ生成部15は、対象ペアグループに属する矩形ペア群を、同じ領域グループに属する(同じ領域名が付与された)比較画面矩形どうしの類似性に基づいて矩形ペアグループに再分類する。再分類の結果、正解画面矩形どうし及び比較画面矩形どうしが類似する矩形ペアグループ群が生成される。なお、比較画面矩形どうしの類似性に基づく分類は、正解画面矩形どうしの類似性に基づく分類と同様の方法で行われてよい。また、この際、再分類のための比較対象は、同じ領域グループに属する比較画面矩形群に限られる。
Subsequently, the rectangular pair
なお、ステップS313、S314において、dHashによる矩形領域の画像的内容の類似性を比較する前に、各正解画面矩形又は各比較画面矩形との比較対象を、所属する分割領域によって絞り込むだけでなく(或いは斯かる絞り込みの代わりに)、矩形サイズで分類し、サイズが明らかに異なる矩形領域を比較対象から除外するようにしてもよい。すなわち、サイズに基づくグループ化が行われてもよい。また、矩形領域(各正解画面矩形又は各比較画面矩形)の役割(用途及び機能等)(ボタンやテキストボックス等)等によって各矩形領域を分類しておくことで、役割の異なる矩形領域を比較対象から除外するようにしてもよい。すなわち、役割に基づくグループ化が行われてもよい。 In addition, in steps S313 and S314, before comparing the similarity of the image content of the rectangular area by dHash, not only narrowing down the comparison object with each correct screen rectangle or each comparison screen rectangle by the belonging divided area ( Alternatively, instead of such narrowing down, it may be classified according to the rectangular size, and rectangular areas which are obviously different in size may be excluded from comparison objects. That is, size-based grouping may be performed. In addition, the rectangular areas with different roles are compared by classifying each rectangular area according to the role (application, function, etc.) (button, text box, etc.) of the rectangular area (each correct screen rectangle or each comparison screen rectangle) It may be excluded from the target. That is, role-based grouping may be performed.
上述したように、第2の実施の形態によれば、矩形ペア群を矩形ペアグループへグループ化する際、各矩形領域(正解画面矩形又は比較画面矩形)の表示位置に基づいて分割領域に分類することで、正解画面同士の全矩形領域(正解画面矩形)、比較画面同士の全矩形領域(比較画面矩形)を総当りで比較することなく、各領域グループ内に比較対象を限定することができる。その結果、比較回数を削減することができ、ひいては、テスト実行時間を短縮することができる。 As described above, according to the second embodiment, when grouping a rectangular pair group into a rectangular pair group, classification is made into divided regions based on the display position of each rectangular region (correct screen rectangle or comparison screen rectangle) By doing this, the comparison target can be limited within each area group without comparing all rectangular areas of the correct screens (correct screen rectangles) and all rectangular areas of the comparison screens (comparative screen rectangles) in a round robin manner. it can. As a result, the number of comparisons can be reduced, which in turn can shorten the test execution time.
なお、画面レイアウトが大幅に変更された場合には、グループ化したい矩形ペアが漏れてしまう可能性がある。そこで、領域グループに所属する矩形ペアが1つも存在しない等の場合は、総当りで矩形ペアの比較を行われるようにしてもよい。 When the screen layout is significantly changed, there is a possibility that the rectangular pairs to be grouped may leak. Therefore, in the case where there is no rectangular pair belonging to the area group, for example, the comparison of the rectangular pair may be performed round by round.
なお、上記各実施の形態において、矩形ペア抽出部13は、抽出部の一例である。マッチング判定部14は、判定部の一例である。矩形ペアグループ生成部15は、分類部及び付与部の一例である。レポート出力部16は、出力部の一例である。正解画面は、第1の画面画像の一例である。比較画面は、第2の画面画像の一例である。代表ペアは、第1のペアの一例である。代表ペア以外の矩形ペアは、第2のペアの一例である。矩形ペアグループは、第1のグループの一例である。領域グループは、第2のグループの一例である。
In each of the above-described embodiments, the rectangular
以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described above in detail, the present invention is not limited to such specific embodiments, and various modifications may be made within the scope of the present invention as set forth in the claims. Modifications and changes are possible.
10 画面差異抽出装置
11 画像入力部
12 矩形抽出部
13 矩形ペア抽出部
14 マッチング判定部
15 矩形ペアグループ生成部
16 レポート出力部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
B バス
DESCRIPTION OF
105
Claims (6)
前記ペア間における前記第1の画面画像の画面要素どうしの類似性と、前記第2の画面画像の画面要素どうしの類似性とに基づいて、抽出された複数のペアを複数の第1のグループに分類する分類部と、
前記第1のグループごとに、当該第1のグループに属するペアのうちのいずれか一つのペアである第1のペアではない第2のペアに、前記第1のペアに対する参照情報を付与する付与部と、
を有することを特徴とする画面差異抽出装置。 Extracting a pair of a screen element of a first screen image and a screen element of a second screen image corresponding to the screen element from the first screen image and a plurality of different second screen images Department,
Based on the similarity between the screen elements of the first screen image between the pairs and the similarity between the screen elements of the second screen image, a plurality of extracted pairs are divided into a plurality of first groups A classification unit that classifies into
Assigning reference information for the first pair to the second pair other than the first pair, which is any one of the pairs belonging to the first group, for each first group Department,
The screen difference extraction apparatus characterized by having.
前記第1のペアに関しては、前記判定部による判定結果を出力し、前記第2のペアに関しては、当該第2のペアに付与された参照情報を出力する出力部と、
を有することを特徴とする請求項1記載の画面差異抽出装置。 A determination unit that determines the presence or absence of a difference between screen elements included in each of the plurality of pairs extracted by the extraction unit;
An output unit that outputs the determination result by the determination unit for the first pair, and outputs reference information given to the second pair for the second pair;
The screen difference extraction apparatus according to claim 1, comprising:
ことを特徴とする請求項1又は2記載の画面差異抽出装置。 The extraction unit generates a pair of screen elements from the first screen image and a plurality of second screen images corresponding to the first screen image for each of the plurality of different first screen images. Extract,
The screen difference extraction apparatus according to claim 1 or 2, characterized in that
ことを特徴とする請求項1乃至3いずれか一項記載の画面差異抽出装置。 After the classification unit classifies each pair into a second group based on display positions, sizes, or roles of screen elements of the first screen image or the second screen image included in the pair. And, in each of the second groups, classifying the pairs classified into the second group into the first group.
The screen difference extraction apparatus according to any one of claims 1 to 3, characterized in that:
ことを特徴とする請求項1乃至3いずれか一項記載の画面差異抽出装置。 The classification unit is configured such that the screen elements of the first screen image or the second screen image included in the pair are a plurality of areas of the first screen image or the second screen image. Are classified into a second group based on which one of a plurality of regions obtained by dividing into a second group, and the pairs classified into the second group are included in each of the second groups. Classify into the first group,
The screen difference extraction apparatus according to any one of claims 1 to 3, characterized in that:
前記ペア間における前記第1の画面画像の画面要素どうしの類似性と、前記第2の画面画像の画面要素どうしの類似性とに基づいて、抽出された複数のペアを複数の第1のグループに分類する分類手順と、
前記第1のグループごとに、当該第1のグループに属するペアのうちのいずれか一つのペアである第1のペアではない第2のペアに、前記第1のペアに対する参照情報を付与する付与手順と、
をコンピュータに実行させることを特徴とするプログラム。 Extracting a pair of a screen element of a first screen image and a screen element of a second screen image corresponding to the screen element from the first screen image and a plurality of different second screen images Steps and
Based on the similarity between the screen elements of the first screen image between the pairs and the similarity between the screen elements of the second screen image, a plurality of extracted pairs are divided into a plurality of first groups Classification procedure to be classified into
Assigning reference information for the first pair to the second pair other than the first pair, which is any one of the pairs belonging to the first group, for each first group Steps and
A program characterized by causing a computer to execute.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017233746 | 2017-12-05 | ||
JP2017233746 | 2017-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019102042A true JP2019102042A (en) | 2019-06-24 |
JP6718473B2 JP6718473B2 (en) | 2020-07-08 |
Family
ID=66973878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018006712A Active JP6718473B2 (en) | 2017-12-05 | 2018-01-18 | Screen difference extraction device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6718473B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021135647A (en) * | 2020-02-26 | 2021-09-13 | 富士通株式会社 | Template image update program, template image update method, and template image update apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224868A (en) * | 2015-06-03 | 2016-12-28 | 新日鉄住金ソリューションズ株式会社 | Information processor, information processing method and program |
JP2017138713A (en) * | 2016-02-02 | 2017-08-10 | 日本電信電話株式会社 | Screen difference extraction device, screen difference extraction method, and program |
-
2018
- 2018-01-18 JP JP2018006712A patent/JP6718473B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224868A (en) * | 2015-06-03 | 2016-12-28 | 新日鉄住金ソリューションズ株式会社 | Information processor, information processing method and program |
JP2017138713A (en) * | 2016-02-02 | 2017-08-10 | 日本電信電話株式会社 | Screen difference extraction device, screen difference extraction method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021135647A (en) * | 2020-02-26 | 2021-09-13 | 富士通株式会社 | Template image update program, template image update method, and template image update apparatus |
JP7396115B2 (en) | 2020-02-26 | 2023-12-12 | 富士通株式会社 | Template image update program, template image update method, and template image update device |
Also Published As
Publication number | Publication date |
---|---|
JP6718473B2 (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6337973B2 (en) | Additional learning device, additional learning method, and additional learning program | |
JP6354457B2 (en) | Application development support apparatus, data processing method thereof, and program | |
US20160098615A1 (en) | Apparatus and method for producing image processing filter | |
US20210208996A1 (en) | Verification automation apparatus, verification automation method, and computer-readable recording medium | |
JP6543649B2 (en) | Screen difference detection device and program | |
JP6476145B2 (en) | Screen difference acceptance / rejection determination device, screen difference acceptance / rejection determination method, and program | |
JP6648511B2 (en) | Support device, support method, and program | |
JP6608719B2 (en) | Screen difference extraction apparatus, screen difference extraction method, and program | |
JP6718473B2 (en) | Screen difference extraction device and program | |
JP5937245B1 (en) | Operation procedure evaluation apparatus and operation procedure evaluation program | |
JP6603194B2 (en) | Screen recognition device, screen recognition method, and screen recognition program | |
JP6121828B2 (en) | Static analysis apparatus, static analysis method, and computer program | |
JP6476147B2 (en) | Screen difference extraction apparatus, screen difference extraction method, and program | |
JP6476144B2 (en) | Screen difference confirmation support device, screen difference confirmation support method, and program | |
JP6446945B2 (en) | Incompatible detection device, incompatible detection method, and program | |
US11783116B2 (en) | Resembling transition identifying apparatus, resembling transition identifying method and program | |
JP5402936B2 (en) | GUI evaluation system, GUI evaluation method, and GUI evaluation program | |
CN116229497A (en) | Layout text recognition method and device and electronic equipment | |
JP2017151594A (en) | Supporting device, supporting method, and program | |
JP2017138716A (en) | Screen difference evaluation device, screen difference evaluation method, and program | |
JP2005085182A (en) | Test support system | |
JP2016053751A (en) | Information processing device, information processing method, and program | |
US20240338212A1 (en) | Pattern extraction visualization device, pattern extraction visualization method, pattern extraction visualization program | |
JP2013206310A (en) | Model inspection device, model inspection method, and program | |
CN112948244B (en) | Method, device and equipment for industrial internet information model test |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6718473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |