JP6608719B2 - Screen difference extraction apparatus, screen difference extraction method, and program - Google Patents

Screen difference extraction apparatus, screen difference extraction method, and program Download PDF

Info

Publication number
JP6608719B2
JP6608719B2 JP2016017972A JP2016017972A JP6608719B2 JP 6608719 B2 JP6608719 B2 JP 6608719B2 JP 2016017972 A JP2016017972 A JP 2016017972A JP 2016017972 A JP2016017972 A JP 2016017972A JP 6608719 B2 JP6608719 B2 JP 6608719B2
Authority
JP
Japan
Prior art keywords
screen
image
extracted
difference
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016017972A
Other languages
Japanese (ja)
Other versions
JP2017138713A (en
Inventor
治門 丹野
暁晶 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016017972A priority Critical patent/JP6608719B2/en
Publication of JP2017138713A publication Critical patent/JP2017138713A/en
Application granted granted Critical
Publication of JP6608719B2 publication Critical patent/JP6608719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Image Analysis (AREA)

Description

本発明は、画面差異抽出装置、画面差異抽出方法、及びプログラムに関する。   The present invention relates to a screen difference extraction device, a screen difference extraction method, and a program.

近年、Webページ等の画面は、様々な環境(端末機種、OS(Operating System)、及びブラウザ等の組み合わせ)において閲覧されているが、各環境において、画面のレイアウトが異なる場合が有る。例えば、特定の環境において、画面の作成者が意図しないレイアウト崩れが発生する場合が有る。したがって、画面の作成者は、作成した画面が各環境において意図した通りに表示されることを確認するためにテストを行う必要が有る。   In recent years, a screen such as a Web page has been browsed in various environments (a combination of a terminal model, an OS (Operating System), a browser, and the like), but the screen layout may be different in each environment. For example, in a specific environment, layout disruption that is not intended by the creator of the screen may occur. Therefore, the creator of the screen needs to perform a test to confirm that the created screen is displayed as intended in each environment.

従来、斯かるテストは、各環境での表示結果と、意図した通りの表示結果とを、目視で確認することにより行われるのが一般的であったが、環境の種類(すなわち、端末機種、OS、及びブラウザ等の組み合わせ等の種類)が、多数存在するため、テストの実施者の作業負担が大きかった。   Conventionally, such a test is generally performed by visually confirming a display result in each environment and a display result as intended, but the type of environment (that is, terminal model, Since there are many types of combinations of OS, browsers, etc., the workload of the tester is heavy.

そこで、例えば、非特許文献1又は非特許文献2に記載されているような技術を利用して、テストの効率化を図ることが考えられる。   Therefore, for example, it is conceivable to improve the efficiency of the test by using a technique described in Non-Patent Document 1 or Non-Patent Document 2.

Akihiro Hori, Shingo Takada, Haruto Tanno and Morihide Oinuma、「An Oracle based on Image Comparison for Regression Testing of Web Applications」、Proceedings of 27th International Conference on Software Engineering and Knowledge Engineering (SEKE 2015)、ACM(USA)、pp.639-645 (July 2015).Akihiro Hori, Shingo Takada, Haruto Tanno and Morihide Oinuma, `` An Oracle based on Image Comparison for Regression Testing of Web Applications '', Proceedings of 27th International Conference on Software Engineering and Knowledge Engineering (SEKE 2015), ACM (USA), pp. 639-645 (July 2015). Sonal Mahajan and William G.J. Halfond、「Finding html presentation failures using image comparison techniques」、Proceedings of the 29th ACM/IEEE international conference on Automated software engineering (ASE 2014)、 ACM(USA)、pp.91-96 (2014).Sonal Mahajan and William G.J.Halfond, `` Finding html presentation failures using image comparison techniques '', Proceedings of the 29th ACM / IEEE international conference on Automated software engineering (ASE 2014), ACM (USA), pp.91-96 (2014).

しかしながら、非特許文献1に記載された技術では、入力としてWebページのソースコードであるHTML(HyperText Markup Language)のDOM(Document Object Model)ツリーの情報を必要とするため、テスト対象の実装技術に依存する。例えば、Andoroid(登録商標)のネイティブアプリ等の、Web標準仕様に基づかない環境では、当該技術を用いるのは困難である。   However, since the technique described in Non-Patent Document 1 requires information of a DOM (Document Object Model) tree of HTML (HyperText Markup Language) that is a source code of a Web page as input, Dependent. For example, it is difficult to use the technology in an environment that is not based on Web standard specifications, such as an Android (registered trademark) native application.

また、非特許文献2では、画像全体を画素の粒度で比較しているため、差異の有無は判るが、ユーザが、差異の有る箇所を特定するのが困難であった。また、比較される画像間において、予め解像度を揃えないと比較できないため、画面サイズが異なる画像同士を適切に比較できないという問題がある。   Further, in Non-Patent Document 2, since the entire image is compared with the pixel granularity, it can be determined whether there is a difference, but it is difficult for the user to specify a portion having a difference. In addition, there is a problem in that images having different screen sizes cannot be compared properly because the images to be compared cannot be compared unless the resolutions are set in advance.

本発明は、上記の点に鑑みてなされたものであって、画面間の差異の箇所を容易に特定可能とすることを目的とする。   The present invention has been made in view of the above points, and it is an object of the present invention to make it possible to easily identify the location of a difference between screens.

そこで上記課題を解決するため、画面差異抽出装置は、画面の第1の表示結果を示す第1の画像と前記画面について前記第1の表示結果とは異なる表示環境における第2の表示結果を示す第2の画像とを入力する入力部と、前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更部と、前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを比較して、前記部分領域の単位で、前記第1の表示結果と前記第2の表示結果との差異を抽出する抽出部と、を有する。

Therefore, in order to solve the above-described problem, the screen difference extraction device displays a first image indicating the first display result of the screen and a second display result in a display environment different from the first display result for the screen. An input unit for inputting a second image; and a size of one of the first image and the second image, a screen element of the first image, and a screen element of the second image A change unit that changes based on a ratio of sizes, and a partial region that is extracted from each of the first image and the second image after the size change, and that is extracted from the first image And an extraction unit that compares the partial area extracted from the second image and extracts a difference between the first display result and the second display result in units of the partial area. Have.

画面間の差異の箇所を容易に特定可能とすることができる。   It is possible to easily identify the location of the difference between the screens.

本発明の実施の形態における画面差異抽出装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the screen difference extraction apparatus in embodiment of this invention. 本発明の実施の形態における画面差異抽出装置の機能構成例を示す図である。It is a figure which shows the function structural example of the screen difference extraction apparatus in embodiment of this invention. 画面差異抽出装置が実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which a screen difference extraction apparatus performs. 本発明の実施の形態におけるデータ構造の定義例を示す図である。It is a figure which shows the example of a definition of the data structure in embodiment of this invention. フォルダ構成の一例を示す図である。It is a figure which shows an example of a folder structure. 正解画面及び比較画面のレイアウトの一例を示す図である。It is a figure which shows an example of the layout of a correct answer screen and a comparison screen. 結果レポートへのリンク画面の表示例を示す図である。It is a figure which shows the example of a display of the link screen to a result report. 結果レポートの表示例を示す図である。It is a figure which shows the example of a display of a result report. 画面画像の入力処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of the input process of a screen image. サイズ合わせの処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process procedure of size adjustment. 画面差異情報の抽出処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of the extraction process of screen difference information.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における画面差異抽出装置のハードウェア構成例を示す図である。図1の画面差異抽出装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a hardware configuration example of a screen difference extraction device according to an embodiment of the present invention. The screen difference extraction device 10 in FIG. 1 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, an input device 107, and the like that are mutually connected by a bus B. .

画面差異抽出装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program for realizing processing in the screen difference extraction apparatus 10 is provided by a recording medium 101 such as a CD-ROM. When the recording medium 101 storing the program is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って画面差異抽出装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等で構成され、様々な操作指示を入力させるために用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 realizes functions related to the screen difference extraction device 10 in accordance with a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a GUI (Graphical User Interface) or the like by a program. The input device 107 includes a keyboard and a mouse, and is used for inputting various operation instructions.

図2は、本発明の実施の形態における画面差異抽出装置の機能構成例を示す図である。図2において、画面差異抽出装置10は、画像入力部11、サイズ整合部12、画面差異抽出部13、及びレポート出力部14等を有する。これら各部は、画面差異抽出装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。   FIG. 2 is a diagram illustrating a functional configuration example of the screen difference extraction device according to the embodiment of the present invention. In FIG. 2, the screen difference extraction apparatus 10 includes an image input unit 11, a size matching unit 12, a screen difference extraction unit 13, a report output unit 14, and the like. Each of these units is realized by processing that one or more programs installed in the screen difference extraction apparatus 10 cause the CPU 104 to execute.

画像入力部11は、ユーザによって指定されたフォルダから、テスト対象の画面ごとに、正解画面と、1以上の比較画面とを読み込む。画像入力部11は、また、正解画面ごとに、比較画面とのペアを含むペア情報を生成する。なお、正解画面とは、作成者の意図通りに画面が表示される環境(以下、「正解環境」という。)において当該画面が表示された結果を示す画像データ(以下、「画面画像」という。)をいう。比較画面とは、正解環境とは異なる環境(以下、「比較環境」という。)において表示された結果を示す画面画像をいう。環境は、例えば、画面を表示した端末の機種、OS(Operating System)、及びブラウザ等の組み合わせによって区別される。更に、ブラウザの表示サイズ別に環境が区別されてもよい。環境は、画面の表示条件の一例であるともいえる。なお、正解画面及び比較画面は、例えば、画面キャプチャ等によって取得されてもよい。   The image input unit 11 reads the correct screen and one or more comparison screens for each screen to be tested from the folder specified by the user. The image input unit 11 also generates pair information including a pair with the comparison screen for each correct screen. The correct screen is referred to as image data (hereinafter referred to as “screen image”) indicating the result of displaying the screen in an environment where the screen is displayed as intended by the creator (hereinafter referred to as “correct environment”). ). The comparison screen is a screen image showing a result displayed in an environment different from the correct answer environment (hereinafter referred to as “comparison environment”). The environment is distinguished by, for example, a combination of a terminal model that displays a screen, an OS (Operating System), a browser, and the like. Furthermore, the environment may be distinguished according to the display size of the browser. It can be said that the environment is an example of a display condition of the screen. Note that the correct answer screen and the comparison screen may be acquired by screen capture or the like, for example.

なお、画面とは、プログラムがコンピュータに表示させる画面をいう。画面は、アプリケーションプログラム等の画面であってもよいし、HTML(HyperText Markup Language)等によって記述された画面であってもよい。   The screen refers to a screen that the program displays on the computer. The screen may be a screen such as an application program, or may be a screen described in HTML (HyperText Markup Language) or the like.

サイズ整合部12は、正解画面と比較画面とのペアごとに、当該ペアに係る2つの画面画像に含まれる画面要素間の解像度の差異を吸収するために、正解画面の画面要素と比較画面の画面要素とのサイズ比に基づいて一方の画面画像のサイズを変更する。画面要素とは、画面の描画要素をいい、例えば、画面のレイアウトを構成する単位である。なお、画面画像のサイズは、画素数(ピクセル数)によって表現される。サイズの変更は、解像度を変更することによって実現される。   For each pair of the correct screen and the comparison screen, the size matching unit 12 absorbs the difference in resolution between the screen elements included in the two screen images related to the pair, so that the screen elements of the correct screen and the comparison screen The size of one screen image is changed based on the size ratio with the screen element. A screen element refers to a drawing element of a screen, and is, for example, a unit constituting a screen layout. Note that the size of the screen image is expressed by the number of pixels (number of pixels). The size change is realized by changing the resolution.

画面差異抽出部13は、ペアごとに、当該ペアに係る2つの画面画像間の差異を抽出する。具体的には、画面差異抽出部13は、ペアに係る2つの画面画像のそれぞれについて、おおよそ画面要素の粒度で矩形領域を抽出し、矩形領域単位でのマッチングを行う。画面差異抽出部13は、マッチングの結果として、矩形領域の粒度で、消失、追加、移動等の差異を検出し、差異ごとに、当該差異の内容を示す画面差異情報を生成する。画面差異抽出部13は、ペア情報に対して、生成された画面差異情報を設定する。   The screen difference extraction unit 13 extracts, for each pair, a difference between two screen images related to the pair. Specifically, the screen difference extraction unit 13 extracts a rectangular area with approximately the granularity of the screen elements for each of the two screen images related to the pair, and performs matching in units of rectangular areas. As a result of matching, the screen difference extraction unit 13 detects differences such as disappearance, addition, and movement with the granularity of the rectangular area, and generates screen difference information indicating the contents of the differences for each difference. The screen difference extraction unit 13 sets the generated screen difference information for the pair information.

レポート出力部14は、画面差異抽出部13によって生成された画面差異情報を含む各ペア情報を結果レポートとして出力し、当該結果レポートをユーザに提示する。   The report output unit 14 outputs each pair information including the screen difference information generated by the screen difference extraction unit 13 as a result report, and presents the result report to the user.

以下、画面差異抽出装置10が実行する処理手順について説明する。図3は、画面差異抽出装置が実行する処理手順の一例を説明するためのフローチャートである。   Hereinafter, a processing procedure executed by the screen difference extraction device 10 will be described. FIG. 3 is a flowchart for explaining an example of a processing procedure executed by the screen difference extraction apparatus.

ステップS110において、画像入力部11は、ユーザによって指定されたフォルダ配下において、テスト対象の画面ごとに記憶されている、正解画面及び比較画面群を読み込み、正解画面ごとに、同一画面に係る比較画面とのペア情報のリストを生成する。   In step S110, the image input unit 11 reads the correct screen and the comparison screen group stored for each screen to be tested under the folder specified by the user, and the comparison screen related to the same screen for each correct screen. A list of pair information with is generated.

図4は、本発明の実施の形態におけるデータ構造の定義例を示す図である。図4では、本実施の形態において利用される各種のデータのデータ構造が、BNF(Backus-Naur Form)によって定義されている。   FIG. 4 is a diagram showing a definition example of the data structure in the embodiment of the present invention. In FIG. 4, the data structures of various data used in the present embodiment are defined by BNF (Backus-Naur Form).

ステップS110に関しては、「■入力データとなる画像群」における定義が関連する。ここでは、環境ルートフォルダが、1つの正解環境フォルダと、1以上の比較環境フォルダとを含むことが示されている。また、正解環境フォルダ及び各比較環境フォルダは、それぞれ画面画像(正解画面又は比較画面)を格納した画像ファイルを含むことが示されている。正解環境フォルダに含まれる画像ファイルは、正解画面を格納した画像ファイルであり、比較環境フォルダに含まれる画像ファイルは、比較画面を格納した画像ファイルである。   Regarding step S110, the definition in “■ Image group to be input data” is related. Here, it is shown that the environment root folder includes one correct environment folder and one or more comparison environment folders. Further, it is shown that each of the correct answer environment folder and each comparison environment folder includes an image file storing a screen image (correct answer screen or comparison screen). The image file included in the correct environment folder is an image file storing the correct answer screen, and the image file included in the comparison environment folder is an image file storing the comparison screen.

図5は、フォルダ構成の一例を示す図である。図5には、環境ルートフォルダの下に、1つの正解環境フォルダと、2つの比較環境フォルダ(比較環境フォルダ(a)及び(b))が含まれている例が示されている。正解環境フォルダ及び各比較環境フォルダのそれぞれには、画像ファイルX及び画像ファイルYが格納されている。画像ファイルXは、画面Xの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。画像ファイルYは、画面Yの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。但し、正解環境フォルダの下の画像ファイルX及びYは、画面X又は画面Yに関する正解画面を格納した画像ファイルである。比較環境フォルダ(a)の下の画像ファイルX及びYは、環境(a)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。比較環境フォルダ(b)の下の画像ファイルX及びYは、環境(b)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。なお、図5に示したフォルダ及びファイルは、例えば、補助記憶装置102に記憶されている。   FIG. 5 is a diagram illustrating an example of a folder configuration. FIG. 5 shows an example in which one correct environment folder and two comparison environment folders (comparison environment folders (a) and (b)) are included under the environment root folder. An image file X and an image file Y are stored in each of the correct answer environment folder and each comparison environment folder. The image file X is a file that stores a screen image generated by screen capture of the display result of the screen X. The image file Y is a file that stores a screen image generated by screen capture of the display result of the screen Y. However, the image files X and Y under the correct answer environment folder are image files that store the correct answer screens related to the screen X or the screen Y. The image files X and Y under the comparison environment folder (a) are image files storing a comparison screen indicating the display result of the screen X or the screen Y in the environment (a). The image files X and Y under the comparison environment folder (b) are image files storing a comparison screen showing the display result of the screen X or the screen Y in the environment (b). The folders and files shown in FIG. 5 are stored in the auxiliary storage device 102, for example.

図5の例によれば、ステップS110では、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルYに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルYに係る正解画面とのペアとの4つのペアに関してペア情報が生成される。   According to the example of FIG. 5, in step S110, a pair of a correct screen related to the image file X under the correct environment folder and a correct screen related to the image file X under the comparison environment folder (a), and the correct environment Comparison between the correct screen related to the image file Y under the folder and the correct screen related to the image file Y under the comparison environment folder (a), and the correct screen related to the image file X under the correct environment folder Pair with correct screen related to image file X under environment folder (b), correct screen related to image file Y under correct environment folder, and correct answer related to image file Y under comparison environment folder (b) Pair information is generated for the four pairs of the screen and the pair.

なお、ペア情報は、図4の「■出力データとなるレポート」の欄に記載されているように、正解画面情報、比較画面情報、及び画面差異リストを含む。正解画面情報とは、正解画面の画面情報である。比較画面情報とは、比較画面の画面情報である。画面情報は、当該画面の画像ファイルと、当該画像ファイルのパス名とを含む情報である。画面差異リストについては、後述される。   The pair information includes correct screen information, comparison screen information, and a screen difference list as described in the column “■ Report as output data” in FIG. Correct screen information is screen information of a correct screen. The comparison screen information is screen information of the comparison screen. The screen information is information including the image file of the screen and the path name of the image file. The screen difference list will be described later.

以下、便宜上、画面Xに関する正解画面を「正解画面X」という。また、画面Xに関する環境(a)における比較画面を「比較画面X(a)」という。また、画面Xに関する環境(a)における比較画面を「比較画面X(b)」という。   Hereinafter, for the sake of convenience, the correct answer screen related to the screen X is referred to as “correct answer screen X”. The comparison screen in the environment (a) related to the screen X is referred to as “comparison screen X (a)”. Further, the comparison screen in the environment (a) related to the screen X is referred to as “comparison screen X (b)”.

図6は、正解画面及び比較画面のレイアウトの一例を示す図である。図6には、画面Xに関して、正解画面X、比較画面X(a)、及び比較画面X(b)のそれぞれのレイアウトの一例が示されている。なお、各画面の大きさは、それぞれの画面のサイズ(解像度)の違いに基づく。このように、同一の画面X(例えば、同一のHTML(HyperText Markup Language)等)について、環境に応じてサイズやレイアウト等に違いが生じうる。   FIG. 6 is a diagram illustrating an example of the layout of the correct answer screen and the comparison screen. FIG. 6 shows an example of the layout of the correct screen X, the comparison screen X (a), and the comparison screen X (b) with respect to the screen X. The size of each screen is based on the difference in the size (resolution) of each screen. As described above, the same screen X (for example, the same HTML (HyperText Markup Language) or the like) may have a difference in size or layout depending on the environment.

続いて、画像入力部11は、結果レポート用の空のデータ領域を生成する(ステップS120)。   Subsequently, the image input unit 11 generates an empty data area for the result report (step S120).

続くステップS130〜S160は、ステップS110において生成されたペア情報ごとに実行される。以下、処理対象とされているペア情報を、「対象ペア情報」という。   Subsequent steps S130 to S160 are executed for each pair information generated in step S110. Hereinafter, the pair information to be processed is referred to as “target pair information”.

ステップS130において、サイズ整合部12は、対象ペア情報に係る2つの画面画像のうちの一方の画面画像のサイズ(解像度)を変更することで、2つの画面画像の画面要素のサイズを合わせる。例えば、図6において、正解画面Xと比較画面X(a)とのサイズは異なる。したがって、この二つの画面画像のペアについては、いずれか一方のサイズが変更され、画面要素のレベルにおいて双方の画面画像のサイズが一致するように調整される。   In step S130, the size matching unit 12 matches the sizes of the screen elements of the two screen images by changing the size (resolution) of one of the two screen images related to the target pair information. For example, in FIG. 6, the correct screen X and the comparison screen X (a) are different in size. Accordingly, the size of either one of the two screen image pairs is changed and adjusted so that the sizes of both screen images coincide with each other at the screen element level.

続いて、画面差異抽出部13は、対象ペア情報に係る2つの画面画像からの矩形領域の抽出と、矩形領域単位での差異の特定を行う(ステップS140)。その結果、対象ペア情報に対して、特定された差異を示す画面差異情報のリストである画面差異リストが設定される。例えば、図6に示される正解画面X及び比較画面X(a)であれば、「タイトル」、「広告」、「文章」、「写真」、「リンク」のそれぞれの矩形領域が抽出される。また、比較画面(b)であれば、「タイトル」、「文章」、「写真」、「リンク」、「仕様に存在しないリンク」のそれぞれの矩形領域が抽出される。以下、抽出された矩形領域を、「画面要素矩形」という。   Subsequently, the screen difference extraction unit 13 extracts a rectangular area from two screen images related to the target pair information and specifies a difference in units of the rectangular area (step S140). As a result, a screen difference list which is a list of screen difference information indicating the specified differences is set for the target pair information. For example, in the case of the correct answer screen X and the comparison screen X (a) shown in FIG. 6, the rectangular areas of “Title”, “Advertisement”, “Sentence”, “Photo”, and “Link” are extracted. In the comparison screen (b), the rectangular areas of “title”, “sentence”, “photograph”, “link”, and “link that does not exist in the specification” are extracted. Hereinafter, the extracted rectangular area is referred to as a “screen element rectangle”.

なお、後述されるように、画面要素矩形の抽出は、画像を解析することによって行われるため、ステップS140において抽出される画面要素矩形は、必ずしも、人間から見て意味の有る単位での画面要素矩形であるとは限らない。例えば、「タイトル」の領域が複数の画面要素矩形に分割されて抽出される可能性も有る。また、「タイトル」及び「広告」の領域に跨る画面要素矩形が抽出される可能性も有る。   As will be described later, since the extraction of the screen element rectangle is performed by analyzing the image, the screen element rectangle extracted in step S140 is not necessarily a screen element in a meaningful unit as viewed from a human. It is not necessarily rectangular. For example, the “title” area may be divided into a plurality of screen element rectangles and extracted. In addition, there is a possibility that a screen element rectangle extending over the “title” and “advertisement” areas is extracted.

続いて、レポート出力部14は、結果レポートに対して、対象ペア情報を追加する(ステップS160)。   Subsequently, the report output unit 14 adds target pair information to the result report (step S160).

ステップS130〜S160が、全てのペアについて実行されると、レポート出力部14は、結果レポートを表示装置106に出力する(ステップS170)。   When Steps S130 to S160 are executed for all pairs, the report output unit 14 outputs a result report to the display device 106 (Step S170).

図7は、結果レポートへのリンク画面の表示例を示す図である。図7に示されるように、リンク画面は、画面の種別(画面X、画面Y)と、環境の種別(環境(a)、環境(b))との組み合わせごとに、結果レポートへのリンクを含む。いずれかのリンクがユーザによって選択されると、図8に示されるような結果レポートが表示される。   FIG. 7 is a diagram illustrating a display example of a link screen to a result report. As shown in FIG. 7, the link screen displays a link to the result report for each combination of screen type (screen X, screen Y) and environment type (environment (a), environment (b)). Including. When any link is selected by the user, a result report as shown in FIG. 8 is displayed.

図8は、結果レポートの表示例を示す図である。図8には、結果レポートR1及びR2の二つの結果レポートの表示例が示されている。   FIG. 8 is a diagram illustrating a display example of a result report. FIG. 8 shows a display example of two result reports R1 and R2.

結果レポートR1は、画面Xと環境(a)との組み合わせ(正解画面Xと比較画面X(a)とのペア)に対する結果レポートである。結果レポートR2は、画面Xと環境(b)との組み合わせ(正解画面Xと比較画面X(b)とのペア)に対する結果レポートである。   The result report R1 is a result report for a combination of the screen X and the environment (a) (a pair of the correct screen X and the comparison screen X (a)). The result report R2 is a result report for a combination of the screen X and the environment (b) (a pair of the correct answer screen X and the comparison screen X (b)).

各結果レポートには、正解画面及び比較画面と、2つの画面画像の差異の一覧を示すテーブルとが含まれる。当該テーブルには、差異ごとに、項番、差異種別、及び変異値が表示される。項番は、各差異に対して付与された番号であり、正解画面及び比較画面において差異に対応する画面要素矩形に対して、当該差異に係る項番が付されている。差異種別は、差異の種別であり、その値は、「差異なし」、「X軸方向移動」、「Y軸方向移動」、「拡縮」、「消失」、又は「追加」である。変異値は、差異種別に係る差異の大きさを示す値である。   Each result report includes a correct answer screen, a comparison screen, and a table showing a list of differences between the two screen images. In the table, for each difference, the item number, the difference type, and the mutation value are displayed. The item number is a number assigned to each difference, and the item number related to the difference is given to the screen element rectangle corresponding to the difference on the correct answer screen and the comparison screen. The difference type is a type of difference, and the value is “no difference”, “movement in the X-axis direction”, “movement in the Y-axis direction”, “enlargement / reduction”, “disappearance”, or “addition”. The variation value is a value indicating the magnitude of the difference related to the difference type.

続いて、図3のステップS110の詳細について説明する。図9は、画面画像の入力処理の処理手順の一例を説明するためのフローチャートである。   Next, details of step S110 in FIG. 3 will be described. FIG. 9 is a flowchart for explaining an example of the processing procedure of the screen image input processing.

ステップS210において、画像入力部11は、ユーザに指定された環境ルートフォルダを読み込む。続いて、画像入力部11は、環境ルートフォルダの下の正解環境フォルダを取得する(ステップS220)。例えば、正解環境フォルダのフォルダ名が予め決められており、当該フォルダ名に係るフォルダが取得されてもよい。   In step S210, the image input unit 11 reads the environment root folder designated by the user. Subsequently, the image input unit 11 acquires a correct answer environment folder under the environment root folder (step S220). For example, the folder name of the correct answer environment folder may be determined in advance, and the folder related to the folder name may be acquired.

続いて、画像入力部11は、これから生成されるペア情報を格納するための空のリスト(以下、「ペアリスト」という。)を生成する(ステップS230)。続いて、画像入力部11は、正解環境フォルダに格納されている正解画面ごとに、ステップS240以降を実行する。ステップS240以降において処理対象とされている正解画面を、「対象正解画面」という。   Subsequently, the image input unit 11 generates an empty list (hereinafter referred to as “pair list”) for storing pair information to be generated (step S230). Subsequently, the image input unit 11 executes step S240 and subsequent steps for each correct answer screen stored in the correct answer environment folder. The correct answer screen that is the processing target after step S240 is referred to as a “target correct answer screen”.

ステップS240において、画像入力部11は、環境ルートフォルダの下に有る全ての比較環境フォルダ(以下、「比較環境フォルダ群」という。)を取得する。   In step S240, the image input unit 11 acquires all comparison environment folders (hereinafter referred to as “comparison environment folder group”) under the environment root folder.

続いて、画像入力部11は、取得された比較環境フォルダごとに、ステップS250及びS270を実行する。ステップS250及びS270において処理対象とされている比較環境フォルダを、「対象比較環境フォルダ」という。   Subsequently, the image input unit 11 executes steps S250 and S270 for each acquired comparison environment folder. The comparison environment folder to be processed in steps S250 and S270 is referred to as “target comparison environment folder”.

ステップS250において、画像入力部11は、対象比較環境フォルダ内から対象正解画面に対応する比較画面を取得し、対象正解画面と当該比較画面とに対するペア情報を生成する。対象正解画面に対応する比較画面とは、対象正解画面が対応する画面と同じ画面に対応する比較画面をいう。例えば、画面が共通する画面画像は、同じファイル名のファイルに格納されていてもよい。そうすることで、正解画面に対応する比較画面を容易に特定することができる。   In step S250, the image input unit 11 acquires a comparison screen corresponding to the target correct answer screen from the target comparison environment folder, and generates pair information for the target correct answer screen and the comparison screen. The comparison screen corresponding to the target correct answer screen is a comparison screen corresponding to the same screen as the screen corresponding to the target correct answer screen. For example, screen images with common screens may be stored in files with the same file name. By doing so, the comparison screen corresponding to the correct answer screen can be easily specified.

続いて、画像入力部11は、生成されたペア情報をペアリストに追加する(ステップS270)。   Subsequently, the image input unit 11 adds the generated pair information to the pair list (step S270).

続いて、図3のステップS130の詳細について説明する。図10は、サイズ合わせの処理手順の一例を説明するためのフローチャートである。   Next, details of step S130 in FIG. 3 will be described. FIG. 10 is a flowchart for explaining an example of the size adjustment processing procedure.

ステップS310において、サイズ整合部12は、自身の作業用のメモリ領域に対象ペア情報を読み込む。   In step S310, the size matching unit 12 reads the target pair information into its working memory area.

続いて、サイズ整合部12は、対象ペア情報に係る正解画面及び比較画面のそれぞれから特徴点を抽出し、正解画面→比較画面の方向で特徴点マッチングを行い、正解画面と比較画面との間で対応する特徴点のペアの集合である特徴点ペア群を生成する(ステップS320)。特徴点マッチングは、例えば、Harrisの方法、Shi−Tomashiの方法等の公知のアルゴリズムを用いて行うことができる。   Subsequently, the size matching unit 12 extracts a feature point from each of the correct screen and the comparison screen related to the target pair information, performs feature point matching in the direction of the correct screen → the comparison screen, and between the correct screen and the comparison screen. A feature point pair group that is a set of corresponding feature point pairs is generated (step S320). The feature point matching can be performed using a known algorithm such as the Harris method or the Shi-Toshi method.

なお、1つの特徴点ペアのデータ構造は、図4の「■中間データ」の欄に記載されている通りである。すなわち、特徴点ペアは、正解画面における特徴点の座標点と、比較画面において当該特徴点に対応する特徴点の座標点とから構成される。   The data structure of one feature point pair is as described in the column “■ Intermediate data” in FIG. That is, the feature point pair is composed of the coordinate point of the feature point on the correct answer screen and the coordinate point of the feature point corresponding to the feature point on the comparison screen.

続いて、サイズ整合部12は、特徴点ペア群の中から、互いに十分離れた距離にある2つの特徴点ペアを選択する(ステップS330)。例えば、2つの特徴点ペアの全ての組み合わせの中で、正解画面における距離及び比較画面における距離の合計が最大である組み合わせに係る2つの特徴点ペアが選択されてもよい。又は、正解画面における距離及び比較画面における距離の合計が閾値以上である組み合わせに係る2つの特徴点ペアが選択されてもよい。当該閾値は、正解画面又は比較画面の横幅のサイズに基づいて求められてもよいし、他の方法によって求められてもよい。   Subsequently, the size matching unit 12 selects two feature point pairs that are sufficiently separated from each other from the feature point pair group (step S330). For example, among all combinations of two feature point pairs, two feature point pairs related to the combination having the maximum sum of the distance on the correct screen and the distance on the comparison screen may be selected. Alternatively, two feature point pairs related to a combination in which the sum of the distance on the correct answer screen and the distance on the comparison screen is greater than or equal to the threshold may be selected. The threshold value may be obtained based on the width size of the correct answer screen or the comparison screen, or may be obtained by another method.

続いて、サイズ整合部12は、選択された2つの特徴点ペアに基づいて、正解画面の画面要素矩形と比較画面の画面要素矩形とのサイズ比を算出する(ステップS340)。具体的には、一方の特徴点ペア(以下、「特徴点ペア1」という。)の正解画面における座標点と、他方の特徴点ペア(以下、「特徴点ペア2」という。)の正解画面における座標点の距離を算出し、正解画面内距離とする。また、特徴点ペア1の比較画面における座標点と、特徴点ペア2の比較画面における座標点の距離を算出し、比較画面内距離とする。そして、正解画面内距離/比較画面内距離を計算し、これをサイズ比とする。すなわち、サイズ比は、正解画面全体のサイズと、比較画面全体のサイズとの比であるとは限らない。本実施の形態では、画面要素矩形の単位で比較が行われるため、正解画面と比較画面との間で、画面要素矩形のサイズを合わせるのが重要だからである。   Subsequently, the size matching unit 12 calculates a size ratio between the screen element rectangle of the correct answer screen and the screen element rectangle of the comparison screen based on the two selected feature point pairs (step S340). Specifically, the coordinate point on the correct screen of one feature point pair (hereinafter referred to as “feature point pair 1”) and the correct screen of the other feature point pair (hereinafter referred to as “feature point pair 2”). The distance of the coordinate point at is calculated and set as the correct screen distance. Further, the distance between the coordinate point on the comparison screen of the feature point pair 1 and the coordinate point on the comparison screen of the feature point pair 2 is calculated and set as the comparison screen distance. Then, the distance within the correct screen / the distance within the comparison screen is calculated, and this is used as the size ratio. That is, the size ratio is not necessarily the ratio between the size of the entire correct screen and the size of the entire comparison screen. In the present embodiment, since the comparison is performed in units of screen element rectangles, it is important to match the size of the screen element rectangles between the correct answer screen and the comparison screen.

なお、サイズ比は、上記以外の方法で算出されてもよい。例えば、正解画面の横幅/比較画面の横幅が、サイズ比として算出されてもよい。又は、正解画面の画面要素矩形間の距離/比較画面の画面要素矩形間の距離が、サイズ比として算出されてもよい。また、正解画面の横幅/比較環境における画面の横幅が、サイズ比として算出されてもよい。ここで、比較環境における画面の横幅とは、比較画面に対応した環境における端末のディスプレイの横幅であり、例えば、予め環境毎に補助記憶装置102等に記憶されていてもよい。このような算出方法は、画面がディスプレイの横幅に合わせて表示される環境に対して有効である。   The size ratio may be calculated by a method other than the above. For example, the width of the correct screen / the width of the comparison screen may be calculated as the size ratio. Alternatively, the distance between screen element rectangles on the correct screen / the distance between screen element rectangles on the comparison screen may be calculated as the size ratio. Also, the width of the correct screen / the width of the screen in the comparison environment may be calculated as the size ratio. Here, the width of the screen in the comparison environment is the width of the display of the terminal in the environment corresponding to the comparison screen, and may be stored in advance in the auxiliary storage device 102 or the like for each environment, for example. Such a calculation method is effective for an environment where the screen is displayed in accordance with the horizontal width of the display.

続いて、サイズ整合部12は、サイズ比に基づいて、比較画面のサイズを変更する(ステップS350)。具体的には、比較画面の縦及び横幅のサイズ(画素数)が、それぞれサイズ比を乗じることによって得られる値となるように、比較画面について解像度変換が行われる。なお、対象ペア情報において、サイズ変更前の比較画面は、サイズの変更後の比較画面によって置き換えられる。なお、正解画面のサイズが変更されてもよい。   Subsequently, the size matching unit 12 changes the size of the comparison screen based on the size ratio (step S350). Specifically, resolution conversion is performed on the comparison screen so that the vertical and horizontal sizes (number of pixels) of the comparison screen are values obtained by multiplying the size ratios, respectively. In the target pair information, the comparison screen before the size change is replaced with the comparison screen after the size change. Note that the size of the correct answer screen may be changed.

続いて、図3のステップS140の詳細について説明する。図11は、画面差異情報の抽出処理の処理手順の一例を説明するためのフローチャートである。   Next, details of step S140 in FIG. 3 will be described. FIG. 11 is a flowchart for explaining an example of a processing procedure of screen difference information extraction processing.

ステップS410において、画面差異抽出部13は、自身の作業用のメモリ領域に対象ペア情報を読み込む。   In step S410, the screen difference extraction unit 13 reads the target pair information into its own working memory area.

続いて、画面差異抽出部13は、画面差異リストを格納するための空のデータ領域を生成する(ステップS415)。画面差異リストは、図4の「出力データとなるレポート」の欄に記載されているように、0以上の画面差異情報によって構成される。   Subsequently, the screen difference extraction unit 13 generates an empty data area for storing the screen difference list (step S415). The screen difference list is composed of zero or more pieces of screen difference information as described in the column “Report as output data” in FIG.

続いて、画面差異抽出部13は、図10のステップS320と同様の方法によって、対象ペア情報に係る正解画面及び比較画面から特徴点ペア群を抽出する(ステップS420)。   Subsequently, the screen difference extraction unit 13 extracts a feature point pair group from the correct screen and the comparison screen related to the target pair information by the same method as in step S320 of FIG. 10 (step S420).

続いて、画面差異抽出部13は、対象ペア情報に係る正解画面から画面要素矩形(以下、「正解画面要素矩形」という。)を抽出し、抽出された正解画面要素矩形がリスト化された画面要素矩形リストを生成する(ステップS425)。画面要素矩形は、図4の「■出力データとなるレポート」の欄に記載されているように、当該矩形の左上座標と右上座標とによって表現される。なお、画面要素矩形の抽出は、公知技術を組み合わせることで実現可能である。例えば、画像に対して、グレースケール化、Canny処理、膨張処理、輪郭抽出、矩形変換(輪郭の外接矩形を求め、そこから矩形を抽出)といった手順を実行することで、画面要素矩形が抽出されてもよい。   Subsequently, the screen difference extraction unit 13 extracts a screen element rectangle (hereinafter referred to as “correct answer screen element rectangle”) from the correct answer screen related to the target pair information, and a screen in which the extracted correct answer screen element rectangles are listed. An element rectangle list is generated (step S425). The screen element rectangle is represented by the upper left coordinates and upper right coordinates of the rectangle as described in the column “■ Report as output data” in FIG. The extraction of the screen element rectangle can be realized by combining known techniques. For example, a screen element rectangle is extracted by executing procedures such as gray scale, canny processing, expansion processing, contour extraction, and rectangle conversion (obtaining a circumscribed rectangle of the contour and extracting the rectangle therefrom) on the image. May be.

なお、画面要素矩形は、必ずしも「矩形」でなくてもよい。画面を構成する部分領域が抽出されればよい。したがって、L字型、凸型、凹型、又はその他の多角形の形状の部分領域が画面要素矩形として抽出されてもよい。   Note that the screen element rectangle is not necessarily a “rectangle”. It suffices if the partial areas constituting the screen are extracted. Therefore, L-shaped, convex, concave, or other polygonal partial areas may be extracted as screen element rectangles.

続いて、画面差異抽出部13は、生成された画面要素矩形リストに含まれている正解画面要素矩形ごとに、ステップS430〜S475を実行する。ステップS430〜S475において処理対象とされている正解画面要素矩形を、「対象正解画面要素矩形」という。   Subsequently, the screen difference extraction unit 13 executes Steps S430 to S475 for each correct screen element rectangle included in the generated screen element rectangle list. The correct screen element rectangle to be processed in steps S430 to S475 is referred to as “target correct screen element rectangle”.

ステップS430において、画面差異抽出部13は、対象正解画面要素矩形に係る特徴点群に対応する特徴点が、対象ペア情報に係る比較画面(以下、「対象比較画面」という。)に2以上存在するか否かを判定する。対象正解画面要素矩形に係る特徴点群とは、例えば、対象正解画面要素矩形の範囲に含まれる特徴点をいう。但し、対象正解画面要素矩形の周囲から外側において所定の範囲内に含まれる特徴点が、対象正解画面要素矩形に係る特徴点群に含まれてもよい。また、対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在するか否かは、対象正解画面要素矩形に係る特徴点群を含む特徴点ペア(以下、「対象特徴点ペア」という。)が、ステップS420において生成された特徴点ペア群に2以上含まれているか否かに基づいて判定することができる。   In step S430, the screen difference extraction unit 13 has two or more feature points corresponding to the feature point group related to the target correct answer screen element rectangle in the comparison screen (hereinafter referred to as “target comparison screen”) related to the target pair information. It is determined whether or not to do. The feature point group related to the target correct screen element rectangle refers to, for example, feature points included in the range of the target correct screen element rectangle. However, feature points included in a predetermined range outside from the periphery of the target correct screen element rectangle may be included in the feature point group related to the target correct screen element rectangle. Further, whether or not there are two or more feature points corresponding to the feature point group related to the target correct answer screen element rectangle on the target comparison screen is a feature point pair including the feature point group related to the target correct answer screen element rectangle (hereinafter, “ It can be determined based on whether or not two or more “feature feature point pairs” are included in the feature point pair group generated in step S420.

対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在する場合(ステップS430でYes)、画面差異抽出部13は、2以上存在する対象特徴点ペアの中から、互いに十分離れた距離にある2つの特徴点ペアを選択して、図10のステップS340と同様の方法で、対象正解画面要素矩形と、対象比較画面において対象正解画面要素矩形に対応する画面要素矩形との拡縮比を算出する(ステップS435)。   When two or more feature points corresponding to the feature point group related to the target correct answer screen element rectangle exist on the target comparison screen (Yes in step S430), the screen difference extraction unit 13 selects from two or more target feature point pairs that exist. Then, two feature point pairs that are sufficiently apart from each other are selected, and the target correct screen element rectangle and the screen element corresponding to the target correct screen element rectangle in the target comparison screen are selected in the same manner as in step S340 of FIG. An expansion / contraction ratio with the rectangle is calculated (step S435).

続いて、画面差異抽出部13は、対象正解画面要素矩形に対応する画面要素矩形を比較画面から探索し、該当する画面要素矩形(以下、「対象比較画面要素矩形」という。)が探索された場合には、対象正解画面要素矩形と対象比較画面要素矩形とを画面差異情報に設定する(ステップS440)。具体的には、画面差異抽出部13は、対象正解画面要素矩形と、対象特徴点ペアにおいて正解画面に係る特徴点との位置関係(例えば、対象正解画面要素矩形の各頂点からのベクトル)を特定し、対象特徴点ペアにおいて比較画面に係る特徴点と当該位置関係とに基づいて、比較画面から対象正解画面要素矩形の候補矩形を切り出す。画面差異抽出部13は、対象正解画面要素矩形と候補矩形との各画素値を比較し、画素値の一致率(画素単位の一致率)が所定値(例えば、100%又は95%等)以上であれば、当該候補矩形を対象比較画面要素矩形とする。但し、拡縮比が1でない場合は、候補矩形のサイズを拡縮比に基づいて拡大又は縮小して、候補矩形のサイズを対象正解画面要素矩形に一致させた上で、画素値の比較が行われる。   Subsequently, the screen difference extraction unit 13 searches the comparison screen for a screen element rectangle corresponding to the target correct screen element rectangle, and the corresponding screen element rectangle (hereinafter referred to as “target comparison screen element rectangle”) is searched. In this case, the target correct screen element rectangle and the target comparison screen element rectangle are set in the screen difference information (step S440). Specifically, the screen difference extraction unit 13 calculates the positional relationship between the target correct screen element rectangle and the feature points related to the correct screen in the target feature point pair (for example, a vector from each vertex of the target correct screen element rectangle). A candidate rectangle of the target correct screen element rectangle is cut out from the comparison screen based on the feature point and the positional relationship related to the comparison screen in the target feature point pair. The screen difference extraction unit 13 compares the pixel values of the target correct screen element rectangle and the candidate rectangle, and the pixel value matching rate (pixel unit matching rate) is equal to or greater than a predetermined value (for example, 100% or 95%). If so, the candidate rectangle is set as a target comparison screen element rectangle. However, when the enlargement / reduction ratio is not 1, the size of the candidate rectangle is enlarged or reduced based on the enlargement / reduction ratio, and the pixel value is compared after the size of the candidate rectangle matches the target correct screen element rectangle. .

なお、対象比較画面要素矩形の切り出しは、対象正解画面要素矩形と対象比較画面とのパターンマッチングによって行われてもよい。例えば、拡縮比に基づいて対象比較画面のサイズを変更した後、対象正解画面要素矩形と同じサイズの矩形領域であって、対象正解画面要素矩形と全ての画素(又は、所定の割合(例えば、95%)以上の画素)に関して画素値が一致する矩形領域が探索されることで対象比較画面要素矩形が切り出されてもよい。   The target comparison screen element rectangle may be cut out by pattern matching between the target correct screen element rectangle and the target comparison screen. For example, after changing the size of the target comparison screen based on the enlargement / reduction ratio, the target correct screen element rectangle is a rectangular area having the same size as the target correct screen element rectangle and all pixels (or a predetermined ratio (for example, The target comparison screen element rectangle may be cut out by searching for a rectangular region with a matching pixel value with respect to (95%) or more pixels).

画面差異抽出部13は、画面差異情報を生成し、対象正解画面要素矩形を当該画面差異情報(以下、「対象画面差異情報」という。)に設定する。画面差異情報は、図4の「■出力データとなるレポート」の欄に記載されているように、項番、差異種別、0以上の変異値、0以上の正解画面要素矩形、及び0以上の比較画面要素矩形を含む情報である。正解画面要素矩形と比較画面要素矩形とは、それぞれの左上頂点及び右下頂点の座標によって表現される。   The screen difference extraction unit 13 generates screen difference information, and sets the target correct screen element rectangle as the screen difference information (hereinafter referred to as “target screen difference information”). As shown in the column “■ Report as output data” in FIG. 4, the screen difference information includes an item number, a difference type, zero or more variation values, zero or more correct screen element rectangles, and zero or more Information including a comparison screen element rectangle. The correct screen element rectangle and the comparison screen element rectangle are expressed by the coordinates of the upper left vertex and the lower right vertex, respectively.

画面差異抽出部13は、また、対象比較画面要素矩形が探索された場合には、対象比較画面要素矩形を対象画面差異情報に設定する。対象比較画面要素矩形が探索されなかった場合、対象画面差異情報には、対象比較画面要素矩形は設定されない。   When the target comparison screen element rectangle is searched, the screen difference extraction unit 13 sets the target comparison screen element rectangle in the target screen difference information. When the target comparison screen element rectangle is not searched, the target comparison screen element rectangle is not set in the target screen difference information.

なお、対象画面差異情報の差異種別には、「差異なし」が初期値として設定される。   Note that “no difference” is set as the initial value for the difference type of the target screen difference information.

続いて、対象比較画面要素矩形が存在した場合(ステップS445でYes)、画面差異抽出部13は、対象正解画面要素矩形と対象比較画面要素矩形との位置が異なるか否かを判定する(S450)。当該位置の異同は、対象正解画面要素矩形と対象比較画面要素矩形とのそれぞれの左上頂点の座標が同じであるか否かに基づいて判定されてもよい。   Subsequently, when the target comparison screen element rectangle exists (Yes in step S445), the screen difference extraction unit 13 determines whether or not the positions of the target correct screen element rectangle and the target comparison screen element rectangle are different (S450). ). The difference between the positions may be determined based on whether or not the coordinates of the upper left vertices of the target correct screen element rectangle and the target comparison screen element rectangle are the same.

対象正解画面要素矩形と対象比較画面要素矩形との位置が異なる場合(ステップS450でYes)、画面差異抽出部13は、対象画面差異情報の差異種別に「X軸方向移動」又は「Y軸方向移動」を設定し、対象画面差異情報の変異値に当該位置の差分(移動量)を設定する(ステップS455)。当該位置の差分は、例えば、対象正解画面要素矩形と対象比較画面要素矩形との左上頂点のX座標又はY座標の差分の絶対値として算出される。具体的には、X軸方向の差分が0でない場合、対象画面差異情報の差異種別に「X軸方向移動」が設定され、対象画面差異情報の変異値に、X軸方向の移動量が設定される。Y軸方向の差分が0でない場合、対象画面差異情報の差異種別に「Y軸方向移動」が設定され、対象画面差異情報の変異値に、Y軸方向の移動量が設定される。X軸方向の差分及びY軸方向の差分の双方が0でない場合、対象画面差異情報の複製が生成され、一方の対象画面差異情報の差異種別、変異値に、「X軸方向移動」、X軸方向の移動量が設定され、他方の対象画面差異情報の差異種別、変異値に、「Y軸方向移動」、Y軸方向の移動量が設定される。   When the positions of the target correct screen element rectangle and the target comparison screen element rectangle are different (Yes in step S450), the screen difference extraction unit 13 selects “X-axis direction movement” or “Y-axis direction” as the difference type of the target screen difference information. “Move” is set, and the difference (movement amount) of the position is set as the variation value of the target screen difference information (step S455). The difference between the positions is calculated as, for example, the absolute value of the difference between the X coordinate or the Y coordinate of the upper left vertex between the target correct screen element rectangle and the target comparison screen element rectangle. Specifically, when the difference in the X-axis direction is not 0, “X-axis direction movement” is set as the difference type of the target screen difference information, and the movement amount in the X-axis direction is set as the variation value of the target screen difference information. Is done. When the difference in the Y-axis direction is not 0, “Y-axis direction movement” is set as the difference type of the target screen difference information, and the movement amount in the Y-axis direction is set as the variation value of the target screen difference information. If both the difference in the X-axis direction and the difference in the Y-axis direction are not 0, a copy of the target screen difference information is generated, and the difference type and the mutation value of one target screen difference information are set to “X-axis direction movement”, X The movement amount in the axial direction is set, and “movement in the Y-axis direction” and the movement amount in the Y-axis direction are set in the difference type and the variation value of the other target screen difference information.

続いて、画面差異抽出部13は、ステップS435において算出した拡縮比が1であるか否かを判定する(ステップS460)。拡縮比が1でない場合(ステップS460でNo)、画面差異抽出部13は、対象画面差異情報の差異種別に「拡縮」を設定し、対象画面差異情報の変異値に拡縮比を設定する(ステップS465)。なお、対象画面差異情報に対してステップS455において値が設定されている場合、画面差異抽出部13は、対象画面差異情報の複製を生成し、当該複製の差異種別、変異値に対して、「拡縮」、拡縮比を設定する。   Subsequently, the screen difference extraction unit 13 determines whether or not the enlargement / reduction ratio calculated in step S435 is 1 (step S460). If the enlargement / reduction ratio is not 1 (No in step S460), the screen difference extraction unit 13 sets “enlargement / reduction” as the difference type of the target screen difference information, and sets the enlargement / reduction ratio as the mutation value of the target screen difference information (step). S465). When a value is set in step S455 for the target screen difference information, the screen difference extraction unit 13 generates a copy of the target screen difference information, and for the difference type and mutation value of the copy, “ Set the scaling ratio.

一方、対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在しない場合(ステップS430でNo)、又は対象比較画面要素矩形が存在しない場合(ステップS445でNo)、画面差異抽出部13は、対象画面差異情報の差異種別に「消失」を設定する(ステップS470)。   On the other hand, when two or more feature points corresponding to the feature point group related to the target correct screen element rectangle do not exist in the target comparison screen (No in step S430), or when no target comparison screen element rectangle exists (No in step S445). The screen difference extraction unit 13 sets “disappear” as the difference type of the target screen difference information (step S470).

ステップS460、S465、又はS470に続いて、画面差異抽出部13は、生成された対象画面差異情報を、画面差異リストに追加する(ステップS475)。なお、複数の対象画面差異情報が生成された場合には、複数の対象画面差異情報が画面差異リストに追加される。また、画面差異抽出部13は、画面差異リストに対して対象画面差異情報を追加する際に、画面差異リストにおける対象画面差異情報の順番に対応した数値を、対象画面差異情報の項番に設定する。   Subsequent to step S460, S465, or S470, the screen difference extraction unit 13 adds the generated target screen difference information to the screen difference list (step S475). When a plurality of target screen difference information is generated, the plurality of target screen difference information is added to the screen difference list. Further, when adding the target screen difference information to the screen difference list, the screen difference extraction unit 13 sets a numerical value corresponding to the order of the target screen difference information in the screen difference list as the item number of the target screen difference information. To do.

ステップS430〜S475が、画面要素矩形リストに含まれている全ての正解画面要素矩形について実行されると、画面差異抽出部13は、ステップS420〜S475を、正解画面と比較画面とを入れ替えて実行する(ステップS480)。なお、この場合、ステップS470では、対象画面差異情報の差異種別に対して「追加」が設定される。比較画面→正解画面の方向でマッチングしている場合において、ステップS470が実行されるときには、比較画面に存在する画面要素矩形が正解画面に存在しないことになるからである。   When steps S430 to S475 are executed for all correct screen element rectangles included in the screen element rectangle list, the screen difference extraction unit 13 executes steps S420 to S475 by exchanging the correct screen and the comparison screen. (Step S480). In this case, in step S470, “addition” is set for the difference type of the target screen difference information. This is because, when matching is performed in the direction of the comparison screen → the correct answer screen, when step S470 is executed, the screen element rectangle existing on the comparison screen does not exist on the correct answer screen.

続いて、画面差異抽出部13は、画面差異リストを対象ペア情報に設定する(ステップS485)。   Subsequently, the screen difference extraction unit 13 sets the screen difference list as target pair information (step S485).

このように生成された対象ペア情報に基づいて、図7に示したリンク画面及び図8に示した結果レポートが出力される。   Based on the target pair information generated in this way, the link screen shown in FIG. 7 and the result report shown in FIG. 8 are output.

上述したように、本実施の形態によれば、n個のテスト環境においてテストを実行した際に、1個のテスト環境におけるテスト結果の画面画像を正解画面とし、他のn−1個の環境におけるテスト結果の画面画像(比較画面)を正解画面と比較することで、差異が自動的に抽出される。この際、差異の抽出は、画面要素矩形単位で行われる。したがって、画面レイアウト崩れを容易に検出することができ、画面間の差異の箇所を容易に特定可能とすることができる。その結果、ユーザは、比較画面の合否判定を効率的に行うことができる。   As described above, according to the present embodiment, when a test is executed in n test environments, the screen image of the test result in one test environment is set as a correct answer screen, and the other n-1 environments. The difference is automatically extracted by comparing the screen image (comparison screen) of the test result with the correct screen. At this time, the difference is extracted in units of screen element rectangles. Therefore, it is possible to easily detect the screen layout collapse and to easily identify the differences between the screens. As a result, the user can efficiently perform pass / fail determination on the comparison screen.

また、本実施の形態では、正解画面の画面要素と比較画面の画面要素とのサイズ比に基づいて、一方の画像サイズが変更された上で差異の抽出が行われる。その結果、正解画面と比較画面との解像度が異なることに起因する誤検出を回避することができ、より精度良く差異を検出することができる。また、単純に解像度の比ではなく、特徴点ペアを通して把握した画面要素の位置関係が考慮されたサイズ比を用いることで、より適切に画面要素矩形の比較を行うことができる。例えば、正解画面のサイズ(縦×横)が、1000×500であり、比較画面のサイズが、1500×600であるとする。但し、比較画面において、画面が描画されている範囲は、(0〜1000)×(0〜500)の範囲であり、それ以外の範囲は余白であるとする。すなわち、正解画面の画面要素矩形と、比較画面の画面要素矩形とは同じであるとする。この場合、単純に、正解画面のサイズと比較画面のサイズとの比に基づいて、一方のサイズが変更されると、当該一方に含まれている画面要素矩形のアスペクト比が崩れてしまう。一方、特徴点ペアに基づくサイズ比によれば、このような不都合の発生を回避できる可能性が高まる。   In the present embodiment, based on the size ratio between the screen element of the correct screen and the screen element of the comparison screen, the difference is extracted after one image size is changed. As a result, it is possible to avoid erroneous detection caused by the difference in resolution between the correct answer screen and the comparison screen, and to detect the difference with higher accuracy. In addition, the screen element rectangles can be compared more appropriately by using the size ratio in consideration of the positional relationship of the screen elements grasped through the feature point pairs instead of simply the resolution ratio. For example, it is assumed that the size of the correct screen (vertical × horizontal) is 1000 × 500, and the size of the comparison screen is 1500 × 600. However, in the comparison screen, the range in which the screen is drawn is a range of (0 to 1000) × (0 to 500), and the other ranges are blanks. That is, it is assumed that the screen element rectangle of the correct answer screen is the same as the screen element rectangle of the comparison screen. In this case, simply, if one size is changed based on the ratio between the size of the correct answer screen and the size of the comparison screen, the aspect ratio of the screen element rectangle included in the one is destroyed. On the other hand, according to the size ratio based on the feature point pair, the possibility of avoiding such inconvenience increases.

また、本実施の形態では、正解画面および比較画面それぞれから画面要素矩形を抽出したうえ、正解画面から比較画面への方向と、比較画面から正解画面への方向との2つの方向で、画面要素矩形のマッチングが行われる。したがって、画面要素矩形の移動、拡縮、消失、追加など様々な差異を判りやすい粒度で検出でき、画面レイアウト崩れの判定をし易くすることができる。   Further, in the present embodiment, screen element rectangles are extracted from each of the correct answer screen and the comparison screen, and then the screen element is divided into two directions: a direction from the correct answer screen to the comparison screen and a direction from the comparison screen to the correct answer screen. Rectangle matching is performed. Therefore, various differences such as movement, expansion / contraction, disappearance, and addition of the screen element rectangle can be detected with an easy-to-understand granularity, and the screen layout can be easily determined.

なお、本実施の形態において、サイズ整合部12は、変更部の一例である。画面差異抽出部13は、抽出部一例である。レポート出力部14は、出力部の一例である。画面要素矩形は、部分領域の一例である。正解画面は、第1の表示結果を示す第1の画像の一例である。比較画面は、第2の表示結果を示す第2の画像の一例である。   In the present embodiment, the size matching unit 12 is an example of a changing unit. The screen difference extraction unit 13 is an example of an extraction unit. The report output unit 14 is an example of an output unit. The screen element rectangle is an example of a partial area. The correct answer screen is an example of a first image showing the first display result. The comparison screen is an example of a second image showing the second display result.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

10 画面差異抽出装置
11 画像入力部
12 サイズ整合部
13 画面差異抽出部
14 レポート出力部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
B バス
DESCRIPTION OF SYMBOLS 10 Screen difference extraction apparatus 11 Image input part 12 Size matching part 13 Screen difference extraction part 14 Report output part 100 Drive apparatus 101 Recording medium 102 Auxiliary storage apparatus 103 Memory apparatus 104 CPU
105 interface device 106 display device 107 input device B bus

Claims (7)

画面の第1の表示結果を示す第1の画像と前記画面について前記第1の表示結果とは異なる表示環境における第2の表示結果を示す第2の画像とを入力する入力部と、
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更部と、
前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出部と、
を有することを特徴とする画面差異抽出装置。
An input unit for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A changing unit that changes the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; ,
After changing the size, a partial area is extracted from each of the first image and the second image, the partial area extracted from the first image, and the partial area extracted from the second image Are compared in two directions, the direction from the first image to the second image and the direction from the second image to the first image, and the first display result an extraction unit to extract at a unit of the movement of the second display results, scaling, the difference comprising a loss or addition, the partial region,
A screen difference extraction apparatus characterized by comprising:
前記抽出部は、前記第1の画像から抽出される複数の特徴点と、前記第2の画像から抽出される複数の特徴点との対応関係に基づいて、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域との対応関係を特定し、対応関係を有する部分領域どうしを比較して、前記差異を抽出する、
ことを特徴とする請求項1記載の画面差異抽出装置。
The extraction unit is extracted from the first image based on a correspondence relationship between a plurality of feature points extracted from the first image and a plurality of feature points extracted from the second image. Identifying a correspondence between the partial region and the partial region extracted from the second image, comparing the partial regions having the correspondence, and extracting the difference;
The screen difference extraction apparatus according to claim 1, wherein:
前記抽出部は、前記対応関係を有する部分領域どうしのうち、画素単位の一致率が所定値以上である部分領域どうしを比較して、前記差異を抽出する、
ことを特徴とする請求項2記載の画面差異抽出装置。
The extraction unit compares the partial areas having the correspondence relationship with each other and compares the partial areas having a pixel unit matching rate equal to or higher than a predetermined value, and extracts the difference.
The screen difference extraction apparatus according to claim 2, wherein:
前記変更部は、前記第1の画像から抽出される2つの特徴点の間の距離と、前記第2の画像から抽出される、前記2つの特徴点に対応する2つの特徴点の間の距離との比、又は前記第1の画像の横幅と前記第2の画像の横幅との比、又は前記第1の画像から抽出された部分領域間の距離と前記第2の画像から抽出された部分領域間の距離との比、に基づいて、前記第1の画像及び前記第2の画像のいずれか一方のサイズを変更する、
ことを特徴とする請求項1乃至3いずれか一項記載の画面差異抽出装置。
The changing unit includes a distance between two feature points extracted from the first image and a distance between two feature points corresponding to the two feature points extracted from the second image. Or the ratio between the width of the first image and the width of the second image, or the distance between the partial areas extracted from the first image and the portion extracted from the second image Changing the size of one of the first image and the second image based on a ratio to a distance between regions;
The screen difference extraction device according to claim 1, wherein the screen difference extraction device is a screen difference extraction device.
前記抽出部によって抽出された部分領域単位の差異の一覧と、前記部分領域単位の差異の箇所が示された前記第1の画像と、前記部分領域単位の差異の箇所が示された前記第2の画像とを出力する出力部を有する、
ことを特徴とする請求項1乃至4いずれか一項記載の画面差異抽出装置。
A list of partial area unit differences extracted by the extraction unit, the first image showing the partial area unit differences, and the second area showing the partial area unit differences. An output unit for outputting the image of
The screen difference extraction device according to claim 1, wherein the screen difference extraction device is a screen difference extraction device.
画面の第1の表示結果を示す第1の画像と前記画面について前記第1の表示結果とは異なる表示環境における第2の表示結果を示す第2の画像とを入力する入力手順と、
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更手順と、
前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出手順と、
をコンピュータが実行することを特徴とする画面差異抽出方法。
An input procedure for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A change procedure for changing the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; ,
After changing the size, a partial area is extracted from each of the first image and the second image, the partial area extracted from the first image, and the partial area extracted from the second image Are compared in two directions, the direction from the first image to the second image and the direction from the second image to the first image, and the first display result movement of the second display results, scaled, the differences involve erasure or additions, the extraction procedure to extract in units of the partial region,
A screen difference extraction method characterized in that the computer executes the above.
画面の第1の表示結果を示す第1の画像と前記画面について前記第1の表示結果とは異なる表示環境における第2の表示結果を示す第2の画像とを入力する入力手順と、
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更手順と、 前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出手順と、
をコンピュータに実行させることを特徴とするプログラム。
An input procedure for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A change procedure for changing the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; After the size change, a partial region is extracted from each of the first image and the second image, and the partial region extracted from the first image and the portion extracted from the second image The first display result is obtained by comparing the area in two directions: a direction from the first image to the second image and a direction from the second image to the first image. an extraction procedure to extract between the movement of the second display results, scaled, the differences involve erasure or additional, the unit of the partial region,
A program that causes a computer to execute.
JP2016017972A 2016-02-02 2016-02-02 Screen difference extraction apparatus, screen difference extraction method, and program Active JP6608719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016017972A JP6608719B2 (en) 2016-02-02 2016-02-02 Screen difference extraction apparatus, screen difference extraction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016017972A JP6608719B2 (en) 2016-02-02 2016-02-02 Screen difference extraction apparatus, screen difference extraction method, and program

Publications (2)

Publication Number Publication Date
JP2017138713A JP2017138713A (en) 2017-08-10
JP6608719B2 true JP6608719B2 (en) 2019-11-20

Family

ID=59565906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016017972A Active JP6608719B2 (en) 2016-02-02 2016-02-02 Screen difference extraction apparatus, screen difference extraction method, and program

Country Status (1)

Country Link
JP (1) JP6608719B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101819A (en) * 2017-12-04 2019-06-24 日本電信電話株式会社 Difference image generation device and program
JP6718473B2 (en) * 2017-12-05 2020-07-08 日本電信電話株式会社 Screen difference extraction device and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4125273B2 (en) * 2004-08-24 2008-07-30 キヤノン株式会社 Image processing apparatus and method, and program
JP2007074677A (en) * 2005-09-09 2007-03-22 Toshiba Corp Image processing apparatus and image processing method
JP2007086899A (en) * 2005-09-20 2007-04-05 Fujitsu Ltd Test result decision display method, test result decision display program and test device
JP2010039815A (en) * 2008-08-06 2010-02-18 Nec Engineering Ltd Web page layout correction system
US8996988B2 (en) * 2009-10-19 2015-03-31 Browsera, LLC Automated application compatibility testing
JP5771598B2 (en) * 2010-03-24 2015-09-02 オリンパス株式会社 Endoscope device
TW201437925A (en) * 2012-12-28 2014-10-01 Nec Corp Object identification device, method, and storage medium
JP6301627B2 (en) * 2013-10-18 2018-03-28 リコーエレメックス株式会社 Appearance inspection apparatus and appearance inspection method
JP5954310B2 (en) * 2013-12-26 2016-07-20 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6593327B2 (en) * 2014-05-07 2019-10-23 日本電気株式会社 Image processing apparatus, image processing method, and computer-readable recording medium
JP5914732B2 (en) * 2015-06-15 2016-05-11 株式会社エヌ・ティ・ティ・データ Image verification method, image verification apparatus, and program

Also Published As

Publication number Publication date
JP2017138713A (en) 2017-08-10

Similar Documents

Publication Publication Date Title
WO2016194889A1 (en) Information processing device, information processing method, and program
JP6220079B2 (en) Display control apparatus, display control method, and display control program
JP7480066B2 (en) SYSTEMS AND METHODS FOR AUGMENTED REALITY OVERLAYS - Patent application
JP6476145B2 (en) Screen difference acceptance / rejection determination device, screen difference acceptance / rejection determination method, and program
JP6608719B2 (en) Screen difference extraction apparatus, screen difference extraction method, and program
JP6543649B2 (en) Screen difference detection device and program
JP6476147B2 (en) Screen difference extraction apparatus, screen difference extraction method, and program
JP6476144B2 (en) Screen difference confirmation support device, screen difference confirmation support method, and program
JP6476146B2 (en) Screen difference evaluation device, screen difference evaluation method, and program
CN110399063B (en) Method and device for viewing page element attributes
JP6619891B2 (en) Screen test apparatus and screen test program
JP6446945B2 (en) Incompatible detection device, incompatible detection method, and program
JP2019204265A (en) Screen discrimination device, screen discrimination method and program
JP6718473B2 (en) Screen difference extraction device and program
JP2021140831A (en) Document image processing system, document image processing method, and document image processing program
JP4960188B2 (en) Screen transition diagram display method and system
JP2008250640A (en) Graphic processor
JP6603178B2 (en) Display control system, display control method, and display control program
JP6756961B1 (en) Work support devices, work support methods, programs, and object detection models.
JP2018147400A (en) Display difference detection program, device, and method
US20220164523A1 (en) Resembling transition identifying apparatus, resembling transition identifying method and program
JP2011048791A (en) Device, method and program for providing information
CN109032476B (en) Method for displaying big data set in graphical user interface
JP2011197844A (en) Difference detection system
JP6565287B2 (en) Display position acquisition program, display position acquisition device, and display position acquisition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191024

R150 Certificate of patent or registration of utility model

Ref document number: 6608719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150