JP6608719B2 - Screen difference extraction apparatus, screen difference extraction method, and program - Google Patents
Screen difference extraction apparatus, screen difference extraction method, and program Download PDFInfo
- Publication number
- JP6608719B2 JP6608719B2 JP2016017972A JP2016017972A JP6608719B2 JP 6608719 B2 JP6608719 B2 JP 6608719B2 JP 2016017972 A JP2016017972 A JP 2016017972A JP 2016017972 A JP2016017972 A JP 2016017972A JP 6608719 B2 JP6608719 B2 JP 6608719B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- image
- extracted
- difference
- comparison
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- Image Analysis (AREA)
Description
本発明は、画面差異抽出装置、画面差異抽出方法、及びプログラムに関する。 The present invention relates to a screen difference extraction device, a screen difference extraction method, and a program.
近年、Webページ等の画面は、様々な環境(端末機種、OS(Operating System)、及びブラウザ等の組み合わせ)において閲覧されているが、各環境において、画面のレイアウトが異なる場合が有る。例えば、特定の環境において、画面の作成者が意図しないレイアウト崩れが発生する場合が有る。したがって、画面の作成者は、作成した画面が各環境において意図した通りに表示されることを確認するためにテストを行う必要が有る。 In recent years, a screen such as a Web page has been browsed in various environments (a combination of a terminal model, an OS (Operating System), a browser, and the like), but the screen layout may be different in each environment. For example, in a specific environment, layout disruption that is not intended by the creator of the screen may occur. Therefore, the creator of the screen needs to perform a test to confirm that the created screen is displayed as intended in each environment.
従来、斯かるテストは、各環境での表示結果と、意図した通りの表示結果とを、目視で確認することにより行われるのが一般的であったが、環境の種類(すなわち、端末機種、OS、及びブラウザ等の組み合わせ等の種類)が、多数存在するため、テストの実施者の作業負担が大きかった。 Conventionally, such a test is generally performed by visually confirming a display result in each environment and a display result as intended, but the type of environment (that is, terminal model, Since there are many types of combinations of OS, browsers, etc., the workload of the tester is heavy.
そこで、例えば、非特許文献1又は非特許文献2に記載されているような技術を利用して、テストの効率化を図ることが考えられる。
Therefore, for example, it is conceivable to improve the efficiency of the test by using a technique described in
しかしながら、非特許文献1に記載された技術では、入力としてWebページのソースコードであるHTML(HyperText Markup Language)のDOM(Document Object Model)ツリーの情報を必要とするため、テスト対象の実装技術に依存する。例えば、Andoroid(登録商標)のネイティブアプリ等の、Web標準仕様に基づかない環境では、当該技術を用いるのは困難である。
However, since the technique described in
また、非特許文献2では、画像全体を画素の粒度で比較しているため、差異の有無は判るが、ユーザが、差異の有る箇所を特定するのが困難であった。また、比較される画像間において、予め解像度を揃えないと比較できないため、画面サイズが異なる画像同士を適切に比較できないという問題がある。
Further, in
本発明は、上記の点に鑑みてなされたものであって、画面間の差異の箇所を容易に特定可能とすることを目的とする。 The present invention has been made in view of the above points, and it is an object of the present invention to make it possible to easily identify the location of a difference between screens.
そこで上記課題を解決するため、画面差異抽出装置は、画面の第1の表示結果を示す第1の画像と前記画面について前記第1の表示結果とは異なる表示環境における第2の表示結果を示す第2の画像とを入力する入力部と、前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更部と、前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを比較して、前記部分領域の単位で、前記第1の表示結果と前記第2の表示結果との差異を抽出する抽出部と、を有する。
Therefore, in order to solve the above-described problem, the screen difference extraction device displays a first image indicating the first display result of the screen and a second display result in a display environment different from the first display result for the screen. An input unit for inputting a second image; and a size of one of the first image and the second image, a screen element of the first image, and a screen element of the second image A change unit that changes based on a ratio of sizes, and a partial region that is extracted from each of the first image and the second image after the size change, and that is extracted from the first image And an extraction unit that compares the partial area extracted from the second image and extracts a difference between the first display result and the second display result in units of the partial area. Have.
画面間の差異の箇所を容易に特定可能とすることができる。 It is possible to easily identify the location of the difference between the screens.
以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における画面差異抽出装置のハードウェア構成例を示す図である。図1の画面差異抽出装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a hardware configuration example of a screen difference extraction device according to an embodiment of the present invention. The screen
画面差異抽出装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
A program for realizing processing in the screen
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って画面差異抽出装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等で構成され、様々な操作指示を入力させるために用いられる。
The
図2は、本発明の実施の形態における画面差異抽出装置の機能構成例を示す図である。図2において、画面差異抽出装置10は、画像入力部11、サイズ整合部12、画面差異抽出部13、及びレポート出力部14等を有する。これら各部は、画面差異抽出装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。
FIG. 2 is a diagram illustrating a functional configuration example of the screen difference extraction device according to the embodiment of the present invention. In FIG. 2, the screen
画像入力部11は、ユーザによって指定されたフォルダから、テスト対象の画面ごとに、正解画面と、1以上の比較画面とを読み込む。画像入力部11は、また、正解画面ごとに、比較画面とのペアを含むペア情報を生成する。なお、正解画面とは、作成者の意図通りに画面が表示される環境(以下、「正解環境」という。)において当該画面が表示された結果を示す画像データ(以下、「画面画像」という。)をいう。比較画面とは、正解環境とは異なる環境(以下、「比較環境」という。)において表示された結果を示す画面画像をいう。環境は、例えば、画面を表示した端末の機種、OS(Operating System)、及びブラウザ等の組み合わせによって区別される。更に、ブラウザの表示サイズ別に環境が区別されてもよい。環境は、画面の表示条件の一例であるともいえる。なお、正解画面及び比較画面は、例えば、画面キャプチャ等によって取得されてもよい。
The
なお、画面とは、プログラムがコンピュータに表示させる画面をいう。画面は、アプリケーションプログラム等の画面であってもよいし、HTML(HyperText Markup Language)等によって記述された画面であってもよい。 The screen refers to a screen that the program displays on the computer. The screen may be a screen such as an application program, or may be a screen described in HTML (HyperText Markup Language) or the like.
サイズ整合部12は、正解画面と比較画面とのペアごとに、当該ペアに係る2つの画面画像に含まれる画面要素間の解像度の差異を吸収するために、正解画面の画面要素と比較画面の画面要素とのサイズ比に基づいて一方の画面画像のサイズを変更する。画面要素とは、画面の描画要素をいい、例えば、画面のレイアウトを構成する単位である。なお、画面画像のサイズは、画素数(ピクセル数)によって表現される。サイズの変更は、解像度を変更することによって実現される。
For each pair of the correct screen and the comparison screen, the
画面差異抽出部13は、ペアごとに、当該ペアに係る2つの画面画像間の差異を抽出する。具体的には、画面差異抽出部13は、ペアに係る2つの画面画像のそれぞれについて、おおよそ画面要素の粒度で矩形領域を抽出し、矩形領域単位でのマッチングを行う。画面差異抽出部13は、マッチングの結果として、矩形領域の粒度で、消失、追加、移動等の差異を検出し、差異ごとに、当該差異の内容を示す画面差異情報を生成する。画面差異抽出部13は、ペア情報に対して、生成された画面差異情報を設定する。
The screen
レポート出力部14は、画面差異抽出部13によって生成された画面差異情報を含む各ペア情報を結果レポートとして出力し、当該結果レポートをユーザに提示する。
The
以下、画面差異抽出装置10が実行する処理手順について説明する。図3は、画面差異抽出装置が実行する処理手順の一例を説明するためのフローチャートである。
Hereinafter, a processing procedure executed by the screen
ステップS110において、画像入力部11は、ユーザによって指定されたフォルダ配下において、テスト対象の画面ごとに記憶されている、正解画面及び比較画面群を読み込み、正解画面ごとに、同一画面に係る比較画面とのペア情報のリストを生成する。
In step S110, the
図4は、本発明の実施の形態におけるデータ構造の定義例を示す図である。図4では、本実施の形態において利用される各種のデータのデータ構造が、BNF(Backus-Naur Form)によって定義されている。 FIG. 4 is a diagram showing a definition example of the data structure in the embodiment of the present invention. In FIG. 4, the data structures of various data used in the present embodiment are defined by BNF (Backus-Naur Form).
ステップS110に関しては、「■入力データとなる画像群」における定義が関連する。ここでは、環境ルートフォルダが、1つの正解環境フォルダと、1以上の比較環境フォルダとを含むことが示されている。また、正解環境フォルダ及び各比較環境フォルダは、それぞれ画面画像(正解画面又は比較画面)を格納した画像ファイルを含むことが示されている。正解環境フォルダに含まれる画像ファイルは、正解画面を格納した画像ファイルであり、比較環境フォルダに含まれる画像ファイルは、比較画面を格納した画像ファイルである。 Regarding step S110, the definition in “■ Image group to be input data” is related. Here, it is shown that the environment root folder includes one correct environment folder and one or more comparison environment folders. Further, it is shown that each of the correct answer environment folder and each comparison environment folder includes an image file storing a screen image (correct answer screen or comparison screen). The image file included in the correct environment folder is an image file storing the correct answer screen, and the image file included in the comparison environment folder is an image file storing the comparison screen.
図5は、フォルダ構成の一例を示す図である。図5には、環境ルートフォルダの下に、1つの正解環境フォルダと、2つの比較環境フォルダ(比較環境フォルダ(a)及び(b))が含まれている例が示されている。正解環境フォルダ及び各比較環境フォルダのそれぞれには、画像ファイルX及び画像ファイルYが格納されている。画像ファイルXは、画面Xの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。画像ファイルYは、画面Yの表示結果が画面キャプチャ等されることにより生成された画面画像を格納したファイルである。但し、正解環境フォルダの下の画像ファイルX及びYは、画面X又は画面Yに関する正解画面を格納した画像ファイルである。比較環境フォルダ(a)の下の画像ファイルX及びYは、環境(a)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。比較環境フォルダ(b)の下の画像ファイルX及びYは、環境(b)における画面X又は画面Yの表示結果を示す比較画面を格納した画像ファイルである。なお、図5に示したフォルダ及びファイルは、例えば、補助記憶装置102に記憶されている。
FIG. 5 is a diagram illustrating an example of a folder configuration. FIG. 5 shows an example in which one correct environment folder and two comparison environment folders (comparison environment folders (a) and (b)) are included under the environment root folder. An image file X and an image file Y are stored in each of the correct answer environment folder and each comparison environment folder. The image file X is a file that stores a screen image generated by screen capture of the display result of the screen X. The image file Y is a file that stores a screen image generated by screen capture of the display result of the screen Y. However, the image files X and Y under the correct answer environment folder are image files that store the correct answer screens related to the screen X or the screen Y. The image files X and Y under the comparison environment folder (a) are image files storing a comparison screen indicating the display result of the screen X or the screen Y in the environment (a). The image files X and Y under the comparison environment folder (b) are image files storing a comparison screen showing the display result of the screen X or the screen Y in the environment (b). The folders and files shown in FIG. 5 are stored in the
図5の例によれば、ステップS110では、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(a)の下の画像ファイルYに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルXに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルXに係る正解画面とのペアと、正解環境フォルダの下の画像ファイルYに係る正解画面と、比較環境フォルダ(b)の下の画像ファイルYに係る正解画面とのペアとの4つのペアに関してペア情報が生成される。 According to the example of FIG. 5, in step S110, a pair of a correct screen related to the image file X under the correct environment folder and a correct screen related to the image file X under the comparison environment folder (a), and the correct environment Comparison between the correct screen related to the image file Y under the folder and the correct screen related to the image file Y under the comparison environment folder (a), and the correct screen related to the image file X under the correct environment folder Pair with correct screen related to image file X under environment folder (b), correct screen related to image file Y under correct environment folder, and correct answer related to image file Y under comparison environment folder (b) Pair information is generated for the four pairs of the screen and the pair.
なお、ペア情報は、図4の「■出力データとなるレポート」の欄に記載されているように、正解画面情報、比較画面情報、及び画面差異リストを含む。正解画面情報とは、正解画面の画面情報である。比較画面情報とは、比較画面の画面情報である。画面情報は、当該画面の画像ファイルと、当該画像ファイルのパス名とを含む情報である。画面差異リストについては、後述される。 The pair information includes correct screen information, comparison screen information, and a screen difference list as described in the column “■ Report as output data” in FIG. Correct screen information is screen information of a correct screen. The comparison screen information is screen information of the comparison screen. The screen information is information including the image file of the screen and the path name of the image file. The screen difference list will be described later.
以下、便宜上、画面Xに関する正解画面を「正解画面X」という。また、画面Xに関する環境(a)における比較画面を「比較画面X(a)」という。また、画面Xに関する環境(a)における比較画面を「比較画面X(b)」という。 Hereinafter, for the sake of convenience, the correct answer screen related to the screen X is referred to as “correct answer screen X”. The comparison screen in the environment (a) related to the screen X is referred to as “comparison screen X (a)”. Further, the comparison screen in the environment (a) related to the screen X is referred to as “comparison screen X (b)”.
図6は、正解画面及び比較画面のレイアウトの一例を示す図である。図6には、画面Xに関して、正解画面X、比較画面X(a)、及び比較画面X(b)のそれぞれのレイアウトの一例が示されている。なお、各画面の大きさは、それぞれの画面のサイズ(解像度)の違いに基づく。このように、同一の画面X(例えば、同一のHTML(HyperText Markup Language)等)について、環境に応じてサイズやレイアウト等に違いが生じうる。 FIG. 6 is a diagram illustrating an example of the layout of the correct answer screen and the comparison screen. FIG. 6 shows an example of the layout of the correct screen X, the comparison screen X (a), and the comparison screen X (b) with respect to the screen X. The size of each screen is based on the difference in the size (resolution) of each screen. As described above, the same screen X (for example, the same HTML (HyperText Markup Language) or the like) may have a difference in size or layout depending on the environment.
続いて、画像入力部11は、結果レポート用の空のデータ領域を生成する(ステップS120)。
Subsequently, the
続くステップS130〜S160は、ステップS110において生成されたペア情報ごとに実行される。以下、処理対象とされているペア情報を、「対象ペア情報」という。 Subsequent steps S130 to S160 are executed for each pair information generated in step S110. Hereinafter, the pair information to be processed is referred to as “target pair information”.
ステップS130において、サイズ整合部12は、対象ペア情報に係る2つの画面画像のうちの一方の画面画像のサイズ(解像度)を変更することで、2つの画面画像の画面要素のサイズを合わせる。例えば、図6において、正解画面Xと比較画面X(a)とのサイズは異なる。したがって、この二つの画面画像のペアについては、いずれか一方のサイズが変更され、画面要素のレベルにおいて双方の画面画像のサイズが一致するように調整される。
In step S130, the
続いて、画面差異抽出部13は、対象ペア情報に係る2つの画面画像からの矩形領域の抽出と、矩形領域単位での差異の特定を行う(ステップS140)。その結果、対象ペア情報に対して、特定された差異を示す画面差異情報のリストである画面差異リストが設定される。例えば、図6に示される正解画面X及び比較画面X(a)であれば、「タイトル」、「広告」、「文章」、「写真」、「リンク」のそれぞれの矩形領域が抽出される。また、比較画面(b)であれば、「タイトル」、「文章」、「写真」、「リンク」、「仕様に存在しないリンク」のそれぞれの矩形領域が抽出される。以下、抽出された矩形領域を、「画面要素矩形」という。
Subsequently, the screen
なお、後述されるように、画面要素矩形の抽出は、画像を解析することによって行われるため、ステップS140において抽出される画面要素矩形は、必ずしも、人間から見て意味の有る単位での画面要素矩形であるとは限らない。例えば、「タイトル」の領域が複数の画面要素矩形に分割されて抽出される可能性も有る。また、「タイトル」及び「広告」の領域に跨る画面要素矩形が抽出される可能性も有る。 As will be described later, since the extraction of the screen element rectangle is performed by analyzing the image, the screen element rectangle extracted in step S140 is not necessarily a screen element in a meaningful unit as viewed from a human. It is not necessarily rectangular. For example, the “title” area may be divided into a plurality of screen element rectangles and extracted. In addition, there is a possibility that a screen element rectangle extending over the “title” and “advertisement” areas is extracted.
続いて、レポート出力部14は、結果レポートに対して、対象ペア情報を追加する(ステップS160)。
Subsequently, the
ステップS130〜S160が、全てのペアについて実行されると、レポート出力部14は、結果レポートを表示装置106に出力する(ステップS170)。
When Steps S130 to S160 are executed for all pairs, the
図7は、結果レポートへのリンク画面の表示例を示す図である。図7に示されるように、リンク画面は、画面の種別(画面X、画面Y)と、環境の種別(環境(a)、環境(b))との組み合わせごとに、結果レポートへのリンクを含む。いずれかのリンクがユーザによって選択されると、図8に示されるような結果レポートが表示される。 FIG. 7 is a diagram illustrating a display example of a link screen to a result report. As shown in FIG. 7, the link screen displays a link to the result report for each combination of screen type (screen X, screen Y) and environment type (environment (a), environment (b)). Including. When any link is selected by the user, a result report as shown in FIG. 8 is displayed.
図8は、結果レポートの表示例を示す図である。図8には、結果レポートR1及びR2の二つの結果レポートの表示例が示されている。 FIG. 8 is a diagram illustrating a display example of a result report. FIG. 8 shows a display example of two result reports R1 and R2.
結果レポートR1は、画面Xと環境(a)との組み合わせ(正解画面Xと比較画面X(a)とのペア)に対する結果レポートである。結果レポートR2は、画面Xと環境(b)との組み合わせ(正解画面Xと比較画面X(b)とのペア)に対する結果レポートである。 The result report R1 is a result report for a combination of the screen X and the environment (a) (a pair of the correct screen X and the comparison screen X (a)). The result report R2 is a result report for a combination of the screen X and the environment (b) (a pair of the correct answer screen X and the comparison screen X (b)).
各結果レポートには、正解画面及び比較画面と、2つの画面画像の差異の一覧を示すテーブルとが含まれる。当該テーブルには、差異ごとに、項番、差異種別、及び変異値が表示される。項番は、各差異に対して付与された番号であり、正解画面及び比較画面において差異に対応する画面要素矩形に対して、当該差異に係る項番が付されている。差異種別は、差異の種別であり、その値は、「差異なし」、「X軸方向移動」、「Y軸方向移動」、「拡縮」、「消失」、又は「追加」である。変異値は、差異種別に係る差異の大きさを示す値である。 Each result report includes a correct answer screen, a comparison screen, and a table showing a list of differences between the two screen images. In the table, for each difference, the item number, the difference type, and the mutation value are displayed. The item number is a number assigned to each difference, and the item number related to the difference is given to the screen element rectangle corresponding to the difference on the correct answer screen and the comparison screen. The difference type is a type of difference, and the value is “no difference”, “movement in the X-axis direction”, “movement in the Y-axis direction”, “enlargement / reduction”, “disappearance”, or “addition”. The variation value is a value indicating the magnitude of the difference related to the difference type.
続いて、図3のステップS110の詳細について説明する。図9は、画面画像の入力処理の処理手順の一例を説明するためのフローチャートである。 Next, details of step S110 in FIG. 3 will be described. FIG. 9 is a flowchart for explaining an example of the processing procedure of the screen image input processing.
ステップS210において、画像入力部11は、ユーザに指定された環境ルートフォルダを読み込む。続いて、画像入力部11は、環境ルートフォルダの下の正解環境フォルダを取得する(ステップS220)。例えば、正解環境フォルダのフォルダ名が予め決められており、当該フォルダ名に係るフォルダが取得されてもよい。
In step S210, the
続いて、画像入力部11は、これから生成されるペア情報を格納するための空のリスト(以下、「ペアリスト」という。)を生成する(ステップS230)。続いて、画像入力部11は、正解環境フォルダに格納されている正解画面ごとに、ステップS240以降を実行する。ステップS240以降において処理対象とされている正解画面を、「対象正解画面」という。
Subsequently, the
ステップS240において、画像入力部11は、環境ルートフォルダの下に有る全ての比較環境フォルダ(以下、「比較環境フォルダ群」という。)を取得する。
In step S240, the
続いて、画像入力部11は、取得された比較環境フォルダごとに、ステップS250及びS270を実行する。ステップS250及びS270において処理対象とされている比較環境フォルダを、「対象比較環境フォルダ」という。
Subsequently, the
ステップS250において、画像入力部11は、対象比較環境フォルダ内から対象正解画面に対応する比較画面を取得し、対象正解画面と当該比較画面とに対するペア情報を生成する。対象正解画面に対応する比較画面とは、対象正解画面が対応する画面と同じ画面に対応する比較画面をいう。例えば、画面が共通する画面画像は、同じファイル名のファイルに格納されていてもよい。そうすることで、正解画面に対応する比較画面を容易に特定することができる。
In step S250, the
続いて、画像入力部11は、生成されたペア情報をペアリストに追加する(ステップS270)。
Subsequently, the
続いて、図3のステップS130の詳細について説明する。図10は、サイズ合わせの処理手順の一例を説明するためのフローチャートである。 Next, details of step S130 in FIG. 3 will be described. FIG. 10 is a flowchart for explaining an example of the size adjustment processing procedure.
ステップS310において、サイズ整合部12は、自身の作業用のメモリ領域に対象ペア情報を読み込む。
In step S310, the
続いて、サイズ整合部12は、対象ペア情報に係る正解画面及び比較画面のそれぞれから特徴点を抽出し、正解画面→比較画面の方向で特徴点マッチングを行い、正解画面と比較画面との間で対応する特徴点のペアの集合である特徴点ペア群を生成する(ステップS320)。特徴点マッチングは、例えば、Harrisの方法、Shi−Tomashiの方法等の公知のアルゴリズムを用いて行うことができる。
Subsequently, the
なお、1つの特徴点ペアのデータ構造は、図4の「■中間データ」の欄に記載されている通りである。すなわち、特徴点ペアは、正解画面における特徴点の座標点と、比較画面において当該特徴点に対応する特徴点の座標点とから構成される。 The data structure of one feature point pair is as described in the column “■ Intermediate data” in FIG. That is, the feature point pair is composed of the coordinate point of the feature point on the correct answer screen and the coordinate point of the feature point corresponding to the feature point on the comparison screen.
続いて、サイズ整合部12は、特徴点ペア群の中から、互いに十分離れた距離にある2つの特徴点ペアを選択する(ステップS330)。例えば、2つの特徴点ペアの全ての組み合わせの中で、正解画面における距離及び比較画面における距離の合計が最大である組み合わせに係る2つの特徴点ペアが選択されてもよい。又は、正解画面における距離及び比較画面における距離の合計が閾値以上である組み合わせに係る2つの特徴点ペアが選択されてもよい。当該閾値は、正解画面又は比較画面の横幅のサイズに基づいて求められてもよいし、他の方法によって求められてもよい。
Subsequently, the
続いて、サイズ整合部12は、選択された2つの特徴点ペアに基づいて、正解画面の画面要素矩形と比較画面の画面要素矩形とのサイズ比を算出する(ステップS340)。具体的には、一方の特徴点ペア(以下、「特徴点ペア1」という。)の正解画面における座標点と、他方の特徴点ペア(以下、「特徴点ペア2」という。)の正解画面における座標点の距離を算出し、正解画面内距離とする。また、特徴点ペア1の比較画面における座標点と、特徴点ペア2の比較画面における座標点の距離を算出し、比較画面内距離とする。そして、正解画面内距離/比較画面内距離を計算し、これをサイズ比とする。すなわち、サイズ比は、正解画面全体のサイズと、比較画面全体のサイズとの比であるとは限らない。本実施の形態では、画面要素矩形の単位で比較が行われるため、正解画面と比較画面との間で、画面要素矩形のサイズを合わせるのが重要だからである。
Subsequently, the
なお、サイズ比は、上記以外の方法で算出されてもよい。例えば、正解画面の横幅/比較画面の横幅が、サイズ比として算出されてもよい。又は、正解画面の画面要素矩形間の距離/比較画面の画面要素矩形間の距離が、サイズ比として算出されてもよい。また、正解画面の横幅/比較環境における画面の横幅が、サイズ比として算出されてもよい。ここで、比較環境における画面の横幅とは、比較画面に対応した環境における端末のディスプレイの横幅であり、例えば、予め環境毎に補助記憶装置102等に記憶されていてもよい。このような算出方法は、画面がディスプレイの横幅に合わせて表示される環境に対して有効である。
The size ratio may be calculated by a method other than the above. For example, the width of the correct screen / the width of the comparison screen may be calculated as the size ratio. Alternatively, the distance between screen element rectangles on the correct screen / the distance between screen element rectangles on the comparison screen may be calculated as the size ratio. Also, the width of the correct screen / the width of the screen in the comparison environment may be calculated as the size ratio. Here, the width of the screen in the comparison environment is the width of the display of the terminal in the environment corresponding to the comparison screen, and may be stored in advance in the
続いて、サイズ整合部12は、サイズ比に基づいて、比較画面のサイズを変更する(ステップS350)。具体的には、比較画面の縦及び横幅のサイズ(画素数)が、それぞれサイズ比を乗じることによって得られる値となるように、比較画面について解像度変換が行われる。なお、対象ペア情報において、サイズ変更前の比較画面は、サイズの変更後の比較画面によって置き換えられる。なお、正解画面のサイズが変更されてもよい。
Subsequently, the
続いて、図3のステップS140の詳細について説明する。図11は、画面差異情報の抽出処理の処理手順の一例を説明するためのフローチャートである。 Next, details of step S140 in FIG. 3 will be described. FIG. 11 is a flowchart for explaining an example of a processing procedure of screen difference information extraction processing.
ステップS410において、画面差異抽出部13は、自身の作業用のメモリ領域に対象ペア情報を読み込む。
In step S410, the screen
続いて、画面差異抽出部13は、画面差異リストを格納するための空のデータ領域を生成する(ステップS415)。画面差異リストは、図4の「出力データとなるレポート」の欄に記載されているように、0以上の画面差異情報によって構成される。
Subsequently, the screen
続いて、画面差異抽出部13は、図10のステップS320と同様の方法によって、対象ペア情報に係る正解画面及び比較画面から特徴点ペア群を抽出する(ステップS420)。
Subsequently, the screen
続いて、画面差異抽出部13は、対象ペア情報に係る正解画面から画面要素矩形(以下、「正解画面要素矩形」という。)を抽出し、抽出された正解画面要素矩形がリスト化された画面要素矩形リストを生成する(ステップS425)。画面要素矩形は、図4の「■出力データとなるレポート」の欄に記載されているように、当該矩形の左上座標と右上座標とによって表現される。なお、画面要素矩形の抽出は、公知技術を組み合わせることで実現可能である。例えば、画像に対して、グレースケール化、Canny処理、膨張処理、輪郭抽出、矩形変換(輪郭の外接矩形を求め、そこから矩形を抽出)といった手順を実行することで、画面要素矩形が抽出されてもよい。
Subsequently, the screen
なお、画面要素矩形は、必ずしも「矩形」でなくてもよい。画面を構成する部分領域が抽出されればよい。したがって、L字型、凸型、凹型、又はその他の多角形の形状の部分領域が画面要素矩形として抽出されてもよい。 Note that the screen element rectangle is not necessarily a “rectangle”. It suffices if the partial areas constituting the screen are extracted. Therefore, L-shaped, convex, concave, or other polygonal partial areas may be extracted as screen element rectangles.
続いて、画面差異抽出部13は、生成された画面要素矩形リストに含まれている正解画面要素矩形ごとに、ステップS430〜S475を実行する。ステップS430〜S475において処理対象とされている正解画面要素矩形を、「対象正解画面要素矩形」という。
Subsequently, the screen
ステップS430において、画面差異抽出部13は、対象正解画面要素矩形に係る特徴点群に対応する特徴点が、対象ペア情報に係る比較画面(以下、「対象比較画面」という。)に2以上存在するか否かを判定する。対象正解画面要素矩形に係る特徴点群とは、例えば、対象正解画面要素矩形の範囲に含まれる特徴点をいう。但し、対象正解画面要素矩形の周囲から外側において所定の範囲内に含まれる特徴点が、対象正解画面要素矩形に係る特徴点群に含まれてもよい。また、対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在するか否かは、対象正解画面要素矩形に係る特徴点群を含む特徴点ペア(以下、「対象特徴点ペア」という。)が、ステップS420において生成された特徴点ペア群に2以上含まれているか否かに基づいて判定することができる。
In step S430, the screen
対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在する場合(ステップS430でYes)、画面差異抽出部13は、2以上存在する対象特徴点ペアの中から、互いに十分離れた距離にある2つの特徴点ペアを選択して、図10のステップS340と同様の方法で、対象正解画面要素矩形と、対象比較画面において対象正解画面要素矩形に対応する画面要素矩形との拡縮比を算出する(ステップS435)。
When two or more feature points corresponding to the feature point group related to the target correct answer screen element rectangle exist on the target comparison screen (Yes in step S430), the screen
続いて、画面差異抽出部13は、対象正解画面要素矩形に対応する画面要素矩形を比較画面から探索し、該当する画面要素矩形(以下、「対象比較画面要素矩形」という。)が探索された場合には、対象正解画面要素矩形と対象比較画面要素矩形とを画面差異情報に設定する(ステップS440)。具体的には、画面差異抽出部13は、対象正解画面要素矩形と、対象特徴点ペアにおいて正解画面に係る特徴点との位置関係(例えば、対象正解画面要素矩形の各頂点からのベクトル)を特定し、対象特徴点ペアにおいて比較画面に係る特徴点と当該位置関係とに基づいて、比較画面から対象正解画面要素矩形の候補矩形を切り出す。画面差異抽出部13は、対象正解画面要素矩形と候補矩形との各画素値を比較し、画素値の一致率(画素単位の一致率)が所定値(例えば、100%又は95%等)以上であれば、当該候補矩形を対象比較画面要素矩形とする。但し、拡縮比が1でない場合は、候補矩形のサイズを拡縮比に基づいて拡大又は縮小して、候補矩形のサイズを対象正解画面要素矩形に一致させた上で、画素値の比較が行われる。
Subsequently, the screen
なお、対象比較画面要素矩形の切り出しは、対象正解画面要素矩形と対象比較画面とのパターンマッチングによって行われてもよい。例えば、拡縮比に基づいて対象比較画面のサイズを変更した後、対象正解画面要素矩形と同じサイズの矩形領域であって、対象正解画面要素矩形と全ての画素(又は、所定の割合(例えば、95%)以上の画素)に関して画素値が一致する矩形領域が探索されることで対象比較画面要素矩形が切り出されてもよい。 The target comparison screen element rectangle may be cut out by pattern matching between the target correct screen element rectangle and the target comparison screen. For example, after changing the size of the target comparison screen based on the enlargement / reduction ratio, the target correct screen element rectangle is a rectangular area having the same size as the target correct screen element rectangle and all pixels (or a predetermined ratio (for example, The target comparison screen element rectangle may be cut out by searching for a rectangular region with a matching pixel value with respect to (95%) or more pixels).
画面差異抽出部13は、画面差異情報を生成し、対象正解画面要素矩形を当該画面差異情報(以下、「対象画面差異情報」という。)に設定する。画面差異情報は、図4の「■出力データとなるレポート」の欄に記載されているように、項番、差異種別、0以上の変異値、0以上の正解画面要素矩形、及び0以上の比較画面要素矩形を含む情報である。正解画面要素矩形と比較画面要素矩形とは、それぞれの左上頂点及び右下頂点の座標によって表現される。
The screen
画面差異抽出部13は、また、対象比較画面要素矩形が探索された場合には、対象比較画面要素矩形を対象画面差異情報に設定する。対象比較画面要素矩形が探索されなかった場合、対象画面差異情報には、対象比較画面要素矩形は設定されない。
When the target comparison screen element rectangle is searched, the screen
なお、対象画面差異情報の差異種別には、「差異なし」が初期値として設定される。 Note that “no difference” is set as the initial value for the difference type of the target screen difference information.
続いて、対象比較画面要素矩形が存在した場合(ステップS445でYes)、画面差異抽出部13は、対象正解画面要素矩形と対象比較画面要素矩形との位置が異なるか否かを判定する(S450)。当該位置の異同は、対象正解画面要素矩形と対象比較画面要素矩形とのそれぞれの左上頂点の座標が同じであるか否かに基づいて判定されてもよい。
Subsequently, when the target comparison screen element rectangle exists (Yes in step S445), the screen
対象正解画面要素矩形と対象比較画面要素矩形との位置が異なる場合(ステップS450でYes)、画面差異抽出部13は、対象画面差異情報の差異種別に「X軸方向移動」又は「Y軸方向移動」を設定し、対象画面差異情報の変異値に当該位置の差分(移動量)を設定する(ステップS455)。当該位置の差分は、例えば、対象正解画面要素矩形と対象比較画面要素矩形との左上頂点のX座標又はY座標の差分の絶対値として算出される。具体的には、X軸方向の差分が0でない場合、対象画面差異情報の差異種別に「X軸方向移動」が設定され、対象画面差異情報の変異値に、X軸方向の移動量が設定される。Y軸方向の差分が0でない場合、対象画面差異情報の差異種別に「Y軸方向移動」が設定され、対象画面差異情報の変異値に、Y軸方向の移動量が設定される。X軸方向の差分及びY軸方向の差分の双方が0でない場合、対象画面差異情報の複製が生成され、一方の対象画面差異情報の差異種別、変異値に、「X軸方向移動」、X軸方向の移動量が設定され、他方の対象画面差異情報の差異種別、変異値に、「Y軸方向移動」、Y軸方向の移動量が設定される。
When the positions of the target correct screen element rectangle and the target comparison screen element rectangle are different (Yes in step S450), the screen
続いて、画面差異抽出部13は、ステップS435において算出した拡縮比が1であるか否かを判定する(ステップS460)。拡縮比が1でない場合(ステップS460でNo)、画面差異抽出部13は、対象画面差異情報の差異種別に「拡縮」を設定し、対象画面差異情報の変異値に拡縮比を設定する(ステップS465)。なお、対象画面差異情報に対してステップS455において値が設定されている場合、画面差異抽出部13は、対象画面差異情報の複製を生成し、当該複製の差異種別、変異値に対して、「拡縮」、拡縮比を設定する。
Subsequently, the screen
一方、対象正解画面要素矩形に係る特徴点群に対応する特徴点が対象比較画面に2以上存在しない場合(ステップS430でNo)、又は対象比較画面要素矩形が存在しない場合(ステップS445でNo)、画面差異抽出部13は、対象画面差異情報の差異種別に「消失」を設定する(ステップS470)。
On the other hand, when two or more feature points corresponding to the feature point group related to the target correct screen element rectangle do not exist in the target comparison screen (No in step S430), or when no target comparison screen element rectangle exists (No in step S445). The screen
ステップS460、S465、又はS470に続いて、画面差異抽出部13は、生成された対象画面差異情報を、画面差異リストに追加する(ステップS475)。なお、複数の対象画面差異情報が生成された場合には、複数の対象画面差異情報が画面差異リストに追加される。また、画面差異抽出部13は、画面差異リストに対して対象画面差異情報を追加する際に、画面差異リストにおける対象画面差異情報の順番に対応した数値を、対象画面差異情報の項番に設定する。
Subsequent to step S460, S465, or S470, the screen
ステップS430〜S475が、画面要素矩形リストに含まれている全ての正解画面要素矩形について実行されると、画面差異抽出部13は、ステップS420〜S475を、正解画面と比較画面とを入れ替えて実行する(ステップS480)。なお、この場合、ステップS470では、対象画面差異情報の差異種別に対して「追加」が設定される。比較画面→正解画面の方向でマッチングしている場合において、ステップS470が実行されるときには、比較画面に存在する画面要素矩形が正解画面に存在しないことになるからである。
When steps S430 to S475 are executed for all correct screen element rectangles included in the screen element rectangle list, the screen
続いて、画面差異抽出部13は、画面差異リストを対象ペア情報に設定する(ステップS485)。
Subsequently, the screen
このように生成された対象ペア情報に基づいて、図7に示したリンク画面及び図8に示した結果レポートが出力される。 Based on the target pair information generated in this way, the link screen shown in FIG. 7 and the result report shown in FIG. 8 are output.
上述したように、本実施の形態によれば、n個のテスト環境においてテストを実行した際に、1個のテスト環境におけるテスト結果の画面画像を正解画面とし、他のn−1個の環境におけるテスト結果の画面画像(比較画面)を正解画面と比較することで、差異が自動的に抽出される。この際、差異の抽出は、画面要素矩形単位で行われる。したがって、画面レイアウト崩れを容易に検出することができ、画面間の差異の箇所を容易に特定可能とすることができる。その結果、ユーザは、比較画面の合否判定を効率的に行うことができる。 As described above, according to the present embodiment, when a test is executed in n test environments, the screen image of the test result in one test environment is set as a correct answer screen, and the other n-1 environments. The difference is automatically extracted by comparing the screen image (comparison screen) of the test result with the correct screen. At this time, the difference is extracted in units of screen element rectangles. Therefore, it is possible to easily detect the screen layout collapse and to easily identify the differences between the screens. As a result, the user can efficiently perform pass / fail determination on the comparison screen.
また、本実施の形態では、正解画面の画面要素と比較画面の画面要素とのサイズ比に基づいて、一方の画像サイズが変更された上で差異の抽出が行われる。その結果、正解画面と比較画面との解像度が異なることに起因する誤検出を回避することができ、より精度良く差異を検出することができる。また、単純に解像度の比ではなく、特徴点ペアを通して把握した画面要素の位置関係が考慮されたサイズ比を用いることで、より適切に画面要素矩形の比較を行うことができる。例えば、正解画面のサイズ(縦×横)が、1000×500であり、比較画面のサイズが、1500×600であるとする。但し、比較画面において、画面が描画されている範囲は、(0〜1000)×(0〜500)の範囲であり、それ以外の範囲は余白であるとする。すなわち、正解画面の画面要素矩形と、比較画面の画面要素矩形とは同じであるとする。この場合、単純に、正解画面のサイズと比較画面のサイズとの比に基づいて、一方のサイズが変更されると、当該一方に含まれている画面要素矩形のアスペクト比が崩れてしまう。一方、特徴点ペアに基づくサイズ比によれば、このような不都合の発生を回避できる可能性が高まる。 In the present embodiment, based on the size ratio between the screen element of the correct screen and the screen element of the comparison screen, the difference is extracted after one image size is changed. As a result, it is possible to avoid erroneous detection caused by the difference in resolution between the correct answer screen and the comparison screen, and to detect the difference with higher accuracy. In addition, the screen element rectangles can be compared more appropriately by using the size ratio in consideration of the positional relationship of the screen elements grasped through the feature point pairs instead of simply the resolution ratio. For example, it is assumed that the size of the correct screen (vertical × horizontal) is 1000 × 500, and the size of the comparison screen is 1500 × 600. However, in the comparison screen, the range in which the screen is drawn is a range of (0 to 1000) × (0 to 500), and the other ranges are blanks. That is, it is assumed that the screen element rectangle of the correct answer screen is the same as the screen element rectangle of the comparison screen. In this case, simply, if one size is changed based on the ratio between the size of the correct answer screen and the size of the comparison screen, the aspect ratio of the screen element rectangle included in the one is destroyed. On the other hand, according to the size ratio based on the feature point pair, the possibility of avoiding such inconvenience increases.
また、本実施の形態では、正解画面および比較画面それぞれから画面要素矩形を抽出したうえ、正解画面から比較画面への方向と、比較画面から正解画面への方向との2つの方向で、画面要素矩形のマッチングが行われる。したがって、画面要素矩形の移動、拡縮、消失、追加など様々な差異を判りやすい粒度で検出でき、画面レイアウト崩れの判定をし易くすることができる。 Further, in the present embodiment, screen element rectangles are extracted from each of the correct answer screen and the comparison screen, and then the screen element is divided into two directions: a direction from the correct answer screen to the comparison screen and a direction from the comparison screen to the correct answer screen. Rectangle matching is performed. Therefore, various differences such as movement, expansion / contraction, disappearance, and addition of the screen element rectangle can be detected with an easy-to-understand granularity, and the screen layout can be easily determined.
なお、本実施の形態において、サイズ整合部12は、変更部の一例である。画面差異抽出部13は、抽出部一例である。レポート出力部14は、出力部の一例である。画面要素矩形は、部分領域の一例である。正解画面は、第1の表示結果を示す第1の画像の一例である。比較画面は、第2の表示結果を示す第2の画像の一例である。
In the present embodiment, the
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.
10 画面差異抽出装置
11 画像入力部
12 サイズ整合部
13 画面差異抽出部
14 レポート出力部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
B バス
DESCRIPTION OF
105
Claims (7)
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更部と、
前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出部と、
を有することを特徴とする画面差異抽出装置。 An input unit for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A changing unit that changes the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; ,
After changing the size, a partial area is extracted from each of the first image and the second image, the partial area extracted from the first image, and the partial area extracted from the second image Are compared in two directions, the direction from the first image to the second image and the direction from the second image to the first image, and the first display result an extraction unit to extract at a unit of the movement of the second display results, scaling, the difference comprising a loss or addition, the partial region,
A screen difference extraction apparatus characterized by comprising:
ことを特徴とする請求項1記載の画面差異抽出装置。 The extraction unit is extracted from the first image based on a correspondence relationship between a plurality of feature points extracted from the first image and a plurality of feature points extracted from the second image. Identifying a correspondence between the partial region and the partial region extracted from the second image, comparing the partial regions having the correspondence, and extracting the difference;
The screen difference extraction apparatus according to claim 1, wherein:
ことを特徴とする請求項2記載の画面差異抽出装置。 The extraction unit compares the partial areas having the correspondence relationship with each other and compares the partial areas having a pixel unit matching rate equal to or higher than a predetermined value, and extracts the difference.
The screen difference extraction apparatus according to claim 2, wherein:
ことを特徴とする請求項1乃至3いずれか一項記載の画面差異抽出装置。 The changing unit includes a distance between two feature points extracted from the first image and a distance between two feature points corresponding to the two feature points extracted from the second image. Or the ratio between the width of the first image and the width of the second image, or the distance between the partial areas extracted from the first image and the portion extracted from the second image Changing the size of one of the first image and the second image based on a ratio to a distance between regions;
The screen difference extraction device according to claim 1, wherein the screen difference extraction device is a screen difference extraction device.
ことを特徴とする請求項1乃至4いずれか一項記載の画面差異抽出装置。 A list of partial area unit differences extracted by the extraction unit, the first image showing the partial area unit differences, and the second area showing the partial area unit differences. An output unit for outputting the image of
The screen difference extraction device according to claim 1, wherein the screen difference extraction device is a screen difference extraction device.
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更手順と、
前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出手順と、
をコンピュータが実行することを特徴とする画面差異抽出方法。 An input procedure for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A change procedure for changing the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; ,
After changing the size, a partial area is extracted from each of the first image and the second image, the partial area extracted from the first image, and the partial area extracted from the second image Are compared in two directions, the direction from the first image to the second image and the direction from the second image to the first image, and the first display result movement of the second display results, scaled, the differences involve erasure or additions, the extraction procedure to extract in units of the partial region,
A screen difference extraction method characterized in that the computer executes the above.
前記第1の画像と前記第2の画像とのいずれか一方のサイズを、前記第1の画像の画面要素と前記第2の画像の画面要素とに関するサイズの比に基づいて変更する変更手順と、 前記サイズの変更後に、前記第1の画像及び前記第2の画像のそれぞれから部分領域を抽出し、前記第1の画像から抽出された部分領域と、前記第2の画像から抽出された部分領域とを、前記第1の画像から前記第2の画像への方向と、前記第2の画像から前記第1の画像への方向との2つの方向で比較して、前記第1の表示結果と前記第2の表示結果との移動、拡縮、消失又は追加を含む差異を、前記部分領域の単位で抽出する抽出手順と、
をコンピュータに実行させることを特徴とするプログラム。
An input procedure for inputting a first image showing a first display result of a screen and a second image showing a second display result in a display environment different from the first display result for the screen;
A change procedure for changing the size of one of the first image and the second image based on a ratio of the sizes of the screen element of the first image and the screen element of the second image; After the size change, a partial region is extracted from each of the first image and the second image, and the partial region extracted from the first image and the portion extracted from the second image The first display result is obtained by comparing the area in two directions: a direction from the first image to the second image and a direction from the second image to the first image. an extraction procedure to extract between the movement of the second display results, scaled, the differences involve erasure or additional, the unit of the partial region,
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017972A JP6608719B2 (en) | 2016-02-02 | 2016-02-02 | Screen difference extraction apparatus, screen difference extraction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017972A JP6608719B2 (en) | 2016-02-02 | 2016-02-02 | Screen difference extraction apparatus, screen difference extraction method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017138713A JP2017138713A (en) | 2017-08-10 |
JP6608719B2 true JP6608719B2 (en) | 2019-11-20 |
Family
ID=59565906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016017972A Active JP6608719B2 (en) | 2016-02-02 | 2016-02-02 | Screen difference extraction apparatus, screen difference extraction method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6608719B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101819A (en) * | 2017-12-04 | 2019-06-24 | 日本電信電話株式会社 | Difference image generation device and program |
JP6718473B2 (en) * | 2017-12-05 | 2020-07-08 | 日本電信電話株式会社 | Screen difference extraction device and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4125273B2 (en) * | 2004-08-24 | 2008-07-30 | キヤノン株式会社 | Image processing apparatus and method, and program |
JP2007074677A (en) * | 2005-09-09 | 2007-03-22 | Toshiba Corp | Image processing apparatus and image processing method |
JP2007086899A (en) * | 2005-09-20 | 2007-04-05 | Fujitsu Ltd | Test result decision display method, test result decision display program and test device |
JP2010039815A (en) * | 2008-08-06 | 2010-02-18 | Nec Engineering Ltd | Web page layout correction system |
US8996988B2 (en) * | 2009-10-19 | 2015-03-31 | Browsera, LLC | Automated application compatibility testing |
JP5771598B2 (en) * | 2010-03-24 | 2015-09-02 | オリンパス株式会社 | Endoscope device |
TW201437925A (en) * | 2012-12-28 | 2014-10-01 | Nec Corp | Object identification device, method, and storage medium |
JP6301627B2 (en) * | 2013-10-18 | 2018-03-28 | リコーエレメックス株式会社 | Appearance inspection apparatus and appearance inspection method |
JP5954310B2 (en) * | 2013-12-26 | 2016-07-20 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP6593327B2 (en) * | 2014-05-07 | 2019-10-23 | 日本電気株式会社 | Image processing apparatus, image processing method, and computer-readable recording medium |
JP5914732B2 (en) * | 2015-06-15 | 2016-05-11 | 株式会社エヌ・ティ・ティ・データ | Image verification method, image verification apparatus, and program |
-
2016
- 2016-02-02 JP JP2016017972A patent/JP6608719B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017138713A (en) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016194889A1 (en) | Information processing device, information processing method, and program | |
JP6220079B2 (en) | Display control apparatus, display control method, and display control program | |
JP7480066B2 (en) | SYSTEMS AND METHODS FOR AUGMENTED REALITY OVERLAYS - Patent application | |
JP6476145B2 (en) | Screen difference acceptance / rejection determination device, screen difference acceptance / rejection determination method, and program | |
JP6608719B2 (en) | Screen difference extraction apparatus, screen difference extraction method, and program | |
JP6543649B2 (en) | Screen difference detection device and program | |
JP6476147B2 (en) | Screen difference extraction apparatus, screen difference extraction method, and program | |
JP6476144B2 (en) | Screen difference confirmation support device, screen difference confirmation support method, and program | |
JP6476146B2 (en) | Screen difference evaluation device, screen difference evaluation method, and program | |
CN110399063B (en) | Method and device for viewing page element attributes | |
JP6619891B2 (en) | Screen test apparatus and screen test program | |
JP6446945B2 (en) | Incompatible detection device, incompatible detection method, and program | |
JP2019204265A (en) | Screen discrimination device, screen discrimination method and program | |
JP6718473B2 (en) | Screen difference extraction device and program | |
JP2021140831A (en) | Document image processing system, document image processing method, and document image processing program | |
JP4960188B2 (en) | Screen transition diagram display method and system | |
JP2008250640A (en) | Graphic processor | |
JP6603178B2 (en) | Display control system, display control method, and display control program | |
JP6756961B1 (en) | Work support devices, work support methods, programs, and object detection models. | |
JP2018147400A (en) | Display difference detection program, device, and method | |
US20220164523A1 (en) | Resembling transition identifying apparatus, resembling transition identifying method and program | |
JP2011048791A (en) | Device, method and program for providing information | |
CN109032476B (en) | Method for displaying big data set in graphical user interface | |
JP2011197844A (en) | Difference detection system | |
JP6565287B2 (en) | Display position acquisition program, display position acquisition device, and display position acquisition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180827 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190419 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190729 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6608719 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |