JP6603194B2 - Screen recognition device, screen recognition method, and screen recognition program - Google Patents
Screen recognition device, screen recognition method, and screen recognition program Download PDFInfo
- Publication number
- JP6603194B2 JP6603194B2 JP2016220577A JP2016220577A JP6603194B2 JP 6603194 B2 JP6603194 B2 JP 6603194B2 JP 2016220577 A JP2016220577 A JP 2016220577A JP 2016220577 A JP2016220577 A JP 2016220577A JP 6603194 B2 JP6603194 B2 JP 6603194B2
- Authority
- JP
- Japan
- Prior art keywords
- grid
- screen
- relative position
- grid row
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画面認識装置、画面認識方法、および、画面認識プログラムに関する。 The present invention relates to a screen recognition device, a screen recognition method, and a screen recognition program.
オペレータは業務アプリケーション画面(画面)を操作することで、必要な業務情報を入力・登録したり、参照したりすることができる。多くの場合、オペレータは画面を介して業務を遂行するため、オペレータが操作する画面および動作を取得することで、オペレータの操作状況を機械的に推測することができる。画面の動作は、画面に関する情報とオペレータによる操作に関する情報の双方を認識することで獲得できる。画面に関する情報は、例えば、画面を総括する情報(ウィンドウタイトル、ウィンドウID、タイトルバーなど)、画面内のGUI部品に関する情報(各GUI部品のクラス、ID、テキスト名など)、これらの情報を取得した日時などがある。オペレータの操作に関する情報は、例えば、マウス操作やキーボード操作、およびこれらの操作対象である画面またはGUI部品の情報などがある。これらの情報を取得することで、オペレータがいつどのタイミングでどの画面のどのGUI部品にどのような値を入力したかを逐一取得することができる。以後、画面に関する情報を「画面情報」、オペレータの操作に関する情報を「操作情報」と呼ぶ。また、GUI部品を「オブジェクト」と呼ぶ。オペレータの画面情報を適切に認識するために、アプリケーションやオペレーションシステム毎に様々なAPIがある。例えば、(1)オブジェクトに付与されているIDを利用するAPI、(2)マウスのカーソル位置やキーボードの入力位置、画面上の相対位置など、位置情報からオブジェクトを指定するAPI、(3)画面上の配置関係から定義されたオブジェクト間の親子関係(オブジェクトツリー)を利用してオブジェクトを指定するAPIなどがある。 The operator can input / register necessary business information or refer to it by operating the business application screen (screen). In many cases, since the operator performs work through the screen, the operation state of the operator can be mechanically estimated by acquiring the screen and operation operated by the operator. The operation of the screen can be acquired by recognizing both information relating to the screen and information relating to operations by the operator. Information about the screen, for example, information that summarizes the screen (window title, window ID, title bar, etc.), information about GUI components in the screen (class, ID, text name, etc. of each GUI component), and obtain these information Date and time. Information relating to the operation of the operator includes, for example, mouse operation and keyboard operation, and information on the screen or GUI component that is the operation target. By acquiring these pieces of information, it is possible to acquire one by one what value the operator has input to which GUI component on which screen at what timing. Hereinafter, information relating to the screen is referred to as “screen information”, and information relating to the operation of the operator is referred to as “operation information”. Also, GUI parts are called “objects”. There are various APIs for each application and operation system to properly recognize operator screen information. For example, (1) API that uses an ID assigned to an object, (2) API that specifies an object from position information such as the mouse cursor position, keyboard input position, and relative position on the screen, and (3) screen There is an API for specifying an object using a parent-child relationship (object tree) between objects defined from the above arrangement relationship.
しかし、上記した従来技術は、様々なアプリケーションの画面情報を適切に取得できない可能性がある。例えば、上記の(1)の場合は、オブジェクトがIDをユニークに持たない場合にオブジェクトの情報を取得する手段がないという問題があった。上記の(2)の場合は、端末画面の一点を起点とした相対位置で計算するため、例えば、ディスプレイが異なる端末は、ウインドウサイズや解像度の規定値が異なるため、オブジェクトを正しく取得できない。また、フローテキスト型GUI(HTML)などはオブジェクトのサイズや位置が動的に変更するため、正しくオブジェクトを取得できないという問題があった。さらに、上記の(3)の場合は、あらかじめオブジェクトツリー構造を認識する必要があるが、オブジェクトツリー構造は各アプリケーション依存で作成される傾向がある。その場合、見た目が同じ画面でもツリーの深さやパスの構造、オブジェクトの個数が少しずつ異なるため、例えばオブジェクトツリーが動的に変化するアプリケーションではオブジェクトを取得できないという問題があった。 However, there is a possibility that the above-described conventional technology cannot appropriately acquire screen information of various applications. For example, in the case of (1), there is a problem that there is no means for acquiring object information when the object does not have a unique ID. In the case of (2) above, since the calculation is performed based on the relative position starting from one point on the terminal screen, for example, terminals with different displays have different window size and resolution prescribed values, and thus cannot acquire objects correctly. In addition, the flow text type GUI (HTML) or the like has a problem that the object cannot be acquired correctly because the size and position of the object change dynamically. Furthermore, in the case of (3) above, it is necessary to recognize the object tree structure in advance, but the object tree structure tends to be created depending on each application. In that case, even if the screen looks the same, the depth of the tree, the structure of the path, and the number of objects differ little by little, so there is a problem that an object cannot be acquired, for example, in an application in which the object tree changes dynamically.
また、上記の(2)のオブジェクト認識に画面の位置情報が依存する問題に対応して、オブジェクト間の相対関係をユーザがルールと定義し、その情報を制約条件として該当する解候補を求めることで画像内容に応じて適切なマスキングを行う技術が提案されている(特許文献1、特許文献2参照)。この技術によれば、各々のオブジェクトの絶対座標から各オブジェクトの配置の大小関係の順序付けを行うルールをx軸、y軸それぞれについて自動生成し、そのルールに基づいて各オブジェクトが配置されうる2次元領域を求める。これにより、各オブジェクトの配置位置や大きさに応じて、画面を適切に分割することができる。しかしながら、この技術は画面の分割を主目的としており、オブジェクトが他のオブジェクトから見て相対的にいずれかにあるかの情報を保持しない。そのため、例えば、「オブジェクトXの2つ右にあるオブジェクトの1つ下のオブジェクト」といったあるオブジェクトを軸に2次元的に他のオブジェクトを探索する用途には対応できない。
Further, in response to the problem that the position information on the screen depends on the object recognition of (2) above, the user defines a relative relationship between objects as a rule, and obtains a corresponding solution candidate using the information as a constraint condition. A technique for performing appropriate masking according to the image content is proposed (see
そこで本発明は、様々なアプリケーションにより表示される画面上の各オブジェクトに対してオブジェクト同士の相対関係を認識させることで、他のオブジェクトから相対的にオブジェクトを指定できるようにすることを課題とする。例えば、オブジェクトXがオブジェクトYの左にあるが、オブジェクトXを前述した方法で直接取得できない場合、オブジェクトYを取得した後に、相対関係を利用してオブジェクトYを起点にオブジェクトXを指定できるようにすること課題とする。 Accordingly, an object of the present invention is to make it possible to specify an object relative to other objects by causing each object on the screen displayed by various applications to recognize the relative relationship between the objects. . For example, if object X is on the left of object Y but object X cannot be obtained directly using the method described above, after acquiring object Y, object X can be specified starting from object Y using the relative relationship. Let's do that.
前記した課題を解決するため、本発明は、画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置であって、前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェトを配置した1以上のグリッド行群を生成するグリッド行生成部と、前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、を備えることを特徴とする。 In order to solve the above-described problem, the present invention is a screen recognition device that recognizes a relative relationship between objects displayed on a screen, and the screen information of the screen displays each object displayed on the screen. An object information acquisition unit that acquires absolute coordinate information; a relative position information acquisition unit that records a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object; A grid row generation unit that generates one or more grid row groups in which objects are arranged from left to right starting from the leftmost object on the screen based on the relative position information, and the grid row generated by the grid row generation unit A grid matrix in which groups are arranged according to the upper and lower relative positions of objects included in the grid row based on the relative position information. Form, characterized in that it comprises a grid arrangement section for outputting.
本発明によれば、様々なアプリケーションにより表示される画面上の各オブジェクトの相対関係を認識できる。その結果、他のオブジェクトから相対的にオブジェクトを指定することができる。 ADVANTAGE OF THE INVENTION According to this invention, the relative relationship of each object on the screen displayed by various applications can be recognized. As a result, an object can be specified relative to other objects.
以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は、本実施形態に限定されない。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment.
まず、図1を用いて本実施形態の画面認識装置100の概要を説明する。画面認識装置100は、アプリケーションにより表示される画面上のオブジェクトの相対的な位置を認識し、その認識結果を示す情報(画面認識情報)を出力する。画面認識情報は、例えば、図1に示すように、画面上の各オブジェクトの相対的な位置を最小のグリッド行列に配置した情報である。
First, the outline of the
例えば、画面認識装置100は、図1に示すように、画面情報(画面上の各オブジェクトの絶対位置座標等を示す情報)を取得すると、この画面情報から各オブジェクトの相対的な位置を示す、グリッド行列を生成し、出力する。
For example, as shown in FIG. 1, when the
なお、以下の説明において、画面上のオブジェクトの相対位置(相対関係)を表現するための格子状の矩形をグリッドと呼び、グリッドを所定の行列数で並べたものをグリッド行列と呼ぶ。また、このグリッド行列上のオブジェクトに、それぞれのオブジェクトの属性(例えば、イメージやボタン、ラベル等)や、オブジェクトに記載されたテキスト情報(例えば、「別のアカウントを使用」等)を併記してもよい。 In the following description, a grid-like rectangle for expressing the relative position (relative relationship) of objects on the screen is referred to as a grid, and a grid arranged in a predetermined number of matrices is referred to as a grid matrix. In addition, the attributes on each grid matrix (for example, images, buttons, labels, etc.) and text information (for example, “use another account”) written on the object are also written. Also good.
このように画面認識装置100が画面上の各オブジェクトの相対位置関係を抽象的に認識することで、例えば、操作支援に必要なオブジェクトを検索しやすくなる。
In this way, the
例えば、図2に示すように操作支援を行う装置が、操作対象となる画面上のオブジェクトの配置パターンや変数名定義を含む問い合わせ(クエリ)を受信すると、画面上から、クエリに示される配置パターンに合致するオブジェクト(図2の太線で囲まれたウィンドウ上にあるGUI部品)を検索することができる。そして、上記の装置は、検索されたオブジェクト(操作対象となるオブジェクト)を出力する。例えば、上記の装置は、操作対象となるbutton_setが太線で囲まれたウィンドウ上の23番目のオブジェクト(“設定”ボタン)であり、button_okが太線で囲まれたウィンドウ上の24番目のオブジェクト(“OK”ボタン)であるという結果を出力する。 For example, when the device that supports the operation as shown in FIG. 2 receives an inquiry (query) including the arrangement pattern of the object to be operated and the variable name definition, the arrangement pattern indicated by the query is displayed on the screen. It is possible to search for objects that match the above (GUI parts on the window surrounded by the thick line in FIG. 2). And said apparatus outputs the searched object (object used as operation object). For example, the above-described device is the 23rd object (“set” button) on the window where the button_set to be operated is surrounded by a thick line, and the 24th object (“ “OK” button) is output.
次に、図3を用いて、画面認識装置100の構成を説明する。画面認識装置100は、オブジェクト情報取得部111と、相対位置情報取得部112と、グリッド行生成部113と、グリッド配置部114とを備える。
Next, the configuration of the
また、画面認識装置100は、記憶部(図示省略)に、オブジェクト情報保持部121と、相対位置情報保持部122と、グリッド行保持部123とを備える。オブジェクト情報保持部121は、オブジェクト情報取得部111から出力されたオブジェクト情報を記憶する。相対位置情報保持部122は、相対位置情報取得部112から出力された相対位置情報を記憶する。グリッド行保持部123は、グリッド行生成部113から出力されたグリッド行を記憶する。
Further, the
オブジェクト情報取得部111は、アプリケーションの表示する画面の画面情報から、画面上に表示される各オブジェクトの相対位置を認識するための情報(オブジェクト情報)を取得する。例えば、オブジェクト情報は、例えば、class(属性)、text(テキスト情報)、area(絶対座標情報)等の情報である。
The object
例えば、オブジェクト情報取得部111は、図4に示す画面情報から、画面上のオブジェクトそれぞれにindex(例えば、1〜4)を付け、当該オブジェクトのclass(属性)、text(テキスト情報)、area(絶対座標情報)を取得し、図4に示すオブジェクト情報を生成する。そして、オブジェクト情報取得部111は生成したオブジェクト情報をオブジェクト情報保持部121に出力する。
For example, the object
相対位置情報取得部112は、オブジェクト情報に示される各オブジェクトの絶対座標情報から、画面上の任意の2つのオブジェクト間の相対位置を示す相対位置情報を取得する。つまり、相対位置情報取得部112は、各オブジェクトの絶対座標情報に基づき、画面上の任意の2つのオブジェクト間の相対位置を示す相対位置情報を生成し、相対位置情報保持部122に出力する。
The relative position
例えば、相対位置情報取得部112は、図5に示すように、オブジェクト情報に示される画面上の任意の2つのオブジェクトについて、一方のオブジェクトが他方のオブジェクトの、相対的に右/左/横方向に同位のオブジェクトか(左右相対関係)、相対的に下/上/縦方向に同位のオブジェクトか(上下相対関係)、縦/横方向に隣り合っている(最近傍の)オブジェクトか(最近傍オブジェクト)を判断する。そして、その判断結果を相対位置情報に記録する。
For example, as shown in FIG. 5, the relative position
例えば、相対位置情報取得部112は、2つのオブジェクト(obj1とobj2)について、符号501に示すように、obj2がobj1の相対的右に位置するか、obj1の相対的左に位置するか、obj1と横方向に同位(つまり、obj1とobj2とでx座標の少なくとも一部が重なっている)かを判断する。また、相対位置情報取得部112は、符号502に示すように、obj2が、obj1の相対的下に位置するか、obj1の相対的上に位置するか、obj1と縦方向に同位(つまり、obj1とobj2とでy座標の少なくとも一部が重なっている)かを判断する。さらに、相対位置情報取得部112は、符号503に示すように、obj2が、obj1に隣り合っている(離れていても良い)か、obj1に隣り合っていないか判断する。なお、obj2が、obj1に隣り合っていない場合とは、obj2とobj1との間に別オブジェクト(obj3)がある場合や、obj2が、obj1の斜め(縦にも横にも同位でない)に位置する場合等が該当する。
For example, for the two objects (obj1 and obj2), the relative position
例えば、obj2とobj1とが図6の(1)に示す各位置である場合、相対位置情報取得部112は、obj2が、obj1に対し縦/横方向に隣り合っている(最近傍の)オブジェクトと判断する。一方、obj2とobj1とが図6の(2)に示す各位置である場合、相対位置情報取得部112はobj2が、obj1に対し最近傍ではないと判断する。なお、相対位置情報取得部112は、図6に示すように、obj2とobj1とが重なっているような場合については扱わないものとする。
For example, when obj2 and obj1 are the positions shown in (1) of FIG. 6, the relative position
図3のグリッド行生成部113は、オブジェクトの相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置したグリッド行を生成する。そして、グリッド行生成部113は、生成したグリッド行を、例えば、最左上のオブジェクトを起点に、グリッド行を生成した順序でグリッド行保持部123に出力する。
The grid
例えば、グリッド行生成部113は、図7の左に示す画面上の8個のオブジェクトについて、相対位置情報において縦方向に同位にあるオブジェクトを同じグリッド行に左→右の順に並べ、図7の右に示す5行のグリッド行を生成する。なお、図7の右に示すグリッド行の左に付された数字は、グリッド行の取得順序または当該グリッド行が配置される行番号を示す。
For example, for the eight objects on the screen shown on the left in FIG. 7, the grid
また、例えば、グリッド行生成部113は、図8の左に示す画面上の14個のオブジェクトについて、相対位置情報において縦方向に同位にあるオブジェクトを同じグリッド行に左→右の順に並べ、図8の右に示す9行のグリッド行を生成する。
Further, for example, the grid
このように、グリッド行生成部113は、相対位置情報に基づき、画面上の最左上のオブジェクトを起点に相対的に縦方向に同位であるオブジェクト群を左から右へ配置してグリッド行を生成する処理を、グリッド行の下のオブジェクトがなくなるまで順次実行することでグリッド行群を生成する。
As described above, the grid
図3のグリッド配置部114は、グリッド行生成部113により生成されたグリッド行群を、相対位置情報に基づき、グリッド行に含まれるオブジェクトの上下の相対位置に従い配置することでグリッド行列を生成し、出力する。
The
例えば、グリッド配置部114は、グリッド行保持部123に記憶されるグリッド行群についてグリッド行の処理順(行番号順)に、各グリッド行に含まれるオブジェクトの上下の相対位置を保つように配置する。具体的には、グリッド配置部114は、相対位置情報を参照して、各グリッド行に含まれるオブジェクトのうち相対的に横方向に同位(図5参照)のオブジェクト間で上下の相対位置を保つように配置する。
For example, the
例えば、グリッド配置部114は、オブジェクトAに対し、オブジェクトBが相対的に横方向に同位かつ相対的上に位置する場合、グリッド行列においてオブジェクトAの上の位置かつ同じ列にオブジェクトBが来るように、オブジェクトAを含むグリッド列およびオブジェクトBを含むグリッド列を配置する。これにより、グリッド配置部114は、相対的に横方向に同位かつ相対的下/上に位置するオブジェクト同士を同じ列に配置したグリッド行列を生成することができる。このグリッド行の配置については、具体例を用いて後記する。
For example, when the object B is positioned relatively on the same side and relatively above the object A, the
また、グリッド配置部114は、グリッド行に含まれるオブジェクトのまま配置したのでは、グリッド行に含まれるオブジェクトのうち相対的に横方向に同位(図5参照)のオブジェクト間で上下の相対位置を保つことができない場合、グリッド行に含まれるオブジェクトの一部を増加させた上で配置する。ここでのオブジェクトの増加についても、具体例を用いて後記する。
Also, if the
ここでグリッド行の配置の具体例を説明する。なお、以下の説明において、「上位のオブジェクト」とは現在着目しているオブジェクトに対し、横方向に同位、かつ、相対的上にあるオブジェクトを指す。また、図9、図10および図11に示す説明において、例えば、オブジェクト1,2,…は、適宜「1,2,…」等と略して表記している。
Here, a specific example of grid row arrangement will be described. In the following description, the “higher object” refers to an object that is in the horizontal direction and relatively above the currently focused object. In the description shown in FIGS. 9, 10, and 11, for example, the
例えば、グリッド配置部114は、図7に示したグリッド行について、図9に示すようにしてグリッド行を配置し、グリッド行列を生成する。
For example, the
まず、グリッド配置部114は、図9に示すグリッド行群から、1行目のグリッド行を取り出す(図9のS1)。次に、グリッド配置部114は、2行目のグリッド行を取り出すと、2行目のグリッド行のオブジェクト3の上位にオブジェクト1を持つため、1行目のグリッド行のオブジェクト3の上にオブジェクト1を追加する(S2)。そして、グリッド配置部114は3行目のグリッド行を取り出すと、それぞれのグリッド行のオブジェクトの上下の相対位置は保たれているので、配置の変更無しとして(S3)、S4へ進む。
First, the
S3の後、グリッド配置部114は、4行目のグリッド行を取り出すと、それぞれのグリッド行のオブジェクトの上下の相対位置は保たれているので、配置の変更無しとして(S4)、S5へ進む。その後、グリッド配置部114は、5行目のグリッド行を取り出す。ここで、5行目のグリッド行のオブジェクト7は上位にオブジェクト6を持つため、グリッド配置部114は、オブジェクト7がオブジェクト6の下になるように配置する。また、オブジェクト8の上位に1を持つため、グリッド配置部114は、オブジェクト8がオブジェクト1の下になるようにオブジェクト1を追加する(S5)。このようにすることでグリッド配置部114は、図7に示したグリッド行群の配置を完了する。
After S3, when the
また、例えば、グリッド配置部114は、図8に示したグリッド行について、図10、図11に示すようにしてグリッド行を配置する。
For example, the
すなわち、グリッド配置部114は、図8に示すグリッド行群から、1行目のグリッド行を取り出し(図10のS11)、次に、2行目のグリッド行を取り出すと、オブジェクト3の上位にオブジェクト1を持つため、1行目のグリッド行の2列目にオブジェクト1を追加し(S12)、S13へ進む。続いて、グリッド配置部114は3行目のグリッド行を取り出すと、オブジェクト4の上位(相対的上)にオブジェクト1,2,3を持つため、3行目のグリッド行の2列目にオブジェクト4を追加する(S13)。
That is, when the
S13の後、グリッド配置部114は、4行目のグリッド行を取り出すと、4行目のグリッド行のオブジェクト5は上位にオブジェクト1,2,3,4を持つため、4行目のグリッド行の2列目にオブジェクト5を追加する(S14)。
After S13, when the
S14の後、グリッド配置部114は、5行目のグリッド行を取り出す。ここで、5行目のグリッド行のオブジェクト6は上位にオブジェクト1,3,4を持つが、オブジェクト2,5を持たないため、グリッド配置部114は、新たな列(3列目)に5行目のグリッド行の行頭(オブジェクト6)が来るように配置し、また、その列(3列目)にオブジェクト1,3,4を追加する(S15)。つまり、グリッド配置部114は、4行目のグリッド行を配置した上で、符号1001に示すオブジェクトからなる列を追加する。
After S14, the
S15の後、グリッド配置部114は、6行目のグリッド行を取り出す。ここで、6行目のグリッド行のオブジェクト7は上位にオブジェクト1〜5を持つため、グリッド配置部114は、6行目のグリッド行の2列目にオブジェクト7を追加する(S16)。ここで、S16の処理後、6行目のグリッド行のオブジェクト8は3列目以降にしか配置できない。更に、オブジェクト8は上位にオブジェクト1,3,4,5,6を持つため、グリッド配置部114は、3列目の前にオブジェクト1,3,4,5,8を追加する(S17)。つまり、グリッド配置部114は、6行目のグリッド行を配置した上で、3列目に符号1002に示すオブジェクトからなる列を挿入する。
After S15, the
S17の後、グリッド配置部114は、7行目のグリッド行を取り出す。ここで、7行目のグリッド行のオブジェクト9は上位にオブジェクト1〜8を持つため、グリッド配置部114は、7行目のグリッド行の2〜4列目にオブジェクト9を追加する(S18)。
After S17, the
図11のS19の説明に移る。S18の後、7行目のグリッド行のオブジェクト10は上位にオブジェクト1,3,4,6,8を持つため、グリッド配置部114は、5列目に、それら(オブジェクト1,3,4,6,8)とオブジェクト10を配置する(S19)。
Turning to the description of S19 in FIG. After S18, since the
S19の後、グリッド配置部114は、8行目のグリッド行を取り出す。ここで、8行目のグリッド行のオブジェクト11は上位にオブジェクト1〜10を持つため、グリッド配置部114は、8行目のグリッド行の2〜4列目にオブジェクト11を追加する(S20)。
After S19, the
S20の後、グリッド配置部114は、9行目のグリッド行を取り出す。ここで、9行目のグリッド行のオブジェクト12は上位にオブジェクト1,3,4,5,6,8,9,11を持つため、3,4列目にオブジェクト12を配置する(S21)。
After S20, the
S21の後、9行目のグリッド行のオブジェクト13は上位にオブジェクト1,3,4,6,8,9,10,11を持つが、オブジェクト9が不足し、かつオブジェクト13は5列目以降にしか配置できない。そのため、グリッド配置部114は、4〜5列目の間に列を挿入してオブジェクト1,3,4,6,8,9,11,13の列を追加する(S22)。
After S21, the
S22の後、9行目のグリッド行のオブジェクト14は上位にオブジェクト1,3,4,6,8,10を持つが、7列目以降にしか配置できない。そのため、グリッド配置部114は、7列目(オブジェクト14の上位)にオブジェクト1,3,4,6,8,10を追加する(S23)。
After S22, the
このようにすることで、グリッド配置部114は、オブジェクト間の上下左右の相対位置を反映したグリッド行列を生成することができる。また、グリッド配置部114は、グリッド行列を生成する際、相対的に縦方向に同位かつ相対的左/右に位置するオブジェクト同士を同じ行に配置し、また、相対的に横方向に同位かつ相対的下/上に位置するオブジェクト同士を同じ列に配置する。
By doing in this way, the grid arrangement | positioning
これにより、グリッド配置部114は、画面上で横方向にほぼ同じ位置に並んでいるオブジェクトを同じ行に配置し、画面上で縦方向にほぼ同じ位置に並んでいるオブジェクトを同じ列に配置したグリッド行列を得ることができる。つまり、グリッド配置部114は画面上でオブジェクトの配置ズレがあったとしてもこれを丸め込んだ画面認識情報(グリッド行列)を生成することができる。換言すると、グリッド配置部114はロバストに画面上のオブジェクトの位置関係を認識することができる。
Thereby, the
(処理手順)
次に、図12Aを用いて画面認識装置100の処理手順の概要を説明する。まず、画面認識装置100のオブジェクト情報取得部111は、画面情報に基づきオブジェクト情報を取得し(S121:オブジェクト情報取得)、相対位置情報取得部112は、オブジェクト情報における各オブジェクトの絶対座標情報に基づき、オブジェクト間の相対位置情報を取得する(S122:相対位置情報取得)。そして、グリッド行生成部113は、相対位置情報に基づき、グリッド行を生成し(S123:グリッド行生成)、グリッド配置部114は、生成したグリッド行を配置する(S124:グリッド配置)。
(Processing procedure)
Next, the outline of the processing procedure of the
次に、図12Bを用いて、図12AのS121のオブジェクト情報取得処理を詳細に説明する。まず、オブジェクト情報取得部111は、画面情報を読み込み(S1211)、画面情報から各オブジェクトのクラス(class)、絶対座標(area)、あればテキスト(text)を取得し(S1212)、各オブジェクトにインデックス(index)を振る(S1213)。そして、オブジェクト情報取得部111は、各オブジェクトのクラス(class)、絶対座標(area)、あればテキスト(text)、インデックス(index)を対応付けた情報(オブジェクト情報)をオブジェクト情報保持部121へ出力する(S1214)。
Next, the object information acquisition process of S121 of FIG. 12A will be described in detail using FIG. 12B. First, the object
なお、オブジェクト情報は、オブジェクトごとにクラスを生成し、プロパティとして情報を保持してもよいし、行列で保持してもよい。 Note that the object information may be generated as a class for each object, and the information may be held as a property, or may be held in a matrix.
次に、図13を用いて、図12AのS122の相対位置情報取得処理を詳細に説明する。まず、相対位置情報取得部112は、オブジェクト情報保持部121のオブジェクト情報を読み込むと(S1221)、各オブジェクトの絶対座標に基づき、各オブジェクトの左右相対関係を取得し(S1222:左右相対関係取得)、上下相対関係を取得し(S1223:上下相対関係取得)、最近傍オブジェクトを取得する(S1224:最近傍オブジェクト取得)。そして、相対位置情報取得部112は、取得した情報を相対位置情報として記録し、相対位置情報保持部122へ出力する(S1225)。
Next, the relative position information acquisition process in S122 of FIG. 12A will be described in detail with reference to FIG. First, when the relative position
なお、相対位置情報は、オブジェクトごとにリストで保持してもよいし、行列で保持してもよい。また、相対位置を計算するための関数を用意しておき、相対位置情報取得部112が都度、オブジェクトの相対位置を計算するようにしてもよい。
The relative position information may be held in a list for each object or in a matrix. Also, a function for calculating the relative position may be prepared, and the relative position
次に、図14を用いて、図13のS1222の左右相対関係取得処理を詳細に説明する。ここでは、2つのオブジェクト(obj1とobj2)の左右の相対関係(相対位置)を判断する場合を例に説明する。 Next, the left-right relative relationship acquisition process of S1222 of FIG. 13 will be described in detail with reference to FIG. Here, a case where the left-right relative relationship (relative position) between two objects (obj1 and obj2) is determined will be described as an example.
なお、以下の説明では、obj1の左上の座標を(px1,py1)、右下の座標を(qx1,qy1)とし、obj2の左上の座標を(px2,py2)、右下の座標を(qx2,qy2)とする。 In the following explanation, the upper left coordinate of obj1 is (px1, py1), the lower right coordinate is (qx1, qy1), the upper left coordinate of obj2 is (px2, py2), and the lower right coordinate is (qx2 , Qy2).
相対位置情報取得部112は、オブジェクト情報からオブジェクト(obj1とobj2)の座標位置の情報を読み込み(S131)、obj1とobj2の座標位置がx軸方向についてpx2≧qx1(S132で「px2≧qx1」)、つまり、obj1のx軸最大値がobj2のx軸最小値以下ならば、obj2はobj1の相対右(val=1)であると判断する(S133)。
The relative position
一方、obj1とobj2の座標位置がx軸方向についてqx2≦px1(S132で「qx2≦px1」)、つまり、obj1のx軸最小値がobj2のx軸最大値以上ならば、相対位置情報取得部112は、obj2はobj1の相対的左(val=-1)であると判断する(S134)。
On the other hand, if the coordinate position of obj1 and obj2 is qx2 ≦ px1 in the x-axis direction (“qx2 ≦ px1” in S132), that is, if the minimum x-axis value of obj1 is greater than or equal to the maximum x-axis value of obj2, the relative position
さらに、px2≧qx1でもqx2≦px1でもない場合(S132で「else」)、つまり、px1≦px2≦qx1またはpx1≦qx2≦qx1の場合、相対位置情報取得部112は、obj2はobj1と横方向に同位(val=0)であると判断する(S135)。
Further, when neither px2 ≧ qx1 nor qx2 ≦ px1 (“else” in S132), that is, when px1 ≦ px2 ≦ qx1 or px1 ≦ qx2 ≦ qx1, the relative position
そして、相対位置情報取得部112は、S133〜S135の判断結果(val)をオブジェクトの左右相対関係に関する情報として出力する(S136)。
Then, the relative position
次に、図15を用いて、図13のS1223の上下相対関係取得処理を詳細に説明する。ここでも、2つのオブジェクト(obj1とobj2)の上下の相対位置を判断する場合を例に説明する。なお、図15に示すようにオブジェクトのy軸の値は画面下のオブジェクトほど高い値になるものとする。 Next, with reference to FIG. 15, the vertical relative relationship acquisition process in S1223 of FIG. 13 will be described in detail. Here again, a case where the relative positions of the two objects (obj1 and obj2) are determined will be described as an example. As shown in FIG. 15, it is assumed that the y-axis value of an object becomes higher as the object at the bottom of the screen.
相対位置情報取得部112は、オブジェクト情報からオブジェクト(obj1とobj2)の座標位置の情報を読み込み(S141)、obj1とobj2の座標位置がy軸方向についてpy2≧qy1(S142で「py2≧qy1」)、つまり、obj1のy軸最大値がobj2のy軸最小値以下ならば、obj2はobj1の相対的下(val=1)であると判断する(S143)。
The relative position
一方、obj1とobj2の座標位置がy軸方向についてqy2≦py1(S142で「qy2≦py1」)、つまり、obj1のy軸最小値がobj2のy軸最大値以上ならば、相対位置情報取得部112は、obj2はobj1の相対的上(val=-1)であると判断する(S144)。
On the other hand, if the coordinate positions of obj1 and obj2 are qy2 ≦ py1 in the y-axis direction (“qy2 ≦ py1” in S142), that is, if the minimum y-axis value of obj1 is greater than or equal to the maximum y-axis value of obj2, the relative position
さらに、py2≧qy1でもqy2≦py1でもない場合(S142で「else」)、相対位置情報取得部112は、obj2はobj1と縦方向に同位(val=0)であると判断する(S145)。
Further, when neither py2 ≧ qy1 nor qy2 ≦ py1 (“else” in S142), the relative position
そして、相対位置情報取得部112は、S143〜S145の判断結果(val)をオブジェクトの上下相対関係に関する情報として出力する(S146)。
Then, the relative position
次に、図16を用いて、図13のS1224の最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の左右相対関係および上下相対関係に関する情報を読み込み(S152)、オブジェクト(obj1)の横方向最近傍オブジェクトを取得し(S153)、また、オブジェクト(obj1)の縦方向最近傍オブジェクトを取得すると(S154)、これらをまとめてオブジェクト(obj1)の最近傍オブジェクトとして出力する(S155)。例えば、相対位置情報取得部112は、符号1601に示すオブジェクト(obj2)のうち、太線で囲まれたオブジェクト(obj2)をオブジェクト(obj1)の最近傍オブジェクトとして出力する。
Next, the nearest object acquisition process in S1224 of FIG. 13 will be described in detail with reference to FIG. For example, the relative position
次に、図17を用いて、図16のS153の横方向最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の左右相対関係に関する情報を読み込み(S161)、横方向最近傍オブジェクト群neighbor={}を設定する(S162)。なお、S162の段階ではneighbor={}は空の状態である。
Next, the horizontal direction nearest neighbor object acquisition process of S153 in FIG. 16 will be described in detail with reference to FIG. For example, the relative position
S162の後、相対位置情報取得部112は、obj1の左右相対関係に関する情報から、obj1と縦方向に同位のオブジェクト群(M)を取得する(S163)。例えば、相対位置情報取得部112は、吹き出し1701に示すobj2群を取得する。
After S162, the relative position
S163の後、相対位置情報取得部112は、上記のMに属するobj2それぞれについてS164〜S170に示す処理を実行する。すなわち、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的左であり(S164で「相対的左」)、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S165でNo)、当該obj2をobj1の最近傍と判断しneighborに追加する(S167)。
After S163, the relative position
一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S165でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S168)。また、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的右である場合(S164で「相対的右」)も同様に、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S166でNo)、当該obj2をobj1の最近傍と判断し、neighborに追加する(S169)。
On the other hand, if there is an object arranged between obj2 and obj1 in M (Yes in S165), the relative position
一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S166でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S170)。
On the other hand, if there is an object arranged between obj2 and obj1 in M (Yes in S166), the relative position
そして、相対位置情報取得部112は、S167〜S170の処理により、obj1の最近傍と判断されたobj2群を横方向最近傍オブジェクト群neighborとして出力する(S171)。
Then, the relative position
例えば、相対位置情報取得部112は、吹き出し1701に示すobj2群のうち、○の付されたobj2群についてobj1の横方向最近傍オブジェクト群neighborとして出力する。一方、吹き出し1701に示すobj2群のうち、×の付されたobj2群はobj1との間に他のオブジェクトが配置されるので横方向最近傍オブジェクト群neighborとして出力しない。
For example, the relative position
次に、図18を用いて、図16のS154の縦方向最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の上下相対関係に関する情報を読み込み(S172)、縦方向最近傍オブジェクト群neighbor={}を設定する(S173)。なお、S173の段階ではneighbor={}は空の状態である。
Next, with reference to FIG. 18, the vertical nearest neighbor object acquisition processing in S154 of FIG. 16 will be described in detail. For example, the relative position
S173の後、相対位置情報取得部112は、obj1の上下相対関係に関する情報から、obj1と横方向に同位のオブジェクト群(M)を取得する(S174)。例えば、相対位置情報取得部112は、吹き出し1801に示すobj2群を取得する。
After S173, the relative position
そして、相対位置情報取得部112は、Mに属するobj2それぞれについてS175〜S181に示す処理を実行する。すなわち、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的上であり(S175で「相対的上」)、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S176でNo)、当該obj2をobj1の最近傍と判断しneighborに追加する(S178)。
Then, the relative position
一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S176でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S179)。また、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的下である(S175で「相対的下」)場合も同様に、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S177でNo)、当該obj2をobj1の最近傍と判断し、neighborに追加する(S180)。一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S177でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S181)。
On the other hand, if there is an object arranged in M between obj2 and obj1 (Yes in S176), the relative position
そして、相対位置情報取得部112は、S178〜S181の処理により、obj1の最近傍と判断されたobj2群を縦方向最近傍オブジェクト群neighborとして出力する(S182)。例えば、相対位置情報取得部112は、吹き出し1801に示すobj2群のうち、○の付されたobj2群についてobj1の縦方向最近傍オブジェクト群neighborとして出力する。なお、吹き出し1801に示すobj2群のうち、×の付されたobj2群はobj1との間に他のオブジェクトが配置されるので縦方向最近傍オブジェクト群neighborには含めない。
Then, the relative position
以上の処理により、相対位置情報取得部112が、各オブジェクトの相対的左/右および相対的下/上の位置関係と、最近傍のオブジェクトとを示した相対位置情報を作成することができる。
With the above processing, the relative position
次に、図19を用いて、図12AのS123のグリッド行生成処理を詳細に説明する。 Next, the grid row generation process in S123 of FIG. 12A will be described in detail with reference to FIG.
まず、グリッド行生成部113は、オブジェクト群の相対位置情報を読み込む(S191)。次に、グリッド行生成部113は、オブジェクト群の相対位置情報を参照して、obj(処理対象とするオブジェクト)として最左上のオブジェクトを選択し(obj←最左上のオブジェクト)、グリッド行集合S={}、探索済オブジェクト集合CS={}、未探索オブジェクト集合US={}を設定する(S192)。なお、S192の段階で、未探索オブジェクト集合USには、S191で読み込んだ相対位置情報の対象となるオブジェクト群が設定される。
First, the grid
そして、グリッド行生成部113は、すべてのオブジェクトを処理するまで、S193〜S199の処理を実行する。
And the grid line production |
まず、グリッド行生成部113は、オブジェクト群の相対位置情報を参照して、objと縦方向に同位のオブジェクト群を左→右の順に取得し、これをグリッド行とする(S193)。次に、グリッド行生成部113は、S193で得たグリッド行をグリッド行集合Gに追加し(S194)、CS(探索済オブジェクト集合)にグリッド行を追加し、US(未探索オブジェクト集合)からグリッド行を削除する(S195)。
First, the grid
S195の後、グリッド行生成部113が、相対位置情報を参照して、objの相対的下にあり、かつ最近傍のオブジェクトが存在すると判断した場合(S196でYes)、当該最近傍のオブジェクト群の中で、最も上のオブジェクト群を取得する(S197)。そして、グリッド行生成部113は、取得したオブジェクト群の中で最も左にあるオブジェクトを次のobjとする(S199)。例えば、グリッド行生成部113は、吹き出し1901に示すように、objの下に最近傍のオブジェクト群があれば、その中でy軸の値が最も小さいオブジェクト(太線で示したオブジェクト)を次のobjとする。そして、グリッド行生成部113は、この次のobjを対象としてS193以降の処理を行う。
After S195, when the grid
一方、グリッド行生成部113が、相対位置情報を参照して、objの相対的下にオブジェクトが存在しない、または、objの相対的下にオブジェクトが存在したとしても、当該オブジェクトはobjの最近傍のオブジェクトではないと判断した場合(S196でNo)、グリッド行生成部113は、US(未探索オブジェクト集合)から最上位のオブジェクト群を取得し(S198)、S199へ進む。
On the other hand, even if the grid
グリッド行生成部113は、上記の処理を未探索オブジェクト集合US={}が空になるまで実行し、生成したグリッド行集合を出力する(S200)。
The grid
以上の処理により、グリッド行生成部113は、横方向に同位のオブジェクト群を左から横に並べたグリッド行を生成することができる。例えば、グリッド行生成部113は、図7に示す画面のオブジェクト群から、図8に示すグリッド行群を生成する。
Through the above processing, the grid
次に、図20を用いて、図12AのS124のグリッド配置処理を詳細に説明する。例えば、グリッド配置部114は、グリッド行集合を読み込み(S201)、読み込んだグリッド行集合Sをy軸の小さい順(グリッド行の位置が高いものから低い順)にソートする(S202)。次に、グリッド配置部114は、初期グリッドGを生成し、1行目にグリッド行集合Sの1行目を配置する(S203)。例えば、グリッド配置部114は、符号2001に示す初期グリッドGを生成すると、1行目にグリッド行集合Sの1行目(オブジェクト1を含むグリッド行列)を配置する。
Next, the grid arrangement process in S124 of FIG. 12A will be described in detail with reference to FIG. For example, the
そして、グリッド配置部114は、グリッド行集合Sのすべてのグリッド行を処理するまで、S204〜S209に示す処理を実行する。
And the grid arrangement | positioning
まず、グリッド配置部114は、グリッド行集合Sをx軸の小さい順にソートし(S204)、グリッド行上の各オブジェクト(obj)に対して、S205〜S209の処理を実行する。つまり、グリッド配置部114は、グリッド行集合Sからobjが配置できる最小列番号iを取得する(S205)。次に、グリッド配置部114は、グリッド行集合Sにおいてobjの上位のオブジェクト群のある列群を取得し(S206)、以下に示す条件を満たす列群がi列以降に存在するか否かを判断する(S207)。
First, the
この条件とは、上位(相対的上かつ横に同位)のオブジェクト群をu、グリッド列(S206で取得した列群)をq={q1,q2,…,qn}、xiをグリッド列iにオブジェクトを配置するか否か(1/0)とするとき、qはuの部分集合(q⊆u)、かつ、Σqi xi=|u|であるように配置する、という条件である。 This condition is that the upper (relatively upper and laterally equal) object group is u, the grid column (column group acquired in S206) is q = {q1, q2,..., Qn}, and xi is the grid column i. When it is determined whether or not the object is to be arranged (1/0), q is a condition that q is arranged so as to be a subset (q⊆u) of u and Σqi xi = | u |.
つまり、あるオブジェクトiと同じ列に配置されるオブジェクトは、オブジェクトiの上位のいずれかのオブジェクトであり、かつ、オブジェクトiと同じ列に配置されるオブジェクトの種類の数は、オブジェクトiの上位(オブジェクトiの相対的上かつ横に同位)のオブジェクトの個数と同じである、という条件である。換言すると、オブジェクトiと同じ列の上位に配置されるオブジェクト群は、相対位置情報において当該オブジェクトiの上位に存在するすべてのオブジェクトを網羅している、という条件である。 That is, an object arranged in the same column as an object i is one of the objects above the object i, and the number of types of objects arranged in the same column as the object i is higher than the object i ( The condition is that the number of objects that are relatively on the side of the object i and the same on the side is the same. In other words, the condition is that the object group arranged at the top of the same column as the object i covers all the objects existing above the object i in the relative position information.
S207において、グリッド配置部114は、上記条件を満たす列群がi列以降に存在すると判断した場合(S207でYes)、G(グリッド)のobjを上記の条件を満たす列に配置する(S208)。一方、グリッド配置部114は、上記条件を満たす列群がi列以降に存在しないと判断した場合(S207でNo)、G(グリッド)に列に挿入する(S209)。この列の挿入処理について、図21を用いて後記する。
In S207, when the
そして、グリッド配置部114は、上記の処理をグリッド行集合のすべてのグリッド行に対し行うと、生成したグリッド(グリッド行列)を出力する(S210)。
And if the grid arrangement | positioning
以上の処理により、グリッド配置部114は、縦方向に同位のオブジェクト群が同じ列になるよう配置したグリッド行列を生成することができる。
Through the above processing, the
次に、図21を用いて、図20のS209の列の挿入処理を詳細に説明する。グリッド配置部114は、探索行(objの上位のオブジェクト群が存在するグリッド行)の最右列に配置されているオブジェクトをobj2とする(S2091)。そして、グリッド配置部114がobj2はobj1の相対的右であると判断した場合(S2092でYes)、obj2の配置されている行の最左の左側に空の列を追加する(S2093)。
Next, with reference to FIG. 21, the column insertion processing in S209 of FIG. 20 will be described in detail. The
S2093の後、グリッド配置部114は、obj2と上位のオブジェクト群を追加したときに他の各行の配置順に矛盾が発生しないようにobjの上位のオブジェクトとobjを配置する(S2094)。つまり、グリッド配置部114は、追加対象のオブジェクトの配置される行について、相対位置情報を参照して、他のオブジェクトが正しい相対位置関係であるかどうかをチェックする。そして、グリッド配置部114は、相対位置関係に矛盾が発生する場合は矛盾を解消するように、オブジェクトの左または右に列を追加する。
After S2093, the
一方、グリッド配置部114がobj2はobj1の相対的右ではなく(S2092でNo)、相対的左と判断した場合(S2095でYes)、グリッド配置部114は、最右列+1列目に空の列を追加して、各行の配置順に矛盾が発生しないようにobjの上位のオブジェクトとobjを配置する(S2096)。なお、グリッド配置部114がobj2はobj1の相対的右でもなく(S2092でNo)、相対的左でもないと判断した場合(S2095でNo)、S2096の処理は行わない。
On the other hand, when the
以上の処理により、グリッド配置部114は、縦方向に同位のオブジェクト群が同じ列になるよう配置したグリッド行列を確実に生成することができる。
Through the above processing, the
(本実施形態の適用例)
以上説明した画面認識装置100によれば、様々なアプリケーションにより表示される画面上の各オブジェクトに対してオブジェクト同士の相対関係を認識できる。
(Application example of this embodiment)
According to the
例えば、画面認識装置100は、図22の符号2200に示す旅行の予約用アプリケーションの画面上のオブジェクトの配置を認識し、符号2201に示す画面認識情報(グリッド行列)を得る。
For example, the
これにより、当該アプリケーションの画面上の情報の検索システムは、符号2201の画面情報におけるImage,Buttonオブジェクト削除、項目名の定義(例えば、Labelクラスを項目名とする、指定のラベル名を項目名とするなど)の処理を行うことで、符号2202に示す画面認識情報を得る。これにより、検索システムは、「往路に関する情報をまとめて抽出」等、項目名を利用した高度な検索ができる。
Thereby, the information retrieval system on the screen of the application concerned deletes the Image and Button objects in the screen information denoted by
さらに、上記の画面認識装置100による画面認識技術を用いることで、アプリケーションの画面上のオブジェクトの相対位置による問い合わせ検索もできる。
Further, by using the screen recognition technology by the
例えば、図23の(1)に示すように、アプリケーションの画面上における、「決裁状況」の3つ右の画像が比較元の画像(アイコン)と同じかをチェックするというクエリ(問い合わせ)を受け付けた場合において、アプリケーションの画面上における、「決裁状況」の3つ右の画像が比較元の画像(アイコン)と同じか否かの結果を返すことができる。 For example, as shown in (1) of FIG. 23, a query (inquiry) for checking whether the image on the right of “decision status” on the application screen is the same as the image (icon) of the comparison source is accepted. In this case, it is possible to return a result as to whether or not the image on the right of the “decision status” on the screen of the application is the same as the comparison source image (icon).
さらに、例えば、図23の(2)に示すように、アプリケーションの画面上における、「備品番号」の下にある画像群の中で「95-600727」を検索するクエリ(問い合わせ)を受け付けた場合において、アプリケーションの画面上における、「備品番号」の下にある画像群の中で「95-600727」の検索結果を返すことができる。 Further, for example, as shown in (2) of FIG. 23, when a query (inquiry) for searching for “95-600727” in the image group under “equipment number” on the application screen is received. The search result “95-600727” in the image group under the “equipment number” on the application screen can be returned.
また、上記の画面認識装置100による画面認識技術を既存の画像マッチング技術と組み合わせることで、特定し終わった各々の画像要素に対して、さらに相対位置情報を利用して絞り込んだマッチングを行い、より条件に合った正しい要素を選択する等、高精度なマッチングを実現することもできる。
In addition, by combining the screen recognition technology by the
(プログラム)
また、上記の実施形態で述べた画面認識装置100は、画面認識装置100の機能を実現する画面認識プログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記の画面認識プログラムを情報処理装置に実行させることにより、情報処理装置を画面認識装置100として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、画面認識装置100を、クラウドサーバに実装してもよい。
(program)
The
以下に、上記の画面認識プログラムを実行するコンピュータの一例を説明する。図24は、画面認識プログラムを実行するコンピュータを示す図である。図24に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
An example of a computer that executes the above screen recognition program will be described below. FIG. 24 is a diagram illustrating a computer that executes a screen recognition program. As shown in FIG. 24, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図24に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
Here, as shown in FIG. 24, the hard disk drive 1090 stores, for example, an
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Then, the
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
100 画面認識装置
111 オブジェクト情報取得部
112 相対位置情報取得部
113 グリッド行生成部
114 グリッド配置部
121 オブジェクト情報保持部
122 相対位置情報保持部
123 グリッド行保持部
DESCRIPTION OF
Claims (9)
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成部と、
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、
を備えることを特徴とする画面認識装置。 A screen recognition device for recognizing a relative relationship between objects displayed on a screen,
From the screen information of the screen, an object information acquisition unit that acquires absolute coordinate information of each object displayed on the screen;
Based on the absolute coordinate information of each object, a relative position information acquisition unit that records the relative position between any two objects on the screen as relative position information;
A grid row generation unit that generates a grid row group including one or more grid rows in which the objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation unit is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid layout unit for generating and outputting a matrix;
A screen recognition apparatus comprising:
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、 From the screen information of the screen, an object information acquisition unit that acquires absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、 Based on the absolute coordinate information of each object, a relative position information acquisition unit that records the relative position between any two objects on the screen as relative position information;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成部と、 Based on the relative position information, a grid row generation unit that generates a grid row group including one or more grid rows in which objects are arranged from left to right starting from an object at the upper left of the screen;
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、 A grid in which the grid row group generated by the grid row generation unit is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid layout unit for generating and outputting a matrix;
を備えることを特徴とする画面認識装置。 A screen recognition apparatus comprising:
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に相対的に縦方向に同位であるオブジェクト群を左から右へ配置してグリッド行を生成する処理を、前記グリッド行の下のオブジェクトがなくなるまで順次実行することで前記グリッド行群を生成することを特徴とする請求項1または2に記載の画面認識装置。 The grid row generation unit
Based on the relative position information, a process of generating a grid row by arranging a group of objects that are peers relative to each other in the vertical direction relative to the upper left object on the screen from the left to the right. screen recognition apparatus according to claim 1 or 2, characterized in that to generate the grid line group by sequentially executed until the object disappears.
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置する際、前記グリッド行に含まれるオブジェクトのうち相対的に横方向に同位のオブジェクトで前記上下の相対位置を保つように配置することを特徴とする請求項1または2に記載の画面認識装置。 The grid placement unit is
When the grid row group generated by the grid row generation unit is arranged according to the relative vertical position of the objects included in the grid row based on the relative position information, the relative among the objects included in the grid row screen recognition apparatus according to claim 1 or 2 laterally object isotopically characterized in that arranged to keep the relative position of the upper and lower.
前記グリッド行生成部により生成されたグリッド行群では、前記グリッド行に含まれるオブジェクト同士が上下の相対位置を保つように配置できない場合、前記グリッド行に含まれるオブジェクトの一部を増加させた上で配置することを特徴とする請求項1または2に記載の画面認識装置。 The grid placement unit is
In the grid row group generated by the grid row generation unit, when the objects included in the grid row cannot be arranged so as to keep the relative positions of the top and bottom, a part of the objects included in the grid row is increased. in screen recognition apparatus according to claim 1 or 2, characterized in that disposed.
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、
を含んだことを特徴とする画面認識方法。 A screen recognition device that recognizes the relative relationship between objects displayed on the screen,
From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
A grid row generation step for generating a grid row group including one or more grid rows in which objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation step is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
The screen recognition method characterized by including.
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、 From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、 A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、 A grid row generation step for generating a grid row group including one or more grid rows in which an object is arranged from left to right starting from the leftmost object on the screen based on the relative position information;
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、 A grid in which the grid row group generated by the grid row generation step is arranged according to the relative vertical position of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
を含んだことを特徴とする画面認識方法。 The screen recognition method characterized by including.
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、
をコンピュータに実行させることを特徴とする画面認識プログラム。 A screen recognition program for recognizing a relative relationship between objects displayed on a screen,
From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
A grid row generation step for generating a grid row group including one or more grid rows in which objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation step is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
A screen recognition program for causing a computer to execute.
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、 From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、 A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、 A grid row generation step for generating a grid row group including one or more grid rows in which an object is arranged from left to right starting from the leftmost object on the screen based on the relative position information;
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、 A grid in which the grid row group generated by the grid row generation step is arranged according to the relative vertical position of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
をコンピュータに実行させることを特徴とする画面認識プログラム。 A screen recognition program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220577A JP6603194B2 (en) | 2016-11-11 | 2016-11-11 | Screen recognition device, screen recognition method, and screen recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220577A JP6603194B2 (en) | 2016-11-11 | 2016-11-11 | Screen recognition device, screen recognition method, and screen recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018077762A JP2018077762A (en) | 2018-05-17 |
JP6603194B2 true JP6603194B2 (en) | 2019-11-06 |
Family
ID=62150902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016220577A Active JP6603194B2 (en) | 2016-11-11 | 2016-11-11 | Screen recognition device, screen recognition method, and screen recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6603194B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
JP7395513B2 (en) * | 2018-06-13 | 2023-12-11 | リアルウェア,インコーポレーテッド | Customizing the user interface of binary applications |
KR101929201B1 (en) * | 2018-06-18 | 2018-12-14 | (주)투비소프트 | Method and apparatus for structuring component that supports n-screen using single code in business application |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276496A (en) * | 1999-03-25 | 2000-10-06 | Amada Metrecs Co Ltd | Method for calculating relative position of graphics and storage medium for storing program of this method |
JP2008225683A (en) * | 2007-03-09 | 2008-09-25 | Toshiba Corp | Screen operation system and program |
JP2008269557A (en) * | 2007-03-26 | 2008-11-06 | Seiko Epson Corp | Image search device and image search method |
JP2008261946A (en) * | 2007-04-10 | 2008-10-30 | Sharp Corp | Display control device and method |
JP5617222B2 (en) * | 2009-11-19 | 2014-11-05 | 富士通株式会社 | Display control program, display control method, and information processing apparatus |
-
2016
- 2016-11-11 JP JP2016220577A patent/JP6603194B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018077762A (en) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI423057B (en) | Layout versus schematic error system and method | |
CN112035667A (en) | Knowledge graph display method and device and terminal equipment | |
US7315990B2 (en) | Method and system for creating, viewing, editing, and sharing output from a design checking system | |
JP5665125B2 (en) | Image processing method and image processing system | |
JP2008046812A (en) | Table data processing method and device | |
JP6603194B2 (en) | Screen recognition device, screen recognition method, and screen recognition program | |
CN112965645B (en) | Page dragging method and device, computer equipment and storage medium | |
CN101373481A (en) | Image search apparatus, image search method, storage medium storing a program | |
US9304981B1 (en) | System and method for providing an inter-application overlay to communicate information between users and tools in the EDA design flow | |
CN111666101A (en) | Software homologous analysis method and device | |
US20160364908A1 (en) | Analysis Model Creation Assistance System, Analysis Model Creation Assistance Device and Analysis Model Creation Assistance Program | |
JP2020140450A (en) | Structured data generation method and structured data generation device | |
JP5829330B2 (en) | Method and apparatus for identifying fonts | |
CN111602129B (en) | Smart search for notes and ink | |
JP6662755B2 (en) | Object search device, object search method, and object search program | |
JP5933045B2 (en) | CAD data processing apparatus and processing method | |
JP2018055256A (en) | Information processing apparatus, information processing method, and program | |
JP2009169533A (en) | Image arrangement data generation device and image arrangement data generation method | |
WO2016170690A1 (en) | Input control program, input control device, input control method, character correction program, character correction device, and character correction method | |
JP2010250569A (en) | Image retrieval device | |
JP7358838B2 (en) | Information processing device and information processing program | |
CN111078671A (en) | Method, device, equipment and medium for modifying data table field | |
CN104252492A (en) | Method for searching data and electronic device thereof | |
KR102466706B1 (en) | Electronic device that enables easy selection of dependent edit action in document editing programs and operating method thereof | |
JP2018128850A (en) | Information processing program, information processing method, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6603194 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |